Ngày 26/8, công tố viên Pháp cho biết vụ bắt Pavel Durov nằm trong khuôn khổ cuộc điều tra từ ngày 8/7, với những cáo buộc có thể đưa ra như đồng lõa trong việc phát tán nội dung khiêu dâm trẻ em, bán ma túy, rửa tiền và từ chối hợp tác với giới chức.
Thông tin này làm làm nổ ra cuộc tranh luận liên quan đến trách nhiệm của các nền tảng trong việc kiểm duyệt nội dung. "Telegram tuân thủ luật pháp châu Âu, bao gồm Đạo luật dịch vụ kỹ thuật số. Thật vô lý khi cho rằng một nền tảng hoặc chủ sở hữu của nền tảng đó phải chịu trách nhiệm về việc nó bị lạm dụng", Telegram nói trên X, hôm 26/8.
Một tranh cãi lớn trên Internet nhiều năm qua là các trang web, dịch vụ lưu trữ nội dung - như mạng xã hội YouTube, Facebook, X, ứng dụng nhắn tin, trang tin tức có phần bình luận - có phải chịu trách nhiệm trước pháp luật về nội dung do người dùng đăng tải, chia sẻ, trao đổi.
Nhiều năm qua, Google, Facebook, TikTok... đã triển khai cả người và AI kiểm duyệt nội dung, đồng thời hợp tác với các cơ quan chức năng gỡ bỏ thông tin vi phạm. CEO các nền tảng này cũng nhiều lần ra điều trần trước Quốc hội Mỹ và Ủy ban châu Âu, bị phạt tiền hoặc phải xin lỗi vì tác động tiêu cực của nền tảng, nhưng họ chưa từng bị coi là "đồng phạm" trong hoạt động buôn bán ma túy, bạo lực mạng, gian lận, kích động khủng bố, lạm dụng trẻ em... và bị bắt như Pavel Durov đang phải đối mặt tại Pháp.
Các nhà lập pháp ở nhiều nước lo ngại "quyền lực mềm" ngày càng gia tăng của các công ty Internet đang tiếp tay lan truyền nội dung có hại đến nhóm dễ bị tổn thương như trẻ em, đồng thời khiến các nền tảng không thực sự quyết liệt trong việc kiểm soát thông tin sai lệch và nguy hiểm.
Chẳng hạn, TikTok được cho là đã dùng thuật toán lan truyền thông tin, gây ảnh hưởng tiêu cực đến tâm sinh lý của hàng triệu người trẻ. Instagram cũng bị các nhà nghiên cứu xã hội chỉ trích vì thiếu kiểm soát nội dung chặt chẽ, gây hại đến trẻ vị thành niên.
Cuối 2022, khi Elon Musk mua lại Twitter (X) và tuyên bố dỡ bỏ hàng rào kiểm duyệt nội dung, nội dung độc hại lập tức tràn ngập mạng xã hội này. Thống kê của tổ chức Nghiên cứu sự lây lan mạng (NCRI) cho thấy, 12 tiếng sau khi Musk nắm quyền kiểm soát, số bài đăng liên quan đến phân biệt chủng tộc, xúc phạm, nội dung chính trị sai sự thật, ủng hộ khủng bố... tăng hơn 500%.
Tiết lộ chấn động về Facebook năm 2021 của nhân viên cũ Frances Haugen cũng nhắc đến thực trạng trên. Theo bà, Facebook có bộ quy tắc cộng đồng nhưng các phát ngôn gây thù hận và thông tin sai lệch không bị nền tảng ngăn chặn. Có ít nhất hai tài liệu được Haugen đưa ra cho thấy Facebook chỉ loại 3-5% nội dung gây thù ghét và dưới 1% nội dung bị coi là bạo lực hoặc kích động bạo lực.
Điều này phơi bày thực tế các nền tảng đang nắm trong tay công cụ kiểm duyệt nhưng không phải lúc nào họ cũng làm đúng trách nhiệm. Sau tất cả, không có lãnh đạo nào của Facebook, Instagram, X hay TikTok bị bắt hay đối mặt án tù. Nhưng vụ bắt CEO Telegram được xem là bước ngoặt mới, có thể định hình lại "kim bài miễn tử" của các nền tảng.
Dù vậy, cũng có ý kiến rằng việc các trang web cũng phải chịu trách nhiệm trước pháp luật về thông tin người dùng đăng tải sẽ kìm hãm sự phát triển của Internet. Khi đó, các chủ sở hữu buộc phải cảnh giác với mọi nội dung trên nền tảng, phải kiểm duyệt tự do ngôn luận và cho phép chính phủ các nước tiếp cận vào dữ liệu người dùng.
Washington Post dẫn lời John Scott-Railton, nhà nghiên cứu cấp cao tại Citizen Lab thuộc Đại học Toronto: "Đây thực sự là tiền lệ đáng sợ khi chứng kiến một CEO bắt vì nội dung người dùng chia sẻ".
Elon Musk cũng viết trên X: "Giờ là năm 2030 và ở châu Âu, bạn đang bị xét xử vì thích một meme". Ông liên tục chia sẻ video về CEO Telegram kèm hashtag #FreePavel (Trả tự do cho Pavel).
Nikkei đánh giá, vụ bắt giữ Durov đánh dấu một hành động mang tính quyết liệt nhất từ trước đến nay của một cơ quan nhà nước đối với một CEO công ty truyền thông xã hội. Điều này có thể sẽ tiếp tục thổi bùng cuộc tranh luận toàn cầu về việc liệu các nền tảng nên tuân thủ quy tắc về kiểm duyệt thế nào.
Khương Nha