Barack Obama gọi Donald Trump là "gã nhảm nhí", Mark Zuckerberg khoe khoang về việc có "toàn quyền kiểm soát hàng tỷ dữ liệu bị đánh cắp". Đây từng là những video được chia sẻ hàng nghìn lượt trên mạng xã hội, nhưng chúng không thật. Đó là sản phẩm của deepfake.
Deepfake sử dụng trí tuệ nhân tạo để ghép khuôn mặt của một người vào đối tượng khác, tạo ra hình ảnh của các sự kiện giả. Bạn muốn "nhét từ vào miệng" của một chính trị gia, đóng vai chính trong một bộ phim yêu thích hoặc nhảy như một dancer chuyên nghiệp, hoàn toàn có thể sử dụng công nghệ deepfake.
Tuy nhiên, các chuyên gia lo ngại công nghệ này được sử dụng cho các mục đích bất chính, trong đó có nội dung khiêu dâm. Công ty AI Deeptrace đã tìm thấy 15.000 video deepfake vào tháng 9/2019. Trong đó có 96% phim "nóng" và điều đáng kinh ngạc là 99% video ghép mặt của các sao nữ nổi tiếng và sao phim khiêu dâm.
Thậm chí các kỹ thuật mới cho phép những người không phải chuyên gia cũng có thể tạo ra deepfake một cách dễ dàng. Khi các bức ảnh và video giả mạo lan rộng, có thể thúc đẩy các hành động trả thù bằng sản phẩm khiêu dâm. Danielle Citron, giáo sư luật tại Đại học Boston, cho biết: "Công nghệ deepfake đang được vũ khí hóa để chống lại phụ nữ". Ngoài nội dung khiêu dâm, còn có rất nhiều nội dung giả mạo, châm biếm và trò tinh quái khác.
Không chỉ video, công nghệ deepfake còn có thể tạo ra những bức ảnh giả nhưng cực kỳ chân thật và thuyết phục. Một nhà báo không tồn tại của Bloomberg có tên là "Maisy Kinsley" sở hữu hồ sơ cá nhân "xịn xò" trên LinkedIn và Twitter, nhưng người này là sản phẩm của deepfake. Một người giả mạo khác trên LinkedIn có tên là "Katie Jones", tuyên bố làm việc tại Trung tâm Nghiên cứu Chiến lược và Quốc tế, nhưng được cho là một kẻ lừa đảo được tạo ra để thực hiện hoạt động gián điệp nước ngoài.
Âm thanh cũng có thể được làm giả để tạo ra giọng nói giống hệt các nhân vật công chúng, từ cảm xúc, sự chuyển động và nhịp điệu chính xác y hệt giọng gốc. Tháng 3/2019, giám đốc chi nhánh của một công ty năng lượng Đức đã chuyển gần 200.000 bảng Anh (gần 280.000 USD) vào tài khoản ngân hàng Hungary sau khi bị một kẻ lừa đảo bắt chước giọng nói của CEO người Đức gọi điện. Các trò gian lận tương tự đã sử dụng tin nhắn thoại WhatsApp để tạo ra deepfake.
Deepfake ra đời vào năm 2017 khi một tài khoản trên diễn đàn Reddit đăng các clip "nóng" giả mạo lên trang này. Các video đã hoán đổi khuôn mặt của nhiều người nổi tiếng như Gal Gadot, Taylor Swift, Scarlett Johansson, Emma Watson... thành những phụ nữ biểu diễn khiêu dâm.
Scarlett Johansson bị ghép mặt vào hàng tá cảnh sex hồi năm 2018. Những sản phầm này nhanh chóng lan truyền trên mạng. Một video giả của cô, được mô tả là cảnh "bị rò rỉ", xuất hiện trên trang web khiêu dâm thu hút hơn 1,5 triệu lượt xem. Nói với tờ Washington Post, Johansson cho biết: "Không gì có thể ngăn ai đó cắt và dán hình ảnh của tôi hoặc của bất kỳ ai khác lên một cơ thể khác và làm nó trông giống như thật". "Thực tế là cố gắng bảo vệ bản thân khỏi Internet và sự sa đọa của nó về cơ bản là gần như không còn hy vọng. Internet là một hố sâu bóng tối nuốt chửng chính nó", ngôi sao Avengers nói.
Mới đây, Ninh Dương Lan Ngọc, nữ diễn viên nổi tiếng của Việt Nam cũng vướng vào ồn ào lộ clip "nóng". Trên một trang web đen, video đi kèm lời giới thiệu "Ninh Dương Lan Ngọc là một trong những cái tên đình đám nhất showbiz Việt. Sinh năm 1990, nữ diễn viên gốc Sài thành đã đóng nhiều kiểu nhân vật, bao gồm mỹ nhân và phản diện".
Tuy nhiên, ngay sau đó, Lan Ngọc lên tiếng khẳng định người trong video 18+ không phải cô. Lê Duy Tường, người đại diện của Lan Ngọc, cũng phản hồi rằng nữ diễn viên là "nạn nhân của deepfake và những vụ bôi nhọ qua mạng". "Chúng tôi đang cố gắng tìm kiếm thêm những đối tượng có liên quan và liên hệ với các cơ quan có thẩm quyền để giải quyết những vấn đề này", người đại diện nói thêm.
Ninh Dương Lan Ngọc là sao nữ đầu tiên ở Việt Nam trở thành nạn nhân của video khiêu dâm giả mạo. Tuy nhiên, deepfake không chỉ nhắm mục tiêu đến những người nổi tiếng, chúng còn được sử dụng để làm nhục và quấy rối tình dục những phụ nữ bình thường.
Rana Ayyub, một nhà báo điều tra ở Ấn Độ, nhận một nguồn tin cảnh báo về video sex deepfake cho thấy khuôn mặt của cô trên cơ thể của một phụ nữ trẻ. Đoạn video đã được hàng nghìn người lan truyền trên Facebook, Twitter và WhatsApp, thậm chí bị đính kèm với những lời đe dọa cưỡng hiếp hoặc tiết lộ địa chỉ nhà riêng của Ranna.
Nữ nhà báo 34 tuổi phải chịu đựng sự quấy rối tình dục trực tuyến trong nhiều năm. Cô đã nhảy dựng lên khi nhìn thấy video đó, khóc nhiều ngày sau đó và được đưa đến bệnh viện trong trạng thái lo lắng tột độ. Rana kể rằng, tại đồn cảnh sát, các sĩ quan từ chối lập án, và cô có thể thấy họ mỉm cười khi xem video khiêu dâm giả mạo.
"Nó gần như phá hủy tôi. Thật quá sức chịu đựng. Tất cả những gì tôi có thể nghĩ đến là nhân phẩm của mình: Đây có phải là những gì mọi người sẽ nghĩ về tôi không?", Rana nói. "Điều này đáng sợ hơn rất nhiều so với một mối đe dọa thể chất. Nó tác động lâu dài đến tâm trí bạn. Và không gì có thể ngăn điều đó xảy ra với tôi lần nữa", cô nói thêm.
Những nạn nhân của deepfake là bằng chứng rõ ràng về "việc trở thành phụ nữ trên Internet tồi tệ và khủng khiếp như thế nào, nơi tất cả đàn ông cảm thấy có quyền trên cơ thể của phụ nữ", Anita Sarkeesian, nhà phê bình truyền thông người Mỹ, đồng thời cũng là nạn nhân của deepfake khiêu dâm với video giả mạo hơn 30.000 lượt xem trên trang web người lớn Pornhub, cho biết.
"Với những người phụ nữ bình thường, điều này có thể làm tổn hại đến triển vọng công việc, mối quan hệ cá nhân, danh tiếng, sức khỏe tinh thần", Sarkeesian nói thêm.
Huyền Vũ (Theo Guardian, The Lily)