Thứ tư, 3/3/2021, 15:47 (GMT+7)

Clip 'nóng' giả mạo của Ninh Dương Lan Ngọc và mối nguy hại deepfake

Khuôn mặt của Scarlett Johansson, Gal Gadot, Ninh Dương Lan Ngọc... được ghép vào cơ thể của người khác và 'nhấp nhô' trong video 18+ trên các web đen với hàng chục nghìn lượt xem. Họ là nạn nhân của deepfake.

Barack Obama gọi Donald Trump là "gã nhảm nhí", Mark Zuckerberg khoe khoang về việc có "toàn quyền kiểm soát hàng tỷ dữ liệu bị đánh cắp". Đây từng là những video được chia sẻ hàng nghìn lượt trên mạng xã hội, nhưng chúng không thật. Đó là sản phẩm của deepfake.

So sánh video gốc và video fake về Tổng thống Nga Putin. Ảnh: AFP.

Deepfake sử dụng trí tuệ nhân tạo để ghép khuôn mặt của một người vào đối tượng khác, tạo ra hình ảnh của các sự kiện giả. Bạn muốn "nhét từ vào miệng" của một chính trị gia, đóng vai chính trong một bộ phim yêu thích hoặc nhảy như một dancer chuyên nghiệp, hoàn toàn có thể sử dụng công nghệ deepfake.

Deep fake và những màn đổi mặt idol khiến fan rợn người
 
 
Pha ghép mặt Tzuyu và Mina vào các nhân vật trong phim Start up gây hoang mang. Nhiều nữ idol Hàn Quốc bị deepfake một cách "tự nhiên" và "chân thật" trên các trang web khiêu dâm.

Tuy nhiên, các chuyên gia lo ngại công nghệ này được sử dụng cho các mục đích bất chính, trong đó có nội dung khiêu dâm. Công ty AI Deeptrace đã tìm thấy 15.000 video deepfake vào tháng 9/2019. Trong đó có 96% phim "nóng" và điều đáng kinh ngạc là 99% video ghép mặt của các sao nữ nổi tiếng và sao phim khiêu dâm.

Thậm chí các kỹ thuật mới cho phép những người không phải chuyên gia cũng có thể tạo ra deepfake một cách dễ dàng. Khi các bức ảnh và video giả mạo lan rộng, có thể thúc đẩy các hành động trả thù bằng sản phẩm khiêu dâm. Danielle Citron, giáo sư luật tại Đại học Boston, cho biết: "Công nghệ deepfake đang được vũ khí hóa để chống lại phụ nữ". Ngoài nội dung khiêu dâm, còn có rất nhiều nội dung giả mạo, châm biếm và trò tinh quái khác.

Ứng dụng hoán đổi khuôn mặt Zao của Trung Quốc hỗ trợ những người không phải chuyên gia có thể dễ dàng tạo ra deepfake. Ảnh: Imaginechina.

Không chỉ video, công nghệ deepfake còn có thể tạo ra những bức ảnh giả nhưng cực kỳ chân thật và thuyết phục. Một nhà báo không tồn tại của Bloomberg có tên là "Maisy Kinsley" sở hữu hồ sơ cá nhân "xịn xò" trên LinkedIn và Twitter, nhưng người này là sản phẩm của deepfake. Một người giả mạo khác trên LinkedIn có tên là "Katie Jones", tuyên bố làm việc tại Trung tâm Nghiên cứu Chiến lược và Quốc tế, nhưng được cho là một kẻ lừa đảo được tạo ra để thực hiện hoạt động gián điệp nước ngoài.

Âm thanh cũng có thể được làm giả để tạo ra giọng nói giống hệt các nhân vật công chúng, từ cảm xúc, sự chuyển động và nhịp điệu chính xác y hệt giọng gốc. Tháng 3/2019, giám đốc chi nhánh của một công ty năng lượng Đức đã chuyển gần 200.000 bảng Anh (gần 280.000 USD) vào tài khoản ngân hàng Hungary sau khi bị một kẻ lừa đảo bắt chước giọng nói của CEO người Đức gọi điện. Các trò gian lận tương tự đã sử dụng tin nhắn thoại WhatsApp để tạo ra deepfake.

Một video so sánh giữa video gốc và video deepfake về CEO Facebook Mark Zuckerberg. Ảnh: Washington Post.

Deepfake ra đời vào năm 2017 khi một tài khoản trên diễn đàn Reddit đăng các clip "nóng" giả mạo lên trang này. Các video đã hoán đổi khuôn mặt của nhiều người nổi tiếng như Gal Gadot, Taylor Swift, Scarlett Johansson, Emma Watson... thành những phụ nữ biểu diễn khiêu dâm.

Scarlett Johansson bị ghép mặt vào hàng tá cảnh sex hồi năm 2018. Những sản phầm này nhanh chóng lan truyền trên mạng. Một video giả của cô, được mô tả là cảnh "bị rò rỉ", xuất hiện trên trang web khiêu dâm thu hút hơn 1,5 triệu lượt xem. Nói với tờ Washington Post, Johansson cho biết: "Không gì có thể ngăn ai đó cắt và dán hình ảnh của tôi hoặc của bất kỳ ai khác lên một cơ thể khác và làm nó trông giống như thật". "Thực tế là cố gắng bảo vệ bản thân khỏi Internet và sự sa đọa của nó về cơ bản là gần như không còn hy vọng. Internet là một hố sâu bóng tối nuốt chửng chính nó", ngôi sao Avengers nói.

Công nghệ deepfake có thể gắn khuôn mặt của một người vào cơ thể của người khác.

Mới đây, Ninh Dương Lan Ngọc, nữ diễn viên nổi tiếng của Việt Nam cũng vướng vào ồn ào lộ clip "nóng". Trên một trang web đen, video đi kèm lời giới thiệu "Ninh Dương Lan Ngọc là một trong những cái tên đình đám nhất showbiz Việt. Sinh năm 1990, nữ diễn viên gốc Sài thành đã đóng nhiều kiểu nhân vật, bao gồm mỹ nhân và phản diện".

Tuy nhiên, ngay sau đó, Lan Ngọc lên tiếng khẳng định người trong video 18+ không phải cô. Lê Duy Tường, người đại diện của Lan Ngọc, cũng phản hồi rằng nữ diễn viên là "nạn nhân của deepfake và những vụ bôi nhọ qua mạng". "Chúng tôi đang cố gắng tìm kiếm thêm những đối tượng có liên quan và liên hệ với các cơ quan có thẩm quyền để giải quyết những vấn đề này", người đại diện nói thêm.

Ninh Dương Lan Ngọc phủ nhận tin đồn clip sex. Người đại diện khẳng định Lan Ngọc là nạn nhân của deepfake.

Ninh Dương Lan Ngọc là sao nữ đầu tiên ở Việt Nam trở thành nạn nhân của video khiêu dâm giả mạo. Tuy nhiên, deepfake không chỉ nhắm mục tiêu đến những người nổi tiếng, chúng còn được sử dụng để làm nhục và quấy rối tình dục những phụ nữ bình thường.

Rana Ayyub, một nhà báo điều tra ở Ấn Độ, nhận một nguồn tin cảnh báo về video sex deepfake cho thấy khuôn mặt của cô trên cơ thể của một phụ nữ trẻ. Đoạn video đã được hàng nghìn người lan truyền trên Facebook, Twitter và WhatsApp, thậm chí bị đính kèm với những lời đe dọa cưỡng hiếp hoặc tiết lộ địa chỉ nhà riêng của Ranna.

Nữ nhà báo 34 tuổi phải chịu đựng sự quấy rối tình dục trực tuyến trong nhiều năm. Cô đã nhảy dựng lên khi nhìn thấy video đó, khóc nhiều ngày sau đó và được đưa đến bệnh viện trong trạng thái lo lắng tột độ. Rana kể rằng, tại đồn cảnh sát, các sĩ quan từ chối lập án, và cô có thể thấy họ mỉm cười khi xem video khiêu dâm giả mạo.

"Nó gần như phá hủy tôi. Thật quá sức chịu đựng. Tất cả những gì tôi có thể nghĩ đến là nhân phẩm của mình: Đây có phải là những gì mọi người sẽ nghĩ về tôi không?", Rana nói. "Điều này đáng sợ hơn rất nhiều so với một mối đe dọa thể chất. Nó tác động lâu dài đến tâm trí bạn. Và không gì có thể ngăn điều đó xảy ra với tôi lần nữa", cô nói thêm.

Những nạn nhân của deepfake là bằng chứng rõ ràng về "việc trở thành phụ nữ trên Internet tồi tệ và khủng khiếp như thế nào, nơi tất cả đàn ông cảm thấy có quyền trên cơ thể của phụ nữ", Anita Sarkeesian, nhà phê bình truyền thông người Mỹ, đồng thời cũng là nạn nhân của deepfake khiêu dâm với video giả mạo hơn 30.000 lượt xem trên trang web người lớn Pornhub, cho biết.

"Với những người phụ nữ bình thường, điều này có thể làm tổn hại đến triển vọng công việc, mối quan hệ cá nhân, danh tiếng, sức khỏe tinh thần", Sarkeesian nói thêm.

Huyền Vũ (Theo Guardian, The Lily)