Cuối tuần trước, một file ghi âm lan truyền trên mạng xã hội, thu hút hàng triệu người dùng quan tâm. Trong đó, Phó tổng thống JD Vance "nói" Elon Musk đang "đóng giả làm một nhà lãnh đạo vĩ đại" khiến chính quyền trở nên tồi tệ.

Phó tổng thống Mỹ JD Vance. Ảnh: The White House
Theo ghi nhận của 404Media, riêng trên TikTok, bản ghi được phát trên hai triệu lần với 8.000 bình luận nhưng không được dán nhãn AI. Tương tự, trên các nền tảng như YouTube và X, số lượt xem lên đến hàng trăm nghìn lần.
Cuối ngày 23/3, William Martin, Giám đốc truyền thông của ông Vance, lên tiếng trên mạng xã hội X: "Đoạn ghi âm giả 100%, chắc chắn không phải lời của Phó tổng thống".
Hiện có một số công cụ phát hiện âm thanh tạo từ trí tuệ nhân tạo, nhưng AI cũng ngày một cải tiến, gây khó khăn cho việc nhận dạng. Reality Defender, công ty cung cấp phần mềm phát hiện AI tạo thông tin sai lệch, cũng chỉ đánh giá file âm thanh "có khả năng là giả" thay vì khẳng định.
"Chúng tôi đã đưa đoạn âm thanh vào nhiều mô hình chuyên sâu và kết luận nó có thể là giả", phát ngôn viên Reality Defender cho biết. "Tiếng ồn và tiếng vang được thêm vào một cách tinh vi để che giấu chất lượng âm thanh do deepfake tạo ra, khiến việc phát hiện khó khăn".
TikTok, YouTube và X chưa đưa ra bình luận.
Theo 404Media, âm thanh "hoàn toàn đáng tin" vì giọng nói giống hệt Vance. Tiếng nhiễu rất giống với các cuộc ghi âm bí mật từng xảy ra với các chính trị gia khác trong quá khứ. Tiếng ồn ở nền cũng khiến các máy dò deepfake khó nhận ra âm thanh giả.
Việc công cụ chuyên sâu cũng khó xác định tính thật giả của file âm thanh trên khiến giới chuyên gia lo ngại trong bối cảnh deepfake hoành hành. Deepfake là sự kết hợp giữa deep learning (học sâu) và fake (giả), sử dụng AI phân tích cử chỉ, nét mặt, giọng nói của một người, từ đó tái tạo và chỉnh sửa để cho ra đời ảnh, video và âm thanh như thật.
Người dùng phổ thông hiện dễ dàng tiếp cận loại AI này. Chỉ cần một file giọng nói và một đoạn văn bản đầu vào, các công cụ miễn phí trên mạng có thể tạo các bản ghi với nội dung tùy ý. Consumer Reports đã tìm hiểu 6 sản phẩm sao chép giọng nói AI phổ biến và nhận thấy không có biện pháp hiệu quả nào có thể ngăn người dùng sử dụng AI sai mục đích.
Tuần trước, Cơ quan cảnh sát châu Âu Europol cảnh báo AI đang góp phần đẩy nhanh tốc độ phạm tội. "AI có thể tự động hóa hoạt động tội phạm, khiến chúng có khả năng mở rộng hơn và khó bị phát hiện hơn", tổ chức này cho biết.
Evan Dornbush, cựu chuyên gia an ninh mạng của Cơ quan Anh ninh quốc gia Mỹ (NSA), nói với Forbes rằng AI có thể giúp kẻ lừa đảo tạo thông điệp đáng tin cậy và nhanh hơn, đồng thời chi phí cũng rẻ hơn.
Theo ZDnet, người dùng vẫn có thể phát hiện âm thanh deepfake thông qua ngữ điệu. Nếu giọng "đều đều, nói lắp bắp và không tự nhiên", đây có thể là âm thanh AI. Ngoài ra, những tiếng ồn lạ, hoặc "quá trong trẻo như phòng thu" cũng có thể đặt vào diện nghi vấn. Dù vậy, với sự tiến bộ công nghệ, AI đang dần khắc phục nhược điểm này mỗi ngày.
Còn Better Business Bureau đưa ra nguyên tắc: "Nếu mọi thứ nghe có vẻ quá ổn để có thể thành sự thật, chúng ta nên nghi ngờ".
Bảo Lâm
- Deepfake ngày càng khó phân biệt
- Bất lực với công cụ AI tạo ảnh khỏa thân
- Dễ bị lừa đảo online, người già Mỹ học cách nhận biết deepfake
- Telegram thành ổ deepfake khiêu dâm, nhiều phụ nữ kêu cứu
- Câu hỏi cứu giám đốc Ferrari khỏi lừa đảo deepfake