Deepfake là thuật ngữ để chỉ những hình ảnh hay âm thanh bị hoán đổi, giả mạo, chỉnh sửa khiến chúng trông như thật nhờ sự hỗ trợ của phần mềm trí tuệ nhân tạo. Ban đầu ra đời với mục đích phô diễn sức mạnh của AI, deepfake dần bị lợi dụng cho những mục đích riêng, như ghép khuôn mặt diễn viên vào phim khiêu dâm, hay chỉnh sửa video gốc để chính trị gia, CEO nổi tiếng... nói những điều mà thực tế họ không hề phát ngôn.
Trước nguy cơ này, các công cụ phát hiện deepfake đã nhanh chóng xuất hiện, như công cụ của Đại học Kỹ thuật Munich (Đức) từ tháng 4/2018. Cũng giống deepfake, chương trình này sử dụng AI để nhận diện hình ảnh giả mạo. Nó lấy dữ liệu khuôn mặt trong hình ảnh, sau đó đưa vào mạng nơ-ron để soi từng chi tiết, tìm kiếm những điểm bất hợp lý, chẳng hạn cái chớp mắt trông không tự nhiên.
Tuy nhiên, các nhà nghiên cứu tại Đại học UC San Diego vừa tìm ra cách chống lại các công cụ phát hiện deepfake, bằng cách chèn dữ liệu gọi là mẫu đối nghịch vào trong khung hình video. Chúng có khả năng đánh lừa cả những hệ thống nhận dạng thông minh nhất, như khiến hệ thống nghĩ rằng con rùa là một khẩu súng hoặc một quả bóng chày, hay tưởng một video giả mạo là thật. Để thực hiện điều này, các nhà nghiên cứu thêm độ nhiễu vào hình ảnh, khiến mạng nơ-ron phân loại sai.
Paarth Neekhara, tốt nghiệp ngành kỹ thuật máy tính tại Đại học UC San Diego, cho biết các phương pháp tạo video deepfake xuất hiện ngày càng nhiều, khiến giới công nghệ cũng phải nỗ lực trong việc xây dựng những công cụ phát hiện nội dung deepfake. Ví dụ, Facebook đã tổ chức chương trình Deepfake Detection Challenge để đẩy nhanh quá trình phát triển các công cụ phát diện deepfake.
"Dù những công cụ này được khẳng định có thể phân loại chính xác hơn 90% trên tập dữ liệu video giả và thật, nghiên cứu của chúng tôi cho thấy kẻ tấn công sẽ dễ dàng qua mặt bằng cách chèn độ nhiễu một cách tinh vi mà mắt thường khó nhận thấy vào mỗi khung hình video để khiến máy phát hiện phân loại sai", Neekhara nói.
Trong quá trình thử nghiệm, phương pháp của Đại học UC San Diego có khả năng lừa hệ thống phát hiện deepfake với tỷ lệ hơn 99%. Tỷ lệ thấp nhất mà nó đạt được cũng lên tới 78,33%.
Các nhà nghiên cứu hiện không cung cấp chi tiết về phương pháp do lo ngại nó sẽ bị sử dụng sai mục đích. Tuy nhiên, nghiên cứu này cũng cho thấy quá trình chống deepfake sẽ giống như trò chơi "mèo vờn chuột" không có hồi kết.
Shehzeen Hussain, Tiến sĩ kỹ thuật máy tính tại UC San Diego, nhận định cuộc chiến này sẽ diễn ra giống như trong lĩnh vực an ninh mạng. Tin tặc tìm thấy lỗ hổng trong phần mềm, sau đó các chuyên gia bảo mật vá lỗ hổng, và tin tặc lại tìm thấy lỗ hổng khác trong bản cập nhật của phần mềm đó...
"Hiện các công cụ phát hiện deepfake được huấn luyện dựa trên bộ dữ liệu chứa các video thật và giả. Không có gì đảm bảo những công cụ này sẽ chống lại được các hệ thống tạo deepfake tinh vi trong tương lai", Hussain thừa nhận.
Minh Minh (theo DigitalTrends)