Phát biểu tại một sự kiện ở Washington tuần này, ông Smith nói mối quan tâm lớn của ông là sự gia tăng của nội dung deepfake trong việc bắt chước và mạo danh ngoại hình và giọng nói của người khác.
"Chúng ta phải giải quyết các vấn đề xoay quanh deepfake", Chủ tịch Microsoft khẳng định. "Cần thực hiện các bước chống lại việc thay đổi nội dung hợp pháp để lừa gạt thông qua AI".
Deepfake là thuật ngữ chỉ sự kết hợp giữa deep learning (học sâu) và fake (giả), trong đó AI được sử dụng để phân tích cử chỉ, nét mặt, giọng nói của một người, từ đó tái tạo và chỉnh sửa để cho ra đời ảnh hoặc video như thật. Công nghệ này đã xuất hiện từ nhiều năm. Tuy nhiên, cơn sốt AI tạo sinh - mô hình trí tuệ nhân tạo có thể sáng tác và sinh ra nội dung như ảnh, video, mã code, văn bản - khiến deepfake càng lan nhanh hơn.
Việc các công cụ này bị lợi dụng để tiến hành các chiến dịch phát tán thông tin sai lệch đang trở thành nỗi lo đối với các cơ quan quản lý. Ví dụ hồi tháng 3, Midjourney được sử dụng để tạo ảnh cựu tổng thống Mỹ Donald Trump bị bắt, hay Giáo hoàng Francis mặc áo trắng thời trang. Hai bức ảnh được chia sẻ rầm rộ trên mạng xã hội với đa số người dùng tin là thật, theo Washington Post.
Theo Brad Smith, người dùng cần được hướng dẫn để nhận biết nội dung từ AI, như gắn nhãn thông báo khi xuất hiện ảnh và video được tạo ra bởi trí tuệ nhân tạo. Ỗng cũng đề xuất Mỹ phải thắt chặt quy định về việc xuất khẩu nhằm ngăn chặn mô hình AI có thể rơi vào tay các bên thứ ba.
Trong phiên điều trần trước Quốc hội Mỹ ngày 16/5, Sam Altman, CEO của OpenAI, cũng cho rằng trí tuệ nhân tạo là một sự tiến bộ, nhưng có thể trở thành hiểm họa nếu rơi vào tay kẻ xấu, "có thể đi chệch hướng, tạo sai lầm và gây hại đáng kể cho thế giới nếu không được điều chỉnh hợp lý". Ông mong muốn hợp tác với chính phủ để ngăn chặn các kịch bản xấu trong tương lai, thúc đẩy việc thành lập một cơ quan giám sát công nghệ này.
Thanh Tú (theo CNN)