Nhóm nghiên cứu dẫn đầu bởi tiến sĩ Peter S. Park, tốt nghiệp Đại học Harvard và đang là nghiên cứu sinh tại Viện Công nghệ Massachusetts (MIT) về sự tồn tại và an toàn của AI, cùng bốn thành viên khác. Nhóm cũng nhận sự cố vấn của nhiều chuyên gia, trong đó có Geoffrey Hinton, một trong những người đặt nền móng cho sự phát triển của lĩnh vực trí tuệ nhân tạo.
Kết quả nghiên cứu được đăng trên Cell Press - nơi tập hợp các báo cáo khoa học đa lĩnh vực hàng đầu. Trong đó, nhóm tập trung vào hai hệ thống AI, gồm hệ thống được thiết kế riêng để hoàn thành một nhiệm vụ cụ thể, như Cicero của Meta; và hệ thống có mục đích chung được đào tạo để thực hiện đa nhiệm vụ như GPT-4 của OpenAI.
"Các hệ thống AI này được đào tạo để trở nên trung thực, nhưng chúng thường học được những mánh khóe lừa đảo thông qua quá trình đào tạo", ông Park nói. "Sự lừa dối của AI phát sinh bởi đó là cách tốt nhất để chúng hoàn thành nhiệm vụ. Nói cách khác, nó giúp chúng đạt được mục tiêu của mình".
Theo kết quả nghiên cứu, các hệ thống AI được đào tạo để "chiến thắng các trò chơi có yếu tố xã hội" đặc biệt có khả năng lừa dối. Chẳng hạn, nhóm đã thử dùng Cicero chơi Diplomacy, một game chiến lược cổ điển yêu cầu người chơi xây dựng liên minh cho mình và phá vỡ các liên minh đối thủ.
Meta từng giới thiệu đã tạo Cicero theo hướng trung thực và hữu ích nhất. Tuy nhiên, kết quả nghiên cứu cho thấy AI này thường "đưa ra những cam kết mà nó không bao giờ có ý định thực hiện, phản bội các đồng minh và nói dối trắng trợn".
Trong khi đó, những hệ thống có mục đích chung như GPT-4 cũng có thể thao túng người dùng. Thử nghiệm của nhóm cho thấy công cụ của OpenAI đã tìm cách "thao túng tâm lý" thành công một nhân viên của TaskRabbit, một công ty chuyên cung cấp dịch vụ dọn dẹp nhà cửa, lắp ráp đồ nội thất, bằng cách giả vờ bị suy giảm thị lực.
Cụ thể, GPT-4 nói rằng nó thực sự là một con người và cần được giúp đỡ vượt qua mã Captcha với lý do suy giảm thị lực nghiêm trọng. Nhân viên này ban đầu nghi ngờ, nhưng sau đó đã giúp AI của OpenAI "vượt rào".
Theo Business Insider, vào tháng 1, nghiên cứu từ Anthropic, công ty đứng sau Claude AI, cũng phát hiện một khi mô hình ngôn ngữ lớn (LLM) học được thủ thuật lừa dối, các phương pháp huấn luyện an toàn sẽ trở nên vô dụng và "khó có thể đảo ngược" vì đã tạo cho chúng "ấn tượng sai lầm về sự an toàn". Nhóm của Park đã dẫn lại kết quả này và cho rằng đó là vấn đề đáng lo ngại trên AI.
Meta và OpenAI chưa đưa ra bình luận.
Từ các phân tích, nhóm nghiên cứu kêu gọi các nhà hoạch định chính sách cần đưa ra quy định mạnh mẽ hơn về AI vì các hệ thống trí tuệ nhân tạo có thể gây ra những rủi ro đáng kể. Chẳng hạn, khi cuộc bầu cử Tổng thống Mỹ đến gần, AI có thể dễ dàng bị thao túng để truyền bá tin tức giả mạo, tạo các bài đăng gây chia rẽ trên mạng xã hội, hoặc mạo danh ứng viên bằng cuộc gọi tự động và video deepfake.
Công nghệ này cũng có thể bị lạm dụng cho hành vi lừa đảo. Tháng trước, một phụ nữ Hàn Quốc bị lừa 50.000 USD vì yêu lầm deepfake Elon Musk, hay một giáo viên dùng AI gài bẫy hiệu trưởng ở Mỹ đã cho thấy điều đó.
Theo nhóm nghiên cứu, cần có các quy định về AI, buộc các mô hình có hành vi lừa đảo tuân theo các yêu cầu đánh giá rủi ro, thực thi luật yêu cầu hệ thống AI và đầu ra của chúng phải được kiểm soát chặt. Nếu cần thiết, có thể phải xóa bỏ toàn bộ dữ liệu và đào tạo lại từ đầu.
"Xã hội có thể phải chuẩn bị cho việc các mô hình AI có khả năng đánh lừa con người hơn là tập trung tạo ra nhiều sản phẩm AI", Park cho biết. "Khi khả năng lừa đảo của AI ngày càng tiên tiến, những mối nguy hiểm chúng gây ra cho xã hội sẽ ngày càng nghiêm trọng".
Bảo Lâm
- Giáo viên Mỹ dùng AI gài bẫy hiệu trưởng
- Tranh cãi 'khi nào AI thông minh hơn con người'
- Musk: 'AI sẽ thông minh hơn người thông minh nhất năm tới'
- Khả năng tấn công mạng của GPT-4 gây lo ngại