"AI có thể gây hại đáng kể cho thế giới", CEO OpenAI Sam Altman phát biểu trong phiên điều trần tại quốc hội Mỹ tuần trước. Ông cảnh báo về chiến dịch tung tin giả và can thiệp có thể được tiến hành nhờ các công nghệ như ChatGPT, đồng thời kêu gọi giới chức Mỹ áp đặt biện pháp kiểm soát.
Phát biểu của Altman được đưa ra trong bối cảnh các chuyên gia đưa ra quan điểm trái chiều về trí tuệ nhân tạo. Nguy cơ AI vượt qua con người và độc chiếm thế giới đang chuyển dịch từ tiểu thuyết viễn tưởng sang truyền thông đại chúng, gây chia rẽ trong lòng Thung lũng Silicon và với ngay cả những người đang thúc đẩy ứng dụng AI vào cuộc sống.
Nhiều nhà nghiên cứu và kỹ sư cho rằng sự xuất hiện của AI sát thủ với khả năng tiêu diệt con người chỉ là mối lo sợ không dựa trên cơ sở thực tế. Điều này đang kéo sự chú ý của thế giới khỏi những đe dọa thật sự mà AI tạo ra, như vấn đề bản quyền, riêng tư cá nhân, an ninh mạng và các chính phủ triển khai vũ khí chết người mà không có sự kiểm soát.
Tranh cãi càng nóng lên khi Google, Microsoft và OpenAI tung ra các phiên bản chatbot với khả năng trò chuyện gần như người thật, cũng như tạo hình ảnh dựa trên văn bản đơn giản.
"Đây không phải khoa học viễn tưởng", Geoffrey Hinton, được coi là "cha đỡ đầu" của AI, nói. Ông bỏ việc tại Google để có thể tự do đề cập đến những hiểm họa xoay quanh trí tuệ nhân tạo, nhấn mạnh AI khôn hơn người có thể xuất hiện trong 5-20 năm tới, thay vì 30-100 năm như ước tính ban đầu.
"Các doanh nghiệp công nghệ lớn đang chạy đua phát triển những cỗ máy ngày càng thông minh hơn mà không hề có sự giám sát", Anthony Aguirre, Giám đốc Future of Life Institute (FLI), tổ chức thành lập năm 2014 để nghiên cứu những mối đe dọa tồn vong với xã hội, nói.
FLI xem xét khả năng AI có thể hủy diệt con người từ 2015 và được Elon Musk tài trợ một phần kinh phí. "Nếu AI có khả năng suy nghĩ vượt con người, chúng sẽ tìm cách tự kiểm soát và ngày càng khó ngăn AI vượt khuôn khổ. Đây là vấn đề khoa học viễn tưởng đã thể hiện rất cụ thể", Aguirre nói.
Musk từ lâu đã nói con người nên thận trọng với việc phát triển AI siêu thông minh. Ông cho rằng nó còn nguy hiểm hơn so với đầu đạn hạt nhân. Năm 2020, ông bày tỏ lo sợ một ngày nào đó công nghệ AI Deepmind của Google sẽ thay con người tiếp quản thế giới. Trong phỏng vấn với CNBC hồi đầu tuần, ông nói bản thân từng cấp vốn cho OpenAI để làm đối trọng với Google vì cảm thấy nhà đồng sáng lập Larry Page "quá ung dung" trước mối đe dọa của AI.
Trong khi đó, một số chuyên gia tại Thung lũng Sillicon lại cho rằng công chúng không cần lo về việc AI vượt qua con người và thâu tóm thế giới.
"Nên tập trung vào những mối đe dọa hiện tại, thay vì chạy theo những lo ngại về tính sống còn của loài người", Sara Hooker, Giám đốc phòng nghiên cứu của startup Cohere chuyên về AI, nêu quan điểm. Theo bà, nguy cơ ngay trước mắt là AI được huấn luyện dựa trên thông tin mang tính phân biệt chủng tộc và giới tính, cũng như thường xuyên đưa ra tin tức sai lệch và coi đó là đúng đắn.
Từ 2020, nhà nghiên cứu Timnit Gebru và Margaret Mitchell, khi đó còn làm tại Google, đồng xuất bản tài liệu với học giả Emily M. Bender và Angelina McMillan-Major thuộc Đại học Washington, trong đó cho rằng khả năng giao tiếp của mô hình ngôn ngữ lớn (LLM) đang tạo ra mối nguy lớn hơn nhiều so với nỗi lo về việc AI có nhận thức và hủy diệt loài người.
Họ nói LLM là "những con vẹt" dự đoán từ ngữ tiếp theo trong một câu dựa trên phán đoán xác suất, thay vì hiểu dung của câu, thường xuyên tung ra những lời phân biệt chủng tộc và giới tính. Gebru cho biết tài liệu này bị Google kiểm soát và cô mất việc vì đề cập tới nó. Mitchell cũng bị sa thải sau đó vài tháng.
"Rất nguy hiểm khi chúng ta tự đánh lạc hướng bằng cách xây dựng những kịch bản thảm họa do AI tạo ra. Chúng ta cần tập trung vào phương thức lạm dụng công nghệ đang được các công ty AI thực hiện, nhất là khi họ đang tìm cách tập trung quyền lực và làm gia tăng bất công xã hội", nhóm nghiên cứu cảnh báo.
Những tranh cãi kể trên khởi nguồn từ đột phá trong lĩnh vực học máy 10 năm qua, cho phép xây dựng hệ thống có thể tổng hợp thông tin từ lượng lớn dữ liệu, không cần chỉ dẫn chặt chẽ của con người. Năm ngoái, OpenAI và hàng loạt công ty bắt đầu tung ra các công cụ ứng dụng bước phát triển tiếp theo của công nghệ học máy, đó là AI tạo sinh. Chúng được huấn luyện bằng hàng nghìn tỷ ảnh và văn bản từ Internet, cho phép sinh ra nội dung dựa trên yêu cầu đơn giản từ người dùng, viết mã lập trình và nói chuyện như người thật.
Điệp Anh (theo Washington Post)