Năm 2017, vài tháng trước khi qua đời, thiên tài vật lý Stephen Hawking đã mô tả sự xuất hiện của AI là "điều tồi tệ nhất trong lịch sử văn minh của loài người". Chỉ ba năm sau, với sự ra đời của GPT-3, các chuyên gia cho rằng công nghệ AI này đang chứng minh lời của Hawking là đúng.
GPT-3 là mô hình ngôn ngữ sử dụng deep learning để tạo ra văn bản có độ tin cậy rất cao. Đây là công nghệ thuộc thế hệ thứ ba trong dự án GPT được phát triển bởi OpenAI - phòng nghiên cứu phi lợi nhuận đặt ở San Francisco (Mỹ), được tài trợ bởi Elon Musk, Peter Thiel và nhiều nhà đầu tư khác ở Thung lũng Silicon.
Theo công bố mới đây, GPT-3 có thể soạn thảo nội dung tự nhiên như người viết. Hệ thống này được OpenAI "học" từ cơ sở dữ liệu khổng lồ gồm hàng triệu nội dung tiếng Anh ở nhiều lĩnh vực. Khi người dùng đưa ra yêu cầu, AI sẽ lọc các nội dung liên quan, thu thập các tham số rời rạc rồi kết hợp với nhau, cuối cùng trả về văn bản hoàn thiện, phù hợp với "đề bài".
GPT (Generative Pre-training Transformer) đầu tiên ra mắt năm 2018, sử dụng mô hình ngôn ngữ tổng quát bao gồm hai mạng thần kinh tự cạnh tranh nhằm hoàn thiện lẫn nhau. Khi đó, GPT đã tự tạo ra những đoạn văn bản hoàn chỉnh. Thế hệ thứ hai, GPT-2, trình làng tháng 2/2019 có độ hoàn thiện cao hơn, đến nỗi Musk từ chối công bố vì sợ nó có thể đăng tin giả lên Internet.
GPT-3 là thế hệ thứ ba, ra mắt hồi tháng 5 vừa rồi và chính thức có mặt dưới dạng giao diện lập trình ứng dụng (API) cho các nhà phát triển cuối tháng 7. Hệ thống sử dụng cơ sở dữ liệu với 175 tỷ tham số, lớn gấp nhiều lần so với 1,5 tỷ tham số của GPT-2 và 17 tỷ tham số từ siêu máy tính chuyên về AI của Microsoft.
GPT-3 mạnh hơn 115 lần so với GPT-2, đồng nghĩa rằng nó thông minh hơn và có khả năng tạo ra văn bản không khác gì con người. Bên cạnh đó, nó còn có thể dịch thuật, trả lời câu hỏi, thực hiện các nhiệm vụ cần lý luận nhanh, điều chỉnh tên miền... với tốc độ rất cao.
"Trong lịch sử, các hệ thống mô phỏng ngôn ngữ tự nhiên vẫn thiếu sắc thái thể hiện", Carolyn Rose, Giáo sư tại Viện Công nghệ Ngôn ngữ của Đại học Carnegie Mellon, nói. "Nhưng GPT-3 có vẻ khác. Dựa trên những thử nghiệm ban đầu, GPT-3 đã 'thổi bay' các mô hình hiện có nhờ bộ cơ sở dữ liệu khổng lồ mà nó học được".
OpenAI muốn thương mại hóa GPT-3 vào cuối năm nay để xây dựng chatbot cho các hệ thống trả lời tự động. Dù vậy, không ít chuyên gia đánh giá nó có thể bị lợi dụng để thực hiện mục đích khác.
GPT-3 hiện được giới chuyên môn đánh giá rất cao. Một bài báo trên MIT Technology Review mô tả hệ thống này "chất lượng đến kinh ngạc" nhưng "hoàn toàn vô tâm". Trong khi đó, David Chalmers, một triết gia người Australia, coi GPT-3 là "một trong những AI thú vị và quan trọng nhất từng được loài người tạo ra".
Tuy nhiên, các nhà khoa học cũng coi nó là mối đe dọa tiềm năng. "Các mô hình ngôn ngữ mạnh mẽ có thể bị lợi dụng để gây hại cho xã hội. Ví dụ, chúng tung thông tin sai lệch, tin giả, thư rác, lừa đảo, làm giả các quy trình pháp lý của chính phủ... lên Internet", một chuyên gia giải thích. Người này còn cho rằng, AI có thể soạn thảo nội dung tự nhiên như con người, đe dọa công việc của các nhà văn, nhà thơ, biên tập viên, người viết kịch bản, nhân viên dịch thuật...
Không giống video deepfake dễ bị lộ, giới chuyên gia gọi "textfake" - nội dung giả mạo do AI tạo ra dưới dạng văn bản - còn nguy hiểm hơn rất nhiều, do khó bị phát hiện giả mạo. "Bằng cách thêu dệt nên một mạng lưới thông tin giả mạo phức tạp để đánh lừa và thao túng con người, các nội dung 'textfake' có thể thay đổi suy nghĩ của chúng ta, nhấn chìm chúng ta vào một 'nồi canh' đầy thông tin sau lệch", Telegraph bình luận. "Nếu chúng kết hợp cả video, hình ảnh và âm thanh giả mạo, lòng tin vào nội dung trên Internet sẽ bị xói mòn".
Bên cạnh đó, những công cụ AI như GPT-3 cũng đặt ra thách thức mới cho các công ty truyền thông xã hội trong việc kiểm duyệt nội dung. Hiện tai, những công ty như Facebook đang ở vai trò là "nhà điều hành nền tảng", thường xuyên lập luận rằng họ không có nhiệm vụ phân biệt đúng sai, dù vẫn có đội ngũ kiểm duyệt riêng.
"Điều gì sẽ xảy ra nếu những lời nói dối được tạo ra, lan truyền và bình luận hoàn toàn bằng các thuật toán? Họ có trách nhiệm với những thứ này không?", một chuyên gia đặt câu hỏi.
Hawking từng nói trước mối đe dọa của AI, con người "cần nhận thức được những mối nguy hiểm, áp dụng các phương pháp quản lý và thực hành tốt nhất có thể, cũng như chuẩn bị trước cho những hậu quả của nó".
Theo Telegraph, đã đến lúc cần chế tài mới trong các lĩnh vực có thể đe dọa đến cuộc sống con người.
Bảo Lâm tổng hợp