"Thật kỳ lạ khi mọi người nghĩ đến AI như một con cá lớn và sợ nó. Nhưng cũng sẽ thật điên rồ nếu nói tôi không sợ hãi chút nào. Tôi đồng cảm với những người đang có cảm giác lo sợ như vậy", Sam Altman nói về tương lai của siêu AI trên podcast của nhà nghiên cứu công nghệ Lex Fridman cuối tuần qua.
Theo Altman, AI có thể mang lại lợi ích to lớn, nhưng ông lo về thông tin sai lệch, cú sốc kinh tế, hoặc thứ gì đó ở mức độ vượt xa bất cứ những gì con người đã chuẩn bị. "Và điều đó không cần đòi hỏi trí tuệ siêu việt", ông nói.
CEO OpenAI cho rằng Mô hình ngôn ngữ lớn (LLM) có thể tác động mạnh mẽ đến nguồn thông tin và cách tương tác trên Internet theo hướng có chủ đích mà người dùng không hay biết. Ông ví dụ, LLM tích hợp vào mạng xã hội có thể "chỉ đạo" bất cứ thông tin nào theo định hướng từ trước.
Ngày 14/3, OpenAI ra mắt GPT-4 với khả năng xử lý đa phương thức đầu vào, trong đó có hình ảnh, giúp người dùng tương tác với nhiều chế độ. Theo tài liệu liên quan đến cách xử lý một số rủi ro của GPT-4 được công bố sau đó, OpenAI lo ngại mô hình AI có thể "khuếch đại thành kiến và duy trì khuôn mẫu".
Trong podcast, Altman khuyến cáo người dùng không sử dụng AI cho các quyết định mang tính rủi ro cao, chẳng hạn vấn đề thực thi pháp luật, tư pháp hình sự, hoặc để đưa ra lời khuyên về pháp lý, sức khỏe. Bên cạnh đó, ông cũng cho biết các mô hình AI của công ty đang học cách thận trọng hơn trong việc trả lời câu hỏi.
"Trên tinh thần xây dựng cộng đồng và dần dần đưa xã hội phát triển, chúng tôi loại bỏ một số thứ. Nó đang có những sai sót, chúng tôi sẽ tạo ra những phiên bản tốt hơn", ông cho biết. "Tất nhiên, chúng tôi cũng cố gắng kiểm soát những thứ AI không nên trả lời. Cái gì cũng có mặt tốt và xấu. Chúng tôi sẽ giảm thiểu cái xấu và tối đa hóa cái tốt".
Gần đây, Altman liên tục nhắc đến cảm giác lo lắng về AI, đặc biệt sau khi OpenAI thu hút sự chú ý với loạt sản phẩm như Dall-E, ChatGPT. Đầu năm nay, ông thừa nhận đã sốc vì ChatGPT quá phổ biến. Hôm 17/3, ông cảnh báo công nghệ trí tuệ nhân tạo có thể tái định hình xã hội, đi kèm nhiều hiểm họa khó lường.
"Chúng ta cần cẩn trọng. Mọi người nên thấy vui khi chúng tôi bày tỏ lo ngại về AI, nhất là khi các mô hình phát triển chúng có thể bị lạm dụng cho những chiến dịch tung tin giả", Altman nói khi đó.
Tỷ phú Elon Musk nhiều lần cảnh báo AI và trí tuệ nhân tạo tổng hợp còn nguy hiểm hơn vũ khí hạt nhân. Altman thừa nhận phiên bản GPT-4 sử dụng phương thức "suy luận suy diễn" thay vì ghi nhớ, dẫn tới những phản hồi kỳ lạ với người dùng. "Tôi luôn nhắc mọi người về vấn đề ảo giác, trong đó mô hình AI đưa ra các nội dung được chúng coi là thông tin thực tế, nhưng hoàn toàn là nội dung tự bịa ra", ông nói.
Bảo Lâm (theo Business Insider)