Hầu hết chatbot hiện nay chưa hoàn thiện. Do đó, bên cạnh nguồn dữ liệu lớn dùng để đào tạo, các công cụ như Bing AI hay ChatGPT vẫn đang tiếp tục được huấn luyện thông qua quá trình tương tác và cập nhật thông tin với người dùng.
Thử nghiệm quy mô lớn bằng người thực
Chỉ sau hai tháng xuất hiện, ChatGPT đã vượt mốc 100 triệu người dùng. Bing AI vẫn đang trong giai đoạn thử nghiệm giới hạn từ 7/2, nhưng theo Microsoft, công cụ này cũng đã thu hút hàng triệu người từ 169 quốc gia.
Cả hai đều gặp một số vấn đề như cung cấp thông tin sai, "bịa đặt" câu trả lời, thậm chí cãi tay đôi với người dùng. Trên Twitter ngày 19/2, CEO OpenAI Sam Altman cho biết: "Dù còn một số lỗi, việc giới thiệu sớm những công cụ này rất quan trọng, nhất là khi có đủ thông tin đầu vào và nỗ lực huấn luyện lặp đi lặp lại để làm cho mọi thứ đúng hơn".
Trước đó, Sarah Bird, giám đốc cấp cao trong nhóm AI của Microsoft, cũng nói: "Nhiều công ty toàn cầu đã bắt tay nghiên cứu công nghệ tương tự, nhưng chưa có đủ nguồn lực hoặc hướng đi trong việc xây dựng chatbot một cách có trách nhiệm. Microsoft cảm thấy gần như có vị trí độc nhất để nhận phản hồi từ người dùng trên quy mô toàn cầu".
Giới chuyên gia nhận định, việc tung ra chatbot của Microsoft và OpenAI mang lại cho cả hai lợi thế cạnh tranh, cũng như giúp thu thập lượng dữ liệu khổng lồ từ hàng triệu người dùng. Tất cả truy vấn người dùng nhập vào tiếp tục chuyển ngược vào hệ thống để đào tạo và cải thiện AI.
Tiềm ẩn tác hại
Theo nhà khoa học Nathan Lambert tại startup Huggingface, những người đang sử dụng chatbot thế hệ mới đều giống như "chuột bạch". Huggingface là đối thủ của OpenAI với sản phẩm Bloom, chatbot mã nguồn mở với tính năng tương tự ChatGPT.
Nhóm ủng hộ "AI có đạo đức" hay "AI có trách nhiệm" cũng coi quyết định thử nghiệm toàn cầu của Microsoft và OpenAI rất nguy hiểm. "Việc nhìn thấy hàng loạt thông tin sai lệch trong giai đoạn đầu tiếp xúc với một khái niệm mới có thể khiến não bộ sinh ra định kiến, từ đó gây tác hại lâu dài", Celeste Kidd, giáo sư tâm lý học tại Đại học California, nói.
Bà Kidd ví việc thử nghiệm ChatGPT giống như cho hàng triệu người tiếp xúc hóa chất nguy hiểm. "Hãy hình dung ai đó cho một chất vào nước uống và nói: 'Chúng ta sẽ xem nó có gây ung thư không'. Sau đó, bạn mắc bệnh, còn người cung cấp không chịu trách nhiệm", bà nói.
Theo giáo sư này, các mô hình chatbot AI có xu hướng chứa đựng những thành kiến mà người dùng không nhận ra lập tức. Ví dụ, AI có thể đưa ra những quan điểm "như thật" thu được từ Internet. Nếu không đủ khôn ngoan để nhận ra tính đúng sai, người dùng có thể bị AI thao túng. "Khi hàng triệu người tiếp xúc với sự thành kiến này trong hàng tỷ tương tác, AI này có khả năng điều chỉnh quan điểm ở quy mô toàn cầu", bà Kidd nhận định.
Giáo sư Mark Riedl tại Viện Công nghệ Georgia cũng cho rằng loại bỏ thông tin bịa đặt, thiên kiến khỏi công cụ tìm kiếm dạng chatbot là bất khả thi hiện nay. Do đó, ông đánh giá việc Microsoft và OpenAI phát hành dạng công nghệ này ra công chúng là quá sớm.
Tuy vậy, giới chuyên gia cho rằng AI sẽ tiếp tục được đào tạo bằng chính người dùng. Tiến sĩ Lambert của Huggingface thừa nhận bất kỳ doanh nghiệp AI nào, kể cả công ty của ông, sẽ gặp bất lợi lớn nếu không có nguồn dữ liệu từ người dùng. "Nếu không, các đối thủ cạnh tranh buộc phải chi hàng trăm nghìn, thậm chí hàng triệu USD để trả cho đối tác cung cấp dịch vụ đào tạo AI. Tất nhiên, dữ liệu đó không tốt bằng người thực", ông nói.
Bảo Lâm (theo WSJ)