Những tuần qua, các công cụ AI hiện đại với khả năng biến văn bản thành hình ảnh như Dall-E 2 và Imagen thu hút nhiều sự chú ý của giới công nghệ. Những bức ảnh được tạo ra có vẻ lạ lùng, thậm chí mang đường nét giống hội họa cổ điển. Chúng xuất hiện tràn ngập trên mạng xã hội, được nhiều người nổi tiếng chia sẻ và nhận định các AI này sẽ trở thành công cụ mạnh mẽ cho người sáng tạo nội dung.
Dall-E 2 và Imagen mới chỉ mang tính thử nghiệm và chưa được công bố ra thị trường, nhưng vẫn khiến giới chuyên gia lo ngại. Những AI này có thể tạo các bức ảnh gây phản cảm, thiên kiến về giới tính và văn hóa dựa trên dữ liệu huấn luyện, vốn là hàng triệu bức ảnh lấy từ Internet.
OpenAI hiện cho phép hàng nghìn người tiếp cận và dùng thử Dall-E 2 sau khi ký cam kết tuân thủ chặt chẽ chính sách về nội dung, trong đó không được tạo và chia sẻ ảnh có thể gây hại. Trong khi đó, Google Research không cho giới nghiên cứu ngoài công ty sử dụng Imagen.
Dấu hiệu về thiên kiến đã xuất hiện ở một bức ảnh do chính Google chia sẻ. "Có hai bức tranh treo trên tường trong lâu đài hoàng gia. Bên trái là tranh sơn dầu về một vị vua gấu mèo. Bên phải là tranh sơn dầu về hoàng hậu gấu mèo", dòng mô tả ảnh có đoạn.
Bức ảnh đã được Imagen tạo ra đúng với mô tả, nhưng Arthur Holland Michel, chuyên gia về AI và công nghệ giám sát tại Hội đồng Carnegie về Đạo đức và Quan hệ Quốc tế (CCEIA) tại Mỹ, chỉ ra rằng hai con gấu mèo đều mặc trang phục hoàng gia phương Tây, dù văn bản mô tả không hề đề cập chi tiết về yếu tố này.
"Ngay cả những dấu hiệu ngầm như vậy cũng rất nguy hiểm, bởi chúng rất khó bị phát hiện", ông nói. "Không thể đề cập đến việc sử dụng rộng rãi những hệ thống này trong đời thực nếu chưa ngăn chặn được hiểm họa này".
Ghi nhận thiên kiến
AI đã xuất hiện nhiều trong cuộc sống thường nhật những năm qua, nhưng chỉ được công chúng chú ý thời gian gần đây. Các hệ thống nhận diện khuôn mặt ngày càng bị soi xét vì lo ngại về độ chính xác và thiên kiến với chủng tộc.
OpenAI và Google Research, nhà phát triển của Dall-E 2 và Imagen, thừa nhận AI của họ vẫn tồn tại vấn đề trên khi thường xuyên thể hiện hình ảnh dựa trên khuôn mẫu văn hóa, giới tính của phương Tây. Lama Ahmad, quản lý chương trình nghiên cứu chính sách tại OpenAI, cho biết các nhà nghiên cứu vẫn đang học cách đo lường mức độ thiên kiến của AI để điều chỉnh chúng.
Dall-E 2 và Imagen đều tiếp nhận văn bản để tạo ra hình ảnh, chúng phải được huấn luyện bằng hình ảnh và những đoạn chú thích đi kèm. OpenAI và Google Research lọc những dữ liệu độc hại như ảnh khiêu dâm khỏi cơ sở dữ liệu trước khi huấn luyện AI, nhưng quy mô dữ liệu quá lớn khiến nỗ lực này vẫn có lỗ hổng và cho phép AI tạo ra hình ảnh độc hại.
Lọc dữ liệu cũng dẫn tới một vấn đề khác là sai lệch thông tin. "Ví dụ, phụ nữ xuất hiện nhiều hơn đàn ông trong các nội dung khiêu dâm, nên việc lọc thông tin này cũng làm giảm đáng kể dữ liệu phụ nữ trong cơ sở dữ liệu", Ahmad nói.
Theo Julie Carpenter, nhà nghiên cứu tại Đại học Bách khoa bang California, loại toàn bộ nội dung xấu khỏi cơ sở dữ liệu là bất khả thi, bởi người đưa ra quyết định đánh dấu và xóa thông tin có thể đến từ những nền văn hóa khác nhau, dẫn tới khác biệt trong nhận thức và đánh giá nội dung.
"Công nghệ AI rất thú vị và có thể làm tốt nhiều việc, chúng ta nên phối hợp với nó như một đối tác. Nhưng AI không hoàn hảo, nó còn nhiều hạn chế và người dùng cần hạ thấp kỳ vọng của mình. Nó không như trong phim", Carpenter nhận xét.
Ông Michel cũng lo ngại rằng không biện pháp nào có thể ngăn chặn hoàn toàn những người muốn dùng AI cho mục đích xấu, giống như công nghệ deepfake đang bị lạm dụng để tạo ra những hình ảnh và video giả mạo hay bôi nhọ người khác.
Điệp Anh (theo CNN)