Hiện nay, một số công cụ AI được huấn luyện để tạo dựng khuôn mặt mới từ tấm hình rung mờ (chứ không phải làm rõ nét chân dung trong ảnh). Nổi bật trong số đó là giải pháp Pulse của Đại học Duke (Mỹ) với khả năng dựng khuôn mặt khá giống với người trong ảnh gốc.
Ngày 20/6, tài khoản Chicken3gg chia sẻ lên Twitter ảnh Obama được làm mờ và khuôn mặt người da trắng được tái tạo thông qua chương trình trí tuệ nhân tạo Face Depixelizer. Công cụ này sử dụng thuật toán của Pulse.
Kỹ sư Robert Osazuwa Ness, tác giả của altdeep.ai, cũng chạy thử nghiệm Pulse trên máy tính của ông và gặp vấn đề tương tự. Thuật toán này luôn cho ra những khuôn mặt da trắng từ ảnh độ phân giải thấp chụp người da màu.
Những kết quả nói trên là bằng chứng mới nhất cho một vấn đề đã được đề cập trước đây: phân biệt chủng tộc trong AI.
Denis Malimonov, lập trình viên phát triển Face Depixelizer, cho biết công cụ AI này không có nhiệm vụ phục chế ảnh độ phân giải thấp, mà sử dụng trí tuệ nhân tạo để "đoán" khuôn mặt, sau đó tạo chân dung gần giống với người được chụp ngoài đời thực.
Trong email gửi Vice, nhóm tác giả Pulse giải thích, thuật toán sử dụng mô hình StyleGAN, được đào tạo thông qua bộ dữ liệu khuôn mặt lấy từ dịch vụ lưu trữ ảnh Flickr. "Bộ dữ liệu này đa dạng hơn CelebA - một cơ sở dữ liệu phổ biến khác và chứa gần 90% khuôn mặt người da trắng. Dù vậy, nó cũng không tránh khỏi sự chênh lệch trong dữ liệu".
Nhóm tác giả thừa nhận, Pulse tạo khuôn mặt người da trắng thường xuyên hơn so với da màu. Nhưng họ cũng nhắc lại quan điểm của Malimonov rằng các công cụ như Pulse không cố xác định danh tính của cá nhân trong ảnh, mà đơn giản là dựng chân dung độ phân giải cao về người mà nó tự hình dung ra.
Một chương trình AI khác cũng đang nổi lên tuần này là DeepFaceDrawing của Viện Hàn lâm Khoa học Trung Quốc và Đại học Hong Kong. Nó biến những bức vẽ đơn giản, nguệch ngoạc thành mặt người chân thực và sống động. Tuy nhiên, đa số ảnh sử dụng để huấn luyện DeepFaceDrawing là khuôn mặt da trắng hoặc Nam Mỹ.
Các bộ dữ liệu vốn không cân bằng và chứa sẵn định kiến, như số ảnh người da trắng luôn nhiều hơn, hay ảnh người cầm súng được mặc định là đàn ông, người làm bếp đa số là phụ nữ... Điều này dẫn đến AI cũng bị "đào tạo" lệch lạc theo.
"Định kiến có thể xuất phát từ chính bản thân nhà nghiên cứu khi phát triển giải pháp AI. Do đó, chúng ta cần đến sự đa dạng để giải quyết vấn đề liên quan tới định kiến trong máy học", Alexia Jolicoeur-Martineau, nghiên cứu sinh về trí tuệ nhân tạo, chia sẻ trên Vice.
Châu An