Năm 2018, Liz O'Sullivan và đồng nghiệp ở một startup chuyên về AI bắt đầu phát triển hệ thống có khả năng tự loại bỏ hình ảnh nhạy cảm khỏi Internet.
Họ gửi hàng triệu tấm ảnh trên mạng cho các nhân viên ở Ấn Độ, những người dành hàng tuần để đánh dấu các ảnh nhạy cảm. Dữ liệu kèm ảnh sẽ được dùng để huấn luyện AI nhận diện ảnh độc hại. Tuy nhiên, O'Sullivan và nhóm phát triển phát hiện ra vấn đề: Những nhân lực Ấn Độ đã đánh dấu toàn bộ hình ảnh các cặp đồng tính là không đứng đắn.
Đây là thời điểm O'Sullivan nhận ra thiên kiến có thể tác động đến AI một cách dễ dàng và thường xuyên như thế nào. "Đó giống một trò chơi đập chuột", cô nói.
O'Sullivan tháng trước được bổ nhiệm làm giám đốc điều hành công ty Parity. Đây là một trong nhiều tổ chức, bao gồm hàng chục startup và các tập đoàn công nghệ lớn, đang đưa ra những dịch vụ và công cụ để loại bỏ tính thiên kiến khỏi hệ thống AI.
Các doanh nghiệp sẽ sớm cần sự trợ giúp này. Ủy ban Thương mại Liên bang Mỹ (FTC) hồi tháng 4 cảnh báo việc bán những hệ thống AI có thiên kiến về chủng tộc hoặc có nguy cơ ngăn cản các cá nhân được nhận việc làm, nhà ở, bảo hiểm và những lợi ích khác. Một tuần sau, Liên minh châu Âu (EU) hé lộ dự thảo quản lý, trong đó sẽ trừng phạt những công ty đưa công nghệ này ra thị trường.
Hiện chưa rõ các nhà quản lý sẽ kiểm soát thiên kiến của AI như thế nào. Viện Tiêu chuẩn và Công nghệ Quốc gia Mỹ tuần trước công bố dự thảo đề xuất cách các doanh nghiệp có thể đối phó thiên kiến trong AI, bao gồm cả phương án điều chỉnh cách phát triển công nghệ.
Christian Troncoso, giám đốc cấp cao về chính sách pháp lý thuộc Software Alliance, liên minh đại diện nhiều hãng phần mềm lớn nhất thế giới, cảnh báo các chính phủ có thể siết chặt quản lý AI.
Hàng loạt nghiên cứu trong những năm qua cho thấy phần mềm nhận diện khuôn mặt, chăm sóc sức khỏe hay thậm chí là trợ lý kỹ thuật số cũng có nguy cơ mang thiên kiến chống lại phụ nữ, người da màu và các cộng đồng thiểu số. Nhiều chính quyền địa phương đã hành động đối phó điều này.
Cuối năm 2019, chính quyền bang New York của Mỹ mở cuộc điều tra tổ chức UnitedHealth Group sau khi nghiên cứu cho thấy thuật toán trong hệ thống của họ ưu tiên chăm sóc cho bệnh nhân da trắng thay vì da màu, dù bệnh nhân da trắng khỏe mạnh hơn. Bang New York năm ngoái cũng điều tra dịch vụ tín dụng Apple Card sau cáo buộc phân biệt đối xử với phụ nữ.
Hơn 100 triệu USD đã được các công ty chi ra trong 6 tháng qua để kiểm tra những vấn đề đạo đức liên quan đến AI, so với 186 triệu USD hồi năm ngoái.
Nỗ lực giải quyết vấn đề đạt bước ngoặt hồi tháng 6 khi Software Alliance đưa ra khuôn khổ chi tiết nhằm chống nguy cơ thiên kiến với AI, trong đó thừa nhận việc nhiều công nghệ tự động hóa vẫn cần sự giám sát thường xuyên từ con người. Liên minh này tin rằng tài liệu có thể giúp các công ty thay đổi hành vi và mang đến phương án kiểm soát cho những nhà lập pháp.
Amazon, IBM, Google và Microsoft cũng đưa ra những công cụ đối phó thiên kiến AI, dù họ từng bị chỉ trích vì chính tình trạng này.
O'Sullivan nói rằng không có giải pháp đơn giản để chấm dứt thiên kiến trong AI. Một vấn đề gai góc là nhiều người trong ngành công nghệ đặt nghi vấn rằng tình trạng này có phổ biến và nguy hiểm như cô khẳng định hay không. Tuy nhiên, O'Sullivan tin rằng thái độ trong ngành đang thay đổi, nhất là sau nhiều năm hứng chỉ trích từ công chúng và nguy cơ siết chặt quản lý.
O'Sullivan đang phát triển Parity dựa trên công cụ được thiết kế bởi Rumman Chowdhury, nhà nghiên cứu đạo đức AI từng làm việc nhiều năm trong công ty tư vấn Accenture trước khi trở thành lãnh đạo tại Twitter.
Những startup khác như Fiddler AI và Weights and Biases sử dụng công cụ giám sát dịch vụ AI và nhận diện hành vi có nguy cơ dẫn tới thiên kiến, trong khi công nghệ của Parity lại đặt mục tiêu phân tích dữ liệu, công nghệ và phương pháp được các doanh nghiệp sử dụng để xây dựng dịch vụ, từ đó xác định lĩnh vực có nguy cơ và đưa ra đề xuất thay đổi.
Công cụ của Parity dùng AI, vốn có nguy cơ sản sinh thiên kiến của chính mình, cho thấy con dao hai lưỡi của AI cũng như khó khăn trong việc hoàn thiện chúng. "Phần mềm nhận diện thiên kiến trong AI không hoàn hảo, nhưng tác dụng của nó chính là nhận diện vấn đề tiềm tàng và hối thúc người sử dụng soi xét kỹ hơn", O'Sullivan nói.
Điệp Anh (Theo New York Times)