Tỷ lệ sự cố có thể chấp nhận của máy bay là bao nhiêu? Chắc chắn sẽ luôn cao hơn 0%, dù con người cố tìm mọi cách để cải thiện con số này. Điều tương tự đúng với cả AI.
Điều đó không có nghĩa là AI không mang lại giá trị thực tế. Mọi người cần hiểu vì sao máy móc mắc lỗi, cũng có nghĩa là hiểu rõ ba thách thức ngăn việc phát triển AI hoàn hảo.
Thiên vị ngầm
Những suy nghĩ vô thức có thể che mờ lý lẽ và hành động của từng người. Thiên vị ngầm đóng vai trò không nhỏ trong phân biệt đối xử giữa con người với nhau, nó cũng ngăn các nhà khoa học sử dụng AI để giảm định kiến trong xã hội. AI học hỏi từ con người, nếu thiên vị ngầm xuất hiện trong quá trình này, AI sẽ học cách thiên vị của con người.
Khi AI làm việc, nó sẽ đào sâu thêm sự thiên vị, dù công việc của cỗ máy có thể phục vụ lợi ích xã hội.
Một ví dụ cụ thể là công nghệ sàng lọc gia đình Allegheny, được phát triển tại Mỹ để dự đoán những đứa trẻ mồ côi nào có nguy cơ bị bố mẹ nuôi bạo hành. Quá trình triển khai giải pháp này gặp hàng loạt vấn đề, nhất là khi Sở Dịch vụ Nhân sinh tại các bang thừa nhận nó có thể thiên vị về chủng tộc và thu nhập.
Những chương trình phát hiện khả năng bỏ mặc trẻ em thường bị nhầm lẫn khi đánh đồng các bậc cha mẹ sống trong nghèo khổ với tiêu chí vô tâm hoặc ngược đãi con cái. Nhiều bước đi đã được thực hiện nhằm hạn chế nguy cơ thiên vị ngầm khi những vấn đề như vậy được phát hiện.
Tuy nhiên, loại trừ hoàn toàn vấn đề khó hơn nhiều, khi con người không thể xử lý toàn bộ những biến số chưa được biết tới, cũng như bối cảnh xã hội. Thế nào là hành vi "đúng đắn" hoặc "công bằng"? Nếu con người không thể nhận diện, định nghĩa và giải quyết các câu hỏi như vậy, họ sẽ không thể dạy máy móc làm điều tương tự. Đây là động lực chủ yếu khiến AI không thể trở nên hoàn hảo.
Dữ liệu
Dữ liệu là nguồn nhiên liệu cho AI. Máy tính học hỏi qua giá trị thật của dữ liệu, như quy tắc để ra quyết định chứ không phải bản thân những quyết định của nó. Máy tính đòi hỏi lượng dữ liệu rất lớn để phát hiện mô hình và những mối tương quan trong thông tin đó.
Nếu dữ liệu không hoàn thiện hoặc có lỗi, AI không thể học tốt. Covid-19 cung cấp một ví dụ điển hình khi Trung tâm Kiểm soát và Phòng ngừa Dịch bệnh Mỹ (CDC), Tổ chức Y tế Thế giới (WHO), Dự án Theo dõi Covid (CTP) và Đại học John Hopkins đều đưa ra những con số chênh lệch rõ rệt.
Sự khác biệt như vậy sẽ gây khó khăn khiến AI khó phát hiện mô hình dữ liệu, chưa kể tìm ra những ý nghĩa ẩn trong khối thông tin đó. Đó là chưa kể tới trường hợp dữ liệu sai hoặc không đầy đủ, như tìm cách dạy AI về chăm sóc sức khỏe nhưng chỉ cung cấp dữ liệu về phụ nữ.
Ngoài ra, còn một thử thách khi người dùng cung cấp quá nhiều thông tin, chúng có thể không liên quan, vô nghĩa hoặc thậm chí gây phân tâm. IBM từng cho hệ thống Watson đọc trang Urban Dictionary và công cụ này không thể phân biệt khi nào cần dùng ngôn ngữ bình thường và lúc nào có thể sử dụng từ lóng hoặc chửi bậy. Vấn đề nghiêm trọng tới mức AI phải xóa Urban Dictionary khỏi bộ nhớ của Watson.
Một AI cần học 100 triệu từ để thông thạo một ngôn ngữ, trong khi một đứa trẻ chỉ cần 15 triệu từ. Nó cho thấy các nhà phát triển chưa thể xác định loại dữ liệu nào có ý nghĩa, khiến AI tập trung vào những thông tin thừa, gây tốn thời gian hoặc thậm chí là xác định sai mô hình dữ liệu.
Sự kỳ vọng
Con người luôn mắc sai lầm, nhưng họ lại kỳ vọng máy móc trở nên hoàn hảo. Trong lĩnh vực chăm sóc sức khỏe, giới chuyên gia ước tính tỷ lệ chẩn đoán sai có thể lên tới 20%, tức là một trong năm bệnh nhân tại Mỹ sẽ bị đoán sai bệnh.
Khi được thông báo số liệu và trường hợp giả định AI hỗ trợ chẩn đoán cho tỷ lệ lỗi khoảng 0,001%, phần lớn người được khảo sát vẫn chọn bác sĩ con người. Lý do là họ cho rằng tỷ lệ chẩn đoán sai của AI quá cao, ngay cả khi nó thấp hơn nhiều so với con người. Mọi người kỳ vọng AI trở nên hoàn hảo, tệ hơn là trông đợi người huấn luyện AI cũng hoàn hảo.
Ngày 23/3/2016, Microsoft khởi động Twitter bot mang tên "Tay" (Thinking About You). Tập đoàn Mỹ đã huấn luyện AI có khả năng ngôn ngữ và tương tác của một cô gái 19 tuổi, sau đó đưa nó ra xã hội. Microsoft phải tắt Tay chỉ sau 16 tiếng và 96.000 dòng tweet, bởi nó đã biến thành một kẻ phân biệt chủng tộc và giới tính, thậm chí còn tung hô chủ nghĩa phát xít.
Một số người đã dạy ngôn ngữ nổi loạn cho Tay để phá hoại, trong khi Microsoft không nghĩ tới việc huấn luyện cho nó về hành vi không phù hợp, khiến Tay không có nền tảng hoặc lý do để hiểu rằng những ý đồ xấu có tồn tại. Thử nghiệm xã hội của Microsoft đã thất bại, trở thành minh chứng về xã hội con người hơn là giới hạn của AI.
"Ba thử thách này cho thấy AI sẽ không bao giờ trở nên hoàn hảo, đó không phải thuốc trị bách bệnh mà nhiều người kỳ vọng. AI có thể làm nhiều thứ phi thường cho loài người, như hồi phục khả năng cơ động cho người mất chân tay, hoặc cải thiện khả năng sản xuất lương thực mà lại dùng ít tài nguyên hơn. Tuy nhiên, mọi người cần nhớ rằng AI không bao giờ hoàn hảo, cũng giống chúng ta", ký giả Neil Sahota của Forbes nhận xét.
Điệp Anh (theo Forbes)