Theo Vice, thẩm phán Juan Manuel Padilla Garcia ở Cartagena (Colombia) đã dùng ChatGPT để ra phán quyết hôm 30/1, trong phiên tòa một người dân kiện công ty bảo hiểm vì từ chối thanh toán chi phí điều trị y tế, trị liệu và di chuyển cho cậu con trai mắc chứng tự kỷ.
Garcia xác nhận ông đã hỏi ChatGPT: "Trẻ vị thành niên mắc chứng tự kỷ có được miễn phí chi phí điều trị không? Trước đó có tòa án nào đưa ra phán quyết tương tự chưa?". Siêu AI đáp: "Có, theo quy định ở Colombia, trẻ vị thành niên được chẩn đoán mắc chứng tự kỷ được chi trả miễn phí các liệu pháp điều trị".
Chatbot thậm chí dẫn luật số 1753, bộ luật năm 2015 của Colombia về quyền lợi được áp dụng cho toàn bộ cơ sở y tế dù công hay tư. Câu trả lời của ChatGPT cũng được ghi lại trong hồ sơ tòa án và thẩm phán Garcia tuyên bố công ty bảo hiểm phải chi trả toàn bộ chi phí cho người bệnh.
"Việc dùng AI hỗ trợ các quyết định của thẩm phán hoàn toàn phù hợp với luật pháp. Tuy nhiên, ChatGPT chưa thể thay các thẩm phán ra quyết định", ông nói.
Theo Vice, việc Garcia dẫn đầy đủ câu trả lời của ChatGPT trong hồ sơ và đưa ra quyết định đã đánh dấu lần đầu tiên một thẩm phán công khai dùng siêu AI để xử án.
Luật pháp Colombia không cấm áp dụng AI, nhưng việc sử dụng ChatGPT của thẩm phán Garcia đang gây nhiều tranh cãi. Theo Giáo sư Juan David Gutierrez tại Đại học Rosario (Argentina), ChatGPT không thật sự là nguồn tham khảo tốt để ra quyết định trên tòa. Ông đã hỏi ChatGPT những câu hỏi giống nhau và nhận được nhiều câu trả lời khác nhau.
"Các thẩm phán dùng ChatGPT để ra quyết định là thiếu trách nhiệm, thậm chí vô đạo đức", Gutierrez viết trên Twitter tuần này. Ông kêu gọi các khóa đào tạo khẩn cấp về "kiến thức kỹ thuật số" cho các thẩm phán.
Ngay cả OpenAI, công ty tạo ra ChatGPT, cũng thừa nhận công cụ này vẫn có những hạn chế đáng kể và không nên dùng để đưa ra những quyết định mang tính hệ quả.
ChatGPT được giới thiệu rộng rãi đến công chúng từ tháng 11/2022 và gây chú ý khi có thể đưa ra câu trả lời theo ngữ cảnh cho đa dạng chủ đề. Tuy nhiên các chuyên gia nhận định mô hình này không thật sự hiểu biết về nội dung. Nó chỉ đơn giản tổng hợp câu trả lời dựa trên xác xuất từ hàng triệu ví dụ được dùng để huấn luyện hệ thống.
OpenAI đã dùng các công nhân để đào tạo AI nhận diện ngôn ngữ thù địch, bạo hành và có xu hướng bạo lực... Ngoài trả lương rẻ mạt cho lao động phải làm việc trong môi trường độc hại, các nhà phân tích còn lo ngại quá trình xây dựng các bộ lọc có thể khiến ChatGPT cho ra những kết quả thiên kiến, không đúng sự thật.
Việc dùng các AI như ChatGPT tại các hệ thống tòa án đang bị các nhà đạo đức AI chỉ trích vì kết quả đầu ra thường có xu hướng phân biệt chủng tộc, giới tính và làm gia tăng khoảng cách bất bình đẳng trong xã hội. Mặc dù hồ sơ tòa án Colombia nói AI chủ yếu được dùng để đẩy nhanh quá trình soạn thảo, ra quyết định và các câu trả lời đều được kiểm tra lại, đây là dấu hiệu cho thấy AI đã bắt đầu trở thành công cụ đắc lực cho các thẩm phán.
Khương Nha