Sự việc diễn ra với ông Jerome Dewald, 74 tuổi, nguyên đơn trong một vụ tranh chấp lao động với công ty cũ, tại phiên phúc thẩm của Tòa án cấp cao New York vào ngày 26/3.
Ông Dewald là bên kháng cáo, đã nộp một video lập luận và được thẩm phán yêu cầu mở để tòa xem xét.
Màn hình bật lên, hiển thị một chàng trai trẻ đẹp trai mặc áo sơ mi cài cúc, có vẻ như đang ngồi trong văn phòng tại nhà. Anh ta ngồi khoanh chân và đặt tay lên đùi, phía sau là phông nền ảo mờ.
Vài giây sau khi đoạn video bắt đầu, một trong những thẩm phán, cảm thấy bối rối trước hình ảnh trên màn hình, đã yêu cầu dừng và hỏi ông Dewald rằng liệu người đàn ông đó có phải là luật sư của ông không.
"Tôi đã tạo ra video đó. Đó không phải là người thật", ông Dewald trả lời. Phản ứng dữ dội diễn ra ngay lập tức khi thẩm phán bày tỏ rõ ràng sự không đồng tình với lựa chọn trình bày video do AI tạo ra của Dewald.
"Sẽ tốt hơn nếu anh nói điều đó khi nộp đơn. Anh đã không nói với tôi điều đó, thưa ngài. Tôi không thích bị lừa dối", bà nói thêm trước khi hét lên yêu cầu ai đó tắt video.
Cuối cùng, ông đã trình bày một lập luận bằng miệng, lắp bắp và thường xuyên dừng lại để sắp xếp lại và đọc các nhận xét đã chuẩn bị từ điện thoại di động của mình.
Ông Dewald sau đó cho biết đã vô cùng xấu hổ. Ông cho biết ông đã gửi cho các thẩm phán một lá thư xin lỗi ngay sau đó, bày tỏ sự hối tiếc sâu sắc và thừa nhận rằng hành động của mình đã "vô tình gây hiểu lầm" cho tòa án.
Ông cho biết đã phải dùng đến phần mềm AI sau khi gặp vấn đề trong trình bày luận cứ và các thuật ngữ pháp lý trong các phiên tòa trước đó. Ông nghĩ việc sử dụng AI để trình bày có thể làm giảm bớt áp lực cho mình trong phòng xử án.
Ông nói đã có kế hoạch tự tạo deepfake hình ảnh bản thân nhưng đã gặp phải "những khó khăn về kỹ thuật" trong quá trình thực hiện, nên phải tạo video AI với khuôn mặt khác.
"Ý định của tôi không bao giờ là lừa dối mà là trình bày lập luận của mình theo cách hiệu quả nhất có thể. Tuy nhiên, tôi nhận ra rằng việc tiết lộ và minh bạch đúng đắn luôn phải được ưu tiên", ông nói trong lá thư gửi cho các thẩm phán.
Vào năm 2023, một luật sư ở New York đã phải chịu hậu quả nghiêm trọng sau khi sử dụng ChatGPT để tạo ra một bản tóm tắt pháp lý đầy rẫy các ý kiến tư pháp giả mạo và trích dẫn pháp lý. Vụ việc này đã chỉ ra những sai sót khi dựa vào trí tuệ nhân tạo và gây tiếng vang trong toàn bộ ngành luật.
Cùng năm đó, Michael Cohen, cựu luật sư, đã cung cấp cho luật sư của mình các trích dẫn pháp lý giả mạo mà ông nhận được từ Google Bard, một chương trình trí tuệ nhân tạo. Cuối cùng, ông Cohen đã cầu xin sự thương xót từ thẩm phán liên bang chủ trì vụ án của mình, nhấn mạnh rằng ông không biết văn bản AI tạo ra có thể cung cấp thông tin sai lệch.
Một số chuyên gia cho rằng trí tuệ nhân tạo và các mô hình ngôn ngữ lớn có thể hữu ích cho những người phải giải quyết các vấn đề pháp lý nhưng không đủ khả năng thuê luật sư. Tuy nhiên, tồn tại nhiều rủi ro.
Hải Thư (Theo NYT, FoxNews)