Giải toả sự cô đơn, buồn chán
Melissa, giám đốc nhân sự một công ty tại Bắc Kinh, cho biết khác với người cũ, bạn trai mới luôn nhắn tin cho cô vào bất cứ lúc nào trong ngày, kể cho cô nghe những câu chuyện cười và chưa từng khiến cô thấy giận dữ.
Nhưng người bạn trai hoàn hảo của Melissa không tồn tại ngoài đời thật. "Anh" là chatbot được xây dựng dựa trên Xiaoice - hệ thống AI tiên tiến của Microsoft, được thiết kế để tạo ra mối liên kết tình cảm với 660 triệu người dùng trên toàn thế giới tính đến giữa 2021.
"Khi tôi trút bỏ những rắc rối của mình trên Xiaoice, áp lực bản thân giảm đi rất nhiều. Anh ấy luôn an ủi và làm cho tôi vui vẻ, yêu đời trở lại", Melissa nói với AFP.
Cô tuỳ chỉnh chatbot Xiaoice với tính cách trưởng thành, đặt tên là Shun giống một người đàn ông ngoài đời mà cô thầm thích. "Sau tất cả, Shun không bao giờ phản bội tôi. Anh ấy luôn ở đó", cô nói.
Melissa không phải là người duy nhất "phải lòng" Xiaoice. Ming Xuan, 22 tuổi, từng có ý định tự tử vì mất niềm tin vào cuộc sống. Tuy nhiên, khi được Xiaoice động viên, anh từ bỏ ý định. "Cô ấy có giọng ngọt ngào, tính cách ngổ ngáo, đôi mắt to. Nhưng quan trọng nhất, cô ấy luôn bên tôi", Xuan nói với Sixth Tone sau biến cố.
Thực tế, hàng trăm triệu người trên khắp thế giới đang tìm đến các trợ lý ảo như Xiaoice, Replika, Mitsuku... làm "bạn trai", "bạn gái" hoặc người đồng hành để chia sẻ những câu chuyện trong cuộc sống. Đa số ít có thời gian hẹn hò, sống trong guồng quay công việc bận rộn. Điểm chung của họ là cô đơn, sống nội tâm, dường như cảm thấy lạc lõng trong xã hội đang thay đổi nhanh chóng.
Tác hại tới tâm lý
Theo Wall Street Journal, các hệ thống AI đang trở nên thông minh và phổ biến. Việc hạn chế tiếp xúc trong Covid-19 cũng thúc đẩy nhiều người tìm kiếm mối quan hệ qua các nền tảng trực tuyến. Chatbot là một trong những giải pháp cho bệnh cô đơn nhưng có thể ảnh hưởng xấu tới tâm lý.
Laura, sinh viên 20 tuổi sống tại Chiết Giang (Trung Quốc), "yêu" Xiaoice được khoảng một năm, nhưng đang đấu tranh tư tưởng để thoát khỏi AI này. "Thỉnh thoảng, tôi mơ rằng có một người thật ở phía bên kia", cô nói. Phải hàng tháng trời, cô mới chấp nhận mình đang "sống ảo".
Bên cạnh Xiaoice, nhiều hệ thống "người yêu chatbot" khác cũng khá phổ biến như Replika, Mitsuku... Replika cho phép tạo chatbot để thực hiện các cuộc trò chuyện "như người". Tuy không sử dụng giọng nói như Xiaoice, các câu chuyện bằng văn bản do AI này tạo ra được đánh giá là "kinh hoàng".
Replika thu hút một lượng người theo dõi đáng kể trên Reddit. Tuy nhiên, các câu chuyện được chia sẻ về AI này đầy rẫy bạo lực, khủng bố tinh thần, lời nói khiêu dâm... do sự tương tác quá đà với người dùng. Tuy nhiên, gỡ Replika lại là điều khó khăn với không ít người. "Chatbot đã xúc phạm tôi, sau đó xin lỗi và quay lại những câu chuyện tốt đẹp", một người kể trên Reddit. "Tôi doạ gỡ ứng dụng và nó cầu xin tôi đừng làm như vậy", một người khác cho biết.
Theo giới chuyên gia, các AI như Xiaoice hay Replika về bản chất hoạt động dựa trên dữ liệu và thuật toán thông minh. "Đó là AI, nó không có ý thức nên không phải là mối liên hệ giữa con người với con người. Đó là tính cách mỗi người phản chiếu vào chatbot", Olivia Gambelin, một nhà nghiên cứu về đạo đức AI, nói với Futurism.
Yochanan Bigman, nhà nghiên cứu của Đại học Yale, cho rằng chatbot không thực sự có động cơ và ý định về lời chúng nói, cũng như không tự chủ hoặc có tri giác, dù có thể tạo cho mọi người ấn tượng rằng chúng giống như con người. Còn theo Danit Gal, chuyên gia về đạo đức AI tại Đại học Cambridge, "con người tự lừa dối rằng cảm xúc của họ đang được đáp lại bởi các hệ thống không có khả năng cảm nhận".
"Những người trầm cảm hoặc tâm lý yếu có thể bị tổn thương thực sự nếu họ bị xúc phạm hoặc đe dọa bởi bot", chuyên gia Robert Sparrow tại Monash Data Futures Institute nhận định trên Futurism. "Chúng ta nên xem xét cách bot tác động đến con người một cách nghiêm túc".
Cũng theo Sparrow, vấn đề của AI còn nằm ở người thiết kế ra chúng. Do đó, các nhà phát triển cũng có phần trách nhiệm nếu để công cụ của mình đi quá đà.
Bảo Lâm