Nhưng vợ Thành nhìn thấy.
Từ đó, câu chuyện không còn nằm trong điện thoại. Nó bước vào bữa cơm, vào giọng nói, vào ánh mắt. Thành gọi điện cho người bạn đã ghép ảnh, nhờ giải thích. Nhưng lời giải thích không xóa nổi cái cảm giác "mắt mình đã thấy".
Tôi phải chạy đến nhà Thành làm một việc khó tin: dùng chính AI để chứng minh một bức ảnh AI có thể giống như thật đến mức nào. Tôi mở công cụ tạo ảnh, tải lên chân dung của Thành và ảnh cô gái kia, rồi gõ câu lệnh ngắn: giữ nguyên chàng trai, ghép cô gái vào kế bên.
Chưa đầy mười giây sau, tấm hình hiện ra, giống đến mức cả nhà im lặng. Không chỉ gương mặt. Cả ánh sáng, tư thế đứng, khoảng cách giữa hai người, hướng nhìn, nếp áo cũng khớp. Không có chi tiết nào đủ vụng để người bình thường chỉ tay và nói ngay: đây là đồ giả.
Chỉ đến lúc đó, cơn ghen trong nhà Thành mới dịu xuống. Nhưng tôi nhìn thấy trong mắt vợ anh nỗi lo khác, đáng sợ hơn: từ nay, thứ nhìn thấy trước mắt chưa chắc còn là bằng chứng.
Đó không còn là chuyện riêng của một gia đình.
Những ngày gần đây, mạng xã hội cũng xôn xao vì câu chuyện bốn chị em ở Lâm Đồng. Sau khi hoàn cảnh của em Hà Thị Mỹ Hương, 16 tuổi, đi làm thuê nuôi ba em nhỏ được lan tỏa, số tiền hỗ trợ tăng rất nhanh. Nhưng cùng lúc, nhiều tài khoản bắt đầu cắt ghép hình ảnh, dựng thêm chi tiết, đẩy đi thông tin rằng người mẹ quay về sau khi biết các con nhận được hàng tỷ đồng. Chính quyền và báo chí phải đính chính. Những hình ảnh lan đi trên mạng không phản ánh đầy đủ câu chuyện nhưng đủ gây hiểu lầm và khuấy đảo cuộc sống của người trong cuộc.
Hai câu chuyện, một công thức.
Chỉ cần một nhân vật nhiều người biết. Một hoàn cảnh dễ gây xúc động hoặc phẫn nộ. Một chi tiết đủ sốc để người ta muốn bấm chia sẻ ngay. Và giờ đây, chỉ cần thêm một công cụ AI đủ nhanh là tưởng tượng đã có thể biến thành "chứng cứ".
Trước đây, người ta còn phải ngồi hàng giờ trước phần mềm chỉnh sửa ảnh. Bây giờ, nhiều ứng dụng chỉ cần một câu lệnh. Ảnh có thể dựng. Giọng nói có thể bắt chước. Video có thể làm ra từ vài tấm hình và một đoạn chữ. Người xem không còn đối diện với một sản phẩm cắt dán vụng về, mà là một thứ giả được làm ngày càng mượt.
Điều đáng ngại không chỉ nằm ở công nghệ. Nó nằm ở chỗ công nghệ ấy đâm thẳng vào những thứ mong manh nhất trong đời sống: sự tin nhau giữa vợ chồng, danh dự của một con người, sự bình yên của một gia đình, sự trong lành của một câu chuyện đang được cộng đồng quan tâm...
Một bức ảnh ghép có thể làm hai người cãi nhau suốt đêm. Một đoạn video giả có thể biến người vô can thành người đáng bị chỉ trích. Một thông tin cắt xén có thể đẩy một gia đình đang nhận giúp đỡ vào thêm vòng soi mói.
Người làm nội dung như tôi không xa lạ với cảm giác ấy. Có thời điểm, câu chuyện cá nhân của tôi bị bẻ hướng, biến thành thông tin tôi bị công an bắt, trong khi sự việc không phải như vậy. Không ít nhân vật khác trên mạng cũng đang sống trong tình trạng tương tự: hình ảnh bị ghép, lời nói bị bẻ, bối cảnh bị tráo đi, rồi mọi thứ được đóng gói lại như một "sự thật" mới.
Điều nguy hiểm là việc này đang rẻ hơn, nhanh hơn, dễ hơn.
Chỉ cần vài bức ảnh công khai trên trang cá nhân, vài video nói chuyện trước ống kính, người khác đã có thể lấy khuôn mặt, giọng nói, cử chỉ của một người để dựng thành một phiên bản khác. Phiên bản ấy có thể không tồn tại ngoài đời, nhưng vẫn đủ làm hỏng đời thật của ai đó.
Nhưng nói cho cùng, AI không tự nó gây ra hỗn loạn. Thứ đang tiếp tay cho nó chính là thói quen tiếp nhận của chúng ta.
Chúng ta ngày càng dễ tin những gì trông hợp lý. Một bức ảnh ánh sáng đẹp. Một giọng nói nghe quen. Một đoạn video có phụ đề rõ. Một tiêu đề chạm đúng cơn tò mò. Vậy là đủ để hàng nghìn lượt chia sẻ chạy đi, trước cả khi có ai dừng lại hỏi: nguồn từ đâu, ai xác nhận, bối cảnh là gì?
Mạng xã hội đang thưởng cho phản xạ nhanh tay nhiều hơn là sự thận trọng. Người ghép ảnh có thể nghĩ mình chỉ đùa. Trang đăng lại có thể nghĩ mình chỉ "bắt trend". Người bấm chia sẻ có thể nghĩ mình chỉ góp vui. Nhưng người trả giá thường là người thật. Họ phải đi giải thích cho một việc mình chưa từng làm, phải vá lại một cuộc cãi vã, phải chịu đựng những ánh nhìn đã trót tin vào thứ giả.
Chúng ta đã nói nhiều về quyền riêng tư. Có lẽ đã đến lúc phải nói thêm về quyền không bị bịa đặt. Giải pháp vì thế không thể chỉ dừng ở lời nhắc "hãy tỉnh táo". Câu ấy đúng, nhưng quá nhẹ.
Nền tảng phải siết mạnh hơn với nội dung mô phỏng người thật. Ảnh, video, giọng nói do AI tạo ra cần được gắn nhãn rõ. Những tài khoản cố tình dựng giả để câu tương tác, bôi nhọ, kích động phải bị xử lý nhanh hơn. Các trang tổng hợp không thể tiếp tục núp sau chữ "tham khảo từ mạng xã hội" rồi phủi tay. Còn với người dùng, có lẽ cần tập một phản xạ mới: càng thấy một nội dung làm mình nổi nóng, càng phải chậm lại vài giây.
Bởi ngày trước, người ta sợ tin đồn vì không biết ai nói.
Còn bây giờ, cái đáng sợ hơn là tin giả có thể mang gương mặt quen, giọng nói quen, và xuất hiện ngay trước mắt như chưa từng có gì để nghi ngờ.
Lê Phong