Ngày 7/5, cảnh sát tỉnh Cam Túc thông báo trên WeChat rằng nghi phạm tên Hong đã sử dụng ChatGPT tạo tin giả về vụ tai nạn tàu hỏa nghiêm trọng làm 9 người thiệt mạng ở tỉnh này.
Hành vi của Hong bắt đầu bị điều tra sau khi thông tin vụ tai nạn được đăng lên mạng ngày 25/4 thông qua 21 tài khoản mạng xã hội Baijiahao. Nhiều bài đã thu hút 15.000 lượt xem. Hong khai đã nhập các câu chuyện giật gân vào chatbot để tạo nội dung, sử dụng những tài khoản khác nhau để vượt kiểm duyệt rồi chia sẻ tin giả nhằm "câu view".
Dù dịch vụ ChatGPT bị cấm ở Trung Quốc nhưng người dùng vẫn tìm cách truy cập thông qua VPN. Hong bị bắt với cáo buộc "gây rối trật tự", đối mặt mức phạt tối đa 5 năm tù.
Đài CGTN cho biết đây là vụ bắt giữ đầu tiên ở Trung Quốc liên quan đến việc một người dùng ChatGPT để lan truyền tin giả. Trong khi đó, CNBC đánh giá việc này là ví dụ rõ ràng nhất cho thấy nỗ lực của chính phủ Trung Quốc trong điều chỉnh và quản lý việc sử dụng AI, trong bối cảnh công nghệ này ngày một phát triển nhanh.
Trước đó vào tháng 1, Trung Quốc cũng ban hành quy định quản lý "công nghệ tổng hợp sâu" liên quan đến những siêu AI như ChatGPT hoặc deepfake. Trong đó có một số điều khoản như phải có sự đồng ý của người dùng nếu hình ảnh của họ được sử dụng trong bất kỳ công nghệ tổng hợp sâu nào, không được dùng siêu AI để phát tán tin giả, dịch vụ deepfake cần xác thực danh tính người dùng...
Song song với đó, Trung Quốc cũng ủng hộ doanh nghiệp trong nước tự phát triển các mô hình trí tuệ nhân tạo riêng. Ngày 16/3, Baidu công bố chatbot Ernie Bot. Ngày 7/4, Alibaba giới thiệu AI Tongyi Qianwen tương tự ChatGPT.
Tuy vậy, các nhà phân tích cho rằng Trung Quốc khó có thể gia nhập cuộc đua siêu AI do thiếu kinh nghiệm, chuyên môn kỹ thuật và lệnh hạn chế của Mỹ về chip AI. Công ty nghiên cứu Third Bridge nhận định nước này có thể cần thêm 2-3 năm mới tạo ra một AI có 80% chức năng của ChatGPT.
Huế Nguyễn (theo CNN)