Quốc hội Hàn Quốc thông qua dự luật hình sự hóa hành vi sở hữu hoặc xem deepfake khiêu dâm, với hình phạt lên đến 3 năm tù.
Hàng loạt nữ sinh và giáo viên Hàn Quốc đã trở thành nạn nhân của deepfake khiêu dâm, phần lớn do bạn học nam giới thực hiện.
Nữ sinh 17 tuổi tên Song sống ở tỉnh Kyunggi, từng thích đăng ảnh và video ngắn trên mạng xã hội, cho đến khi nhận được một tin nhắn nặc danh qua Instagram.
Cảnh sát Hàn thông báo điều tra về cáo buộc Telegram "tiếp tay" phát tán nội dung deepfake khiêu dâm, trong đó có hình ảnh trẻ vị thành niên.
Ngày càng nhiều người bị lừa bởi ảnh, video giả do GenAI ngày càng tiến bộ, cho phép tạo deepfake một cách đơn giản, chuyên nghiệp.
Hàn QuốcNhiều phụ nữ trở thành nạn nhân của deepfake khiêu dâm khi hình ảnh của họ lan truyền trong các phòng chat Telegram.
Hàn Quốc tuyên bố trấn áp tội phạm tình dục kỹ thuật số nhằm vào phụ nữ, bé gái, những người vô tình trở thành nạn nhân deepfake khiêu dâm.
Nhiều người trên 70 tuổi ở Mỹ đang tham gia khóa học nhận biết deepfake trong bối cảnh nhóm này bị lừa 28 tỷ USD mỗi năm.
Giữa tháng 7, một giám đốc Ferrari nhận cuộc gọi video từ CEO Benedetto Vigna với lý do "thảo luận kế hoạch kinh doanh mật".
Hình ảnh deepfake tạo bằng AI có thể được phát hiện bằng một phương pháp kỹ thuật từ thiên văn học.
AnhHình ảnh bác sĩ nổi tiếng bị ghép vào video deepfake để quảng cáo thuốc hoặc đưa lời khuyên sức khỏe sai lệch đang xuất hiện tràn lan trên mạng.
Nhân vật trong bộ phim kinh điển ra đời hơn 40 năm trước là nạn nhân của trò deepfake.
Ngỡ ngàng vì video deepfake giống mình đến 99,9%, luật sư Trương Thanh Đức mất cả tháng để đính chính với người quen và hàng trăm khách hàng.
Buổi sáng thức dậy, Berry, 14 tuổi, tá hỏa khi nhận được loạt tin nhắn từ bạn bè, hỏi về tấm ảnh khỏa thân của cô đang lan truyền trên mạng.
TP HCMTội phạm dùng công nghệ AI deepfake (giả âm thanh, hình ảnh) người mẫu nổi tiếng để dụ đàn ông chat sex, ghi lại toàn bộ hình ảnh, sau đó tống tiền.
Tòa án ở Delhi bác đơn kháng cáo của một người đàn ông sau khi người này cung cấp loạt ảnh vợ ngoại tình, nhưng bị nghi là deepfake.
Các nhóm lừa đảo đang áp dụng nhiều phương thức tinh vi thông qua deepfake của người nổi tiếng để lấy hàng triệu USD từ nạn nhân.
Người phụ nữ bị lừa 51.000 USD vì "Elon Musk giả", hay hiệu trưởng suýt mất việc vì bị nhái giọng nói, cho thấy bất kỳ ai cũng có thể là nạn nhân của deepfake.
Cựu tổng thống Mỹ Donald Trump bị sử dụng hình ảnh nhiều nhất để tạo deepfake bằng Midjourney, trong khi Elon Musk xếp thứ ba.
Một phụ nữ Hàn Quốc bị lừa gần 51.000 USD sau khi kẻ xấu dùng deepfake mạo danh Elon Musk để làm quen và kêu gọi cô chuyển khoản.