Theo NYTimes, sau hai năm nghiên cứu bắt đầu từ 2016, những nhà nghiên cứu đến từ Đại học California, Berkeley và Đại học Georgetown đã phát hiện ra cách che giấu lệnh bên trong tập tin âm thanh hay video YouTube. Để từ đó, họ có thể âm thầm ra lệnh cho các trợ lý ảo như Siri hay Alexa nghe, tự động chuyển thiết bị qua chế độ máy bay hoặc mở một website. Những âm thanh này rất khó hoặc thậm chí không thể nghe được bằng tai.
Thậm chí, nhóm đạt bước tiến mới khi có thể nhúng các lệnh phức tạp hơn lên bản ghi âm nhạc hoặc văn bản nói. "Nếu ai đó cố tình đặt bản nhạc đã mã hóa gần loa Amazon Echo (tích hợp Alexa) hay iPhone, iPad (tích hợp Siri), thiết bị có thể tự nhận lệnh chuyển tiền hoặc mua sắm mà chủ nhân không hề hay biết. Người ngồi gần sẽ vẫn nghe bản nhạc bình thường, chỉ trợ lý ảo mới nghe thấy các thông điệp bí ẩn", Nicholas Carlini, thành viên nhóm nghiên cứu, cho biết.
Trong một nghiên cứu khác, các nhà khoa học của Đại học Princeton và Đại học Chiết Giang (Trung Quốc) cũng chứng minh được những hệ thống nhận dạng giọng nói có thể được kích hoạt bằng tần số riêng nằm ngoài vùng nghe của tai người. Được gọi là DolphinAttack, cách tấn công này có thể khiến thiết bị thông minh truy cập website độc hại, tự động gọi điện thoại, chụp ảnh hoặc gửi tin nhắn văn bản.
Tháng trước, Đại học Illinois phát hiện cách điều khiển trợ lý ảo qua âm thanh. Dù không thể truyền âm xuyên tường, thiết bị có thể được điều khiển bên ngoài cửa sổ, với khoảng cách tối đa 7,6 mét.
"Nếu các loại công nghệ tương tự được phát triển cho mục đích xấu, kẻ gian có thể rút hết tiền bạc hay tự do mua sắm bằng tài khoản của một người nào đó một cách âm thầm. Viễn cảnh 'bỗng nhiên trắng tay' hoàn toàn có thể xảy ra", Carlini nhấn mạnh.
Hiện tại, các nhà khoa học đang tiếp tục nghiên cứu cách thức tấn công phức tạp hơn nhằm vào trợ lý ảo. Cùng với đó, họ đã gửi báo cáo chi tiết lên Apple và Amazon để tìm cách khắc phục những lỗi đã phát hiện được.
Bảo Lâm