Đề xuất được Thượng tá Nguyễn Anh Tuấn, Phó Giám đốc Trung tâm Dữ liệu Quốc gia về Dân cư - Bộ Công an, đưa ra tại Hội thảo Security Summit 2024 ở Hà Nội sáng 30/5.
Đánh giá AI là công nghệ quan trọng, có thể mang lại đột phá cho phát triển kinh tế, tuy nhiên ông Tuấn cho rằng trí tuệ nhân tạo tiềm ẩn nhiều rủi ro, tác động tiêu cực đến an ninh quốc gia, trật tự an toàn xã hội.
Các nguy cơ được nhắc đến như vi phạm quyền riêng tư, thông tin sai sự thật, phân biệt đối xử... Ngoài ra, AI còn tạo ra các rủi ro và thách thức về an ninh mạng, điển hình là sử dụng AI để lừa đảo.
"AI có thể tạo ra nhiều ứng dụng có hình ảnh và tên giả mạo các app, trang web của Bộ Công an để người dân tải về, cài đặt và cung cấp thông tin như số CCCD, mật khẩu đăng nhập", ông Tuấn lấy ví dụ. Bên cạnh đó, đại diện Bộ cho biết AI đang bị tin tặc sử dụng trong nhiều hình thức tấn công, như tạo phần mềm độc hại, mô phỏng hệ thống, tự động hóa các cuộc tấn công.
Dù tiềm ẩn nhiều nguy cơ, các quy định cho AI vẫn chưa được hoàn thiện. Dẫn thống kê của Legalnodes, ông Tuấn cho biết đến nay có khoảng 33 quốc gia đã xây dựng dự thảo pháp lý về AI. Tuy nhiên, thế giới chưa có bộ quy chuẩn mang tính tổng thể, chưa có tiếng nói chung trên toàn cầu.
Trước thực trạng trên, đại diện Bộ đề xuất cần sớm hoàn thiện hành lang pháp lý về AI để đón đầu xu thế, đồng thời ban hành các văn bản quy định về đạo đức trong quá trình phát triển, sản xuất, ứng dụng, sử dụng AI, như bảo vệ quyền riêng tư, dữ liệu cá nhân, quyền con người, của các đơn vị trong và ngoài nước.
"Cần có văn bản quy định trách nhiệm của nhà cung cấp dịch vụ AI trong các hành vi lợi dụng AI để phạm tội", ông Tuấn nói.
Ngoài ra, theo Phó Giám đốc Trung tâm Dữ liệu Quốc gia về dân cư, AI do con người tạo ra và có những biến thể "AI tốt", "AI xấu", nên "cần ứng dụng trí tuệ nhân tạo để chống lại chính những rủi ro vì trí tuệ nhân tạo".
Tại sự kiện, Thứ trưởng Thông tin và Truyền thông Phạm Đức Long đánh giá AI đang định hình lại gần như mọi ngành công nghiệp, trong đó có an toàn thông tin mạng. AI đang sử dụng ở hai "chiến tuyến", gồm cả bên tấn công mạng và bên phòng thủ hệ thống.
Ông Long dẫn khảo sát cho thấy khoảng 50% tổ chức trên thế giới sẽ đẩy mạnh ứng dụng AI trong các công cụ an toàn thông tin mạng nhờ khả năng phân tích các tập dữ liệu lớn với tốc độ cao, sàng lọc lượng dữ liệu lớn để xác định hành vi bất thường và phát hiện hoạt động độc hại mà công nghệ truyền thống chưa xử lý được.
Nhưng bên cạnh đó, AI cũng bị tội phạm mạng sử dụng để tạo ra các phần mềm độc hại mới, các cuộc tấn công lừa đảo mới, với nhiều kịch bản đa dạng, sử dụng deepfake để thực hiện các chiến dịch lừa đảo trực tuyến.
"Các cuộc tấn công mạng liên tục phát triển với mức độ ngày càng tinh vi phức tạp. Đặc biệt khi có sự hỗ trợ của AI, nguy cơ chúng ta phải đối mặt sẽ ngày càng tăng theo cấp số nhân", ông Long nhấn mạnh. "Vì vậy, mọi cơ quan, tổ chức cần cải thiện năng lực an toàn thông tin, chủ động triển khai phương án đảm bảo an toàn thông tin và duy trì một cách liên tục".
Lưu Quý