Theo thống kê được Facebook công bố ngày 19/11, sau khi kiểm tra lại hoặc do người dùng kháng nghị, số trường hợp AI ẩn nhầm nội dung và công ty phải sửa sai gia tăng đáng kể. Cụ thể, số lượng bài đăng, hình ảnh và video bị gắn mác "ngôn từ kích động thù địch" được khôi phục trên Facebook tăng gần 300% và trên Instagram là 100% từ cuối tháng 3 đến cuối tháng 9.
Nội dung bị gắn mác tôn vinh các tổ chức thù địch được hiển thị trở lại cũng tăng gấp đôi từ 65.000 lên 127.200. Trong mùa hè, nội dung bị cáo buộc nhầm là khủng bố phải khôi phục cũng tăng 140% trước khi giảm xuống dưới mức trước đại dịch.
Guy Rosen, Phó chủ tịch quản lý bộ phận sản phẩm của Facebook, cho biết sự gia tăng này phần đa là do máy móc thực hiện một đợt kiểm duyệt quy mô lớn. Từ tháng 3 đến tháng 10, máy móc đã gỡ 12 triệu trường hợp thông tin sai lệch về Covid-19, 45 triệu bài viết chứa ngôn từ kích động thù địch và 18 triệu nội dung khủng bố.
Từ tháng 3, gần như toàn bộ lực lượng kiểm duyệt viên của Facebook làm việc tại nhà để phòng tránh dịch bệnh, khiến công ty gặp khó khăn trong việc đảm bảo hoạt động kiểm duyệt nội dung và buộc phải phụ thuộc phần lớn vào trí tuệ nhân tạo.
Hệ thống đã gặp phải sự cố dẫn đến sai sót trong việc gỡ bỏ một loạt các bài đăng. Nhân viên của chúng tôi đã xem xét tổng thể, tìm ra lỗi và khôi phục lại những bài đăng đó. Tuy nhiên, số lượng lỗi này tăng lên song song cùng với số lượng bài viết được đăng tải. Càng nhiều bài được đăng lên, máy nhận diện sai và gỡ bỏ càng nhiều, khiến lỗi ngày càng trầm trọng", ông Rosen nói: "Trong nỗ lực phòng chống dịch bệnh và tình thế suy giảm lực lượng kiểm duyệt, công ty cũng phải phụ thuộc vào việc người dùng tự chỉ ra lỗi của hệ thống mà họ bắt gặp".
Vài tuần sau khi đại dịch bùng phát, các nội dung liên quan đến Covid-19 dần bị thay thế bởi sự gia tăng của các phát ngôn thù địch. Trên Facebook và Instagram tràn ngập thông tin về cuộc biểu tình liên quan tới George Floyd, sự gia tăng của chủ nghĩa khủng bố cực hữu và chiến dịch bầu cử tổng thống Mỹ Mỹ.
Trong 3 tháng đầu năm, các kiểm duyệt viên Facebook đã phải loại 9,5 triệu nội dung chứa phát ngôn thù địch. Trong suốt 9 tháng, con số này tăng lên 22,1 triệu. Trên Instagram, lượng bài viết tương tự bị gỡ còn tăng gấp 10 lần, từ 578.000 lên 6,5 triệu.
Một phát ngôn viên cho biết, sở dĩ số lượng bài viết bị gỡ trên Instagram tăng lên một phần là bởi họ áp dụng công nghệ phát hiện AI cho cả tiếng Ả Rập, Tây Ban Nha và Indonesia.
Lần đầu tiên, Facebook cũng đưa ra ước tính mức độ phổ biến của phát ngôn thù địch trên các dịch vụ của mình. Họ cho biết cứ 1.000 lượt xem thì có một nội dung như vậy. Tuy chỉ chiếm 1/1000, phát ngôn thù địch lại có mức độ phổ biến cao gấp đôi so với các loại vi phạm khác như ảnh khỏa thân và hình ảnh bạo lực. Facebook cũng cho hay chỉ có 6% trong số nội dung về Mỹ mà mọi người thấy trên News Feed là về chính trị.
Ông Rosen cũng cho biết công ty đã áp đặt hơn 180 triệu nhãn cảnh báo đối với thông tin sai lệch về bầu cử Mỹ và xóa 265.000 nội dung vì vi phạm quy tắc chống lại sự can thiệp của cử tri.
Facebook kết hợp giữa AI và con người trong việc kiểm duyệt và xây dựng chính sách. Cụ thể, máy móc sẽ gắn cờ các post, sau đó kiểm duyệt viên sẽ kiểm tra và đưa ra quyết định. Cuối cùng, máy móc sẽ tự động thực hiện theo chỉ đạo của con người đối với các nội dung rất giống nhau hoặc trùng lặp.
Đức Anh (theo Telegraph)