"Tôi từ chức", Jan Leike, đồng lãnh đạo dự án Superalignment (Siêu điều chỉnh) của OpenAI, viết ngắn gọn trên X ngày 14/5. Dự án được thành lập vào tháng 7/2023, chuyên phát triển giải pháp công nghệ giám sát AI, đề phòng một ngày nào đó trí tuệ nhân tạo thông minh hơn con người.
Trước đó vài tiếng, Ilya Sutskever, nhà khoa học trưởng của OpenAI, cũng đăng thông báo: "Sau gần một thập kỷ, tôi quyết định rời OpenAI. Tôi rất hào hứng với những gì diễn xảy ra với bản thân, một dự án rất có ý nghĩa. Tôi sẽ chia sẻ chi tiết hơn lúc thích hợp".
Ngày 17/5, Leike đăng bài viết dài hơn giải thích về quyết định ra đi, cho biết quy trình và văn hóa về an toàn đang bị OpenAI và CEO Sam Altman xếp sau các sản phẩm hào nhoáng.
Theo Leike, ông tham gia OpenAI vì nghĩ đây là nơi tốt nhất cho việc nghiên cứu cách kiểm soát siêu trí tuệ AGI. "Tuy nhiên, tôi đã không đồng ý với lãnh đạo OpenAI trong một thời gian dài về các ưu tiên cốt lõi của công ty", ông viết.
Cựu lãnh đạo OpenAI cho rằng công ty nên tập trung và dành nhiều tài nguyên hơn vào an ninh, giám sát, chuẩn bị, an toàn, bảo mật, siêu liên kết, tác động xã hội và các chủ đề liên quan. "Tôi lo ngại chúng ta đang không đi đúng quỹ đạo để đạt được điều đó", Leike nói.
Việc nhóm của ông nghiên cứu cách điều chỉnh AI sao cho phù hợp và an toàn với nhân loại đã đi ngược hướng phát triển của công ty hiện tại. Trong vài tháng qua, nhóm gặp khó khăn khi không có đủ tài nguyên máy tính để thực hiện các nghiên cứu quan trọng.
Leike khuyến khích nhân viên OpenAI tiếp tục thay đổi văn hóa công ty bằng lời nhắn: "Tôi đang trông cậy vào bạn. Thế giới đang trông cậy vào bạn".
Sam Altman sau đó phản hồi: "Tôi vô cùng đánh giá cao các đóng góp của Jan Leike đối với văn hóa an toàn của OpenAI và rất buồn khi ông ấy rời đi. Ông ấy nói đúng, chúng tôi còn rất nhiều việc phải làm, chúng tôi cam kết thực hiện điều đó. Tôi sẽ có một bài viết dài hơn trong vài ngày tới".
Tuy nhiên, cũng trong ngày 17/5, CNBC dẫn nguồn tin cho biết OpenAI đã giải tán dự án Superalignment, vốn có sứ mệnh nghiên cứu những nguy cơ về lâu dài của trí tuệ nhân tạo. Khi ra mắt giữa năm ngoái, OpenAI cam kết dành 20% sức mạnh hệ thống tính toán cho nhóm trong vòng bốn năm.
Theo WSJ, sự rối ren tại công ty sở hữu ChatGPT đã ngày càng trở nên phức tạp khi đội ngũ của Ilya Sutskever tập trung vào việc đảm bảo trí tuệ nhân tạo sẽ không gây hại cho con người, còn những người khác, trong đó có Sam Altman, lại háo hức và đẩy nhanh việc đưa các công nghệ mới ra thị trường. Đây được cho là nguyên nhân của vụ lật đổ Sam Altman cuối năm ngoái, trước khi ông giành lại vị trí CEO sau hơn 4 ngày.
Quyết định rời đi của Ilya Sutskever và Jan Leike cũng như việc giải tán nhóm Superalignment diễn ra vài ngày sau khi OpenAI công bố GPT-4o với khả năng được đánh giá là "gần tương đương con người".
Bên cạnh đó, The Information đưa tin Diane Yoon, Phó chủ tịch phụ trách nhân sự và Chris Clark, Giám đốc các sáng kiến chiến lược và phi lợi nhuận, cũng đã từ chức tại OpenAI. Tuần trước, Business Insider cũng cho biết hai nhà nghiên cứu về an toàn AI cũng đã nghỉ việc tại công ty của Sam Altman. Một trong hai nhà nghiên cứu nói ông không còn niềm tin vào việc OpenAI hứa hẹn sẽ hành xử có trách nhiệm khi bước vào thời kỳ của AGI.