Cựu giám đốc khoa học OpenAI ra mắt công ty trí tuệ nhân tạo cạnh tranh với ChatGPT
Ilya Sutskever, một trong những nhà tiên phong trong lĩnh vực trí tuệ nhân tạo (AI), đã gây bất ngờ khi thông báo công ty khởi nghiệp mới của mình có tên Safe Superintelligence Inc. (SSI). Mục tiêu của SSI là phát triển AI một cách an toàn, có tiềm năng trở thành đối thủ cạnh tranh với chính công ty cũ của Sutskever – OpenAI.
Lục đục nội bộ tại OpenAI
Sutskever từng là giám đốc khoa học của OpenAI, một công ty nổi tiếng với những phát triển đột phá trong lĩnh vực AI. Tuy nhiên, vào tháng 11 năm ngoái, anh đã “đầu teo” cho cuộc lật đổ CEO Sam Altman. Vụ việc này dẫn đến một bộ phim drama đầy kịch tính, với việc Altman bị sa thải, sau đó được tái bổ nhiệm và ban giám đốc của công ty được đổi mới hoàn toàn. Sutskever sau đó đã hối hận và nhận lỗi về mình và quay trở lại OpenAI.
Nhưng vào tháng 5 năm nay, Sutskever một lần nữa gây bất ngờ khi thông báo rời OpenAI để theo đuổi dự án mới mà anh ấp ủ lâu nay. Anh cho biết dự án này có ý nghĩa cá nhân rất lớn đối với anh và anh tin rằng nó có thể có tác động tích cực đến thế giới.
Safe Superintelligence Inc. (SSI) là gì?
SSI mang theo sứ mệnh đầy tham vọng: kiến tạo một tương lai nơi trí tuệ nhân tạo (AI) phát triển mạnh mẽ nhưng đồng thời an toàn và có trách nhiệm với xã hội.
Trước đây, khi nói chuyện với CNN, Sutskever lo ngại rằng Sam Altman đang thúc đẩy công nghệ AI phát triển “quá xa, quá nhanh”. Vì vậy việc Sutskever rời OpenAI dường như là điều hiển nhiên. Khi rời đi anh đã nói “Tôi muốn theo đuổi một dự án mang ý nghĩa rất lớn đối với cá nhân tôi”.
Hiện tại, SSI chưa tiết lộ cách thức công ty biến mô hình AI thành “an toàn” ra sao hay lợi nhuận sẽ được tạo ra như thế nào. Cũng không rõ SSI định nghĩa chính xác “an toàn” trong bối cảnh trí tuệ nhân tạo hiện tại là gì. Trong cuộc phỏng vấn với Bloomberg, Sutskever nói: “An toàn ở đây có nghĩa là an toàn cho toàn nhân loại, chứ không chỉ an toàn theo nghĩa ‘tin tưởng và an toàn cho người dùng’.”
Gần đây đã có làn sóng chỉ trích OpenAI vì đã chú trọng tăng trưởng thương mại hơn là phát triển công nghệ 1 cách an toàn và lâu dài. Jan Leike, một trong những cựu nhân viên, cảnh báo về việc OpenAI giải thể nhóm “superalignment” – nhóm chuyên đào tạo các hệ thống AI hoạt động theo nhu cầu của con người. OpenAI phản bác lại rằng họ chỉ đang phân bổ các thành viên của nhóm này khắp các bộ phận mà thôi.
Safe Superintelligence có vẻ muốn đưa ra một phương pháp tiếp cận mới cho các công ty start-up liên quan đến AI. Chuyển sự tập trung từ việc thương mại hoá sang an toàn, bảo mật và giá trị dài hạn.
Với sự ra mắt của Safe Superintelligence, thế giới công nghệ đang dõi theo từng bước tiến của Sutskever và đội ngũ của anh trong hành trình trở thành “phe chính nghĩa” trong thế giới AI đang chạy theo lợi nhuận này.
Xem thêm: Thực hư chuyện ứng cử viên AI đang tranh cử vào Quốc hội ở Anh?