Cựu giám đốc khoa học OpenAI ra mắt công ty trí tuệ nhân tạo cạnh tranh với ChatGPT

Ilya Sutskever, một trong những nhà tiên phong trong lĩnh vực trí tuệ nhân tạo (AI), đã gây bất ngờ khi thông báo công ty khởi nghiệp mới của mình có tên Safe Superintelligence Inc. (SSI). Mục tiêu của SSI là phát triển AI một cách an toàn, có tiềm năng trở thành đối thủ cạnh tranh với chính công ty cũ của Sutskever – OpenAI.

Lục đục nội bộ tại OpenAI

ilya sutskever và sam altman thời còn "chung thuyền"
ilya sutskever và sam altman thời còn “chung thuyền”

Sutskever từng là giám đốc khoa học của OpenAI, một công ty nổi tiếng với những phát triển đột phá trong lĩnh vực AI. Tuy nhiên, vào tháng 11 năm ngoái, anh đã “đầu teo” cho cuộc lật đổ CEO Sam Altman. Vụ việc này dẫn đến một bộ phim drama đầy kịch tính, với việc Altman bị sa thải, sau đó được tái bổ nhiệm và ban giám đốc của công ty được đổi mới hoàn toàn. Sutskever sau đó đã hối hận và nhận lỗi về mình và quay trở lại OpenAI.

Nhưng vào tháng 5 năm nay, Sutskever một lần nữa gây bất ngờ khi thông báo rời OpenAI để theo đuổi dự án mới mà anh ấp ủ lâu nay. Anh cho biết dự án này có ý nghĩa cá nhân rất lớn đối với anh và anh tin rằng nó có thể có tác động tích cực đến thế giới.

Safe Superintelligence Inc. (SSI) là gì?

Ilya Sutskever - người từng muốn lật đổ Sam Altman
Ilya Sutskever – người từng muốn lật đổ Sam Altman

SSI mang theo sứ mệnh đầy tham vọng: kiến tạo một tương lai nơi trí tuệ nhân tạo (AI) phát triển mạnh mẽ nhưng đồng thời an toàn và có trách nhiệm với xã hội.

Trước đây, khi nói chuyện với CNN, Sutskever lo ngại rằng Sam Altman đang thúc đẩy công nghệ AI phát triển “quá xa, quá nhanh”. Vì vậy việc Sutskever rời OpenAI dường như là điều hiển nhiên. Khi rời đi anh đã nói “Tôi muốn theo đuổi một dự án mang ý nghĩa rất lớn đối với cá nhân tôi”.

Hiện tại, SSI chưa tiết lộ cách thức công ty biến mô hình AI thành “an toàn” ra sao hay lợi nhuận sẽ được tạo ra như thế nào. Cũng không rõ SSI định nghĩa chính xác “an toàn” trong bối cảnh trí tuệ nhân tạo hiện tại là gì. Trong cuộc phỏng vấn với Bloomberg, Sutskever nói: “An toàn ở đây có nghĩa là an toàn cho toàn nhân loại, chứ không chỉ an toàn theo nghĩa ‘tin tưởng và an toàn cho người dùng’.”

Gần đây đã có làn sóng chỉ trích OpenAI vì đã chú trọng tăng trưởng thương mại hơn là phát triển công nghệ 1 cách an toàn và lâu dài. Jan Leike, một trong những cựu nhân viên, cảnh báo về việc OpenAI giải thể nhóm “superalignment” – nhóm chuyên đào tạo các hệ thống AI hoạt động theo nhu cầu của con người. OpenAI phản bác lại rằng họ chỉ đang phân bổ các thành viên của nhóm này khắp các bộ phận mà thôi.

Safe Superintelligence có vẻ muốn đưa ra một phương pháp tiếp cận mới cho các công ty start-up liên quan đến AI. Chuyển sự tập trung từ việc thương mại hoá sang an toàn, bảo mật và giá trị dài hạn.

Với sự ra mắt của Safe Superintelligence, thế giới công nghệ đang dõi theo từng bước tiến của Sutskever và đội ngũ của anh trong hành trình trở thành “phe chính nghĩa” trong thế giới AI đang chạy theo lợi nhuận này.

Xem thêm: Thực hư chuyện ứng cử viên AI đang tranh cử vào Quốc hội ở Anh?

Khám phá thêm
“Chúng ta đang sống trong thế giới VUCA” – Câu nói này đã diễn tả đúng tình trạng thế giới...
Temu, một ứng dụng mua sắm Trung Quốc, đang gây chấn động trên internet với những sản phẩm rất rẻ....
Trong bài viết này, Techie sẽ giới thiệu đến bạn bản chất của tính năng constraints và auto-layout figma, cũng...
Theo một “nguồn tin mật” cho hay, Ghibli chính thức công bố trailer phần tiếp theo của tựa phim Vùng...
Thuật toán Dijkstra là một công cụ quan trọng trong lý thuyết đồ thị và tối ưu hóa. Với khả...
Cảm biến sinh học (Biosensor) đã đánh dấu một thành tựu quan trọng trong cuộc chiến chống đại dịch COVID-19 khi...
Nếu như các ứng dụng hẹn hò như Tinder, Okcupid, Facebook Dating vẫn chưa đem đến cho bạn một anh...
Thời gian gần đây, công nghệ AI đang trở thành chủ đề được nhân loại đặc biệt quan tâm. Trên...