Các công ty AI được yêu cầu phải tính toán nguy cơ AI vượt khỏi tầm kiểm soát của con người
Giới chuyên gia trong lĩnh vực trí tuệ nhân tạo (AI) đang kêu gọi các công ty công nghệ tính toán cụ thể nguy cơ mất kiểm soát đối với các hệ thống AI siêu trí tuệ, những cỗ máy được kỳ vọng có khả năng vượt trội con người trong mọi lĩnh vực. Cùng Techie tìm hiểu nhé!
Lời cảnh báo đến từ Max Tegmark – giáo sư Vật lý và chuyên gia AI tại Viện Công nghệ Massachusetts (MIT) – người ví mối đe dọa từ AI hiện nay với thời điểm trước vụ thử hạt nhân Trinity năm 1945.
Theo Tegmark, trước khi Mỹ tiến hành vụ thử bom nguyên tử đầu tiên, nhà vật lý Arthur Compton từng tính toán xác suất trái đất bị thiêu rụi bởi phản ứng dây chuyền trong khí quyển chỉ là 1 trên 3 triệu. Chính xác suất cực nhỏ ấy đã giúp các nhà khoa học đưa ra quyết định tiếp tục thử nghiệm.
Từ bài học lịch sử này, Tegmark và các học trò của ông tại MIT đề xuất một khái niệm mới gọi là “hằng số Compton” – đại diện cho xác suất một AI siêu trí tuệ thoát khỏi sự kiểm soát của con người. Trong một nghiên cứu mới công bố, nhóm của ông cho rằng khả năng xảy ra kịch bản này có thể lên tới 90% nếu không có biện pháp kiểm soát phù hợp.
“Không thể chỉ dựa vào cảm tính hay sự lạc quan” Tegmark nói. “Các công ty phát triển AI cần thực sự đưa ra con số cụ thể cho rủi ro mà họ đang đối mặt.”
Việc có được sự đồng thuận về “hằng số Compton” từ nhiều bên phát triển AI, theo ông, sẽ giúp thúc đẩy ý chí chính trị để xây dựng các quy định an toàn toàn cầu.
Không chỉ là nhà nghiên cứu, Max Tegmark còn là đồng sáng lập Viện Tương lai Cuộc sống (Future of Life Institute) – tổ chức phi lợi nhuận từng kêu gọi tạm dừng phát triển AI mạnh vào năm 2023. Lời kêu gọi này thu hút hơn 33.000 chữ ký, trong đó có những tên tuổi lớn như Elon Musk hay đồng sáng lập Apple – Steve Wozniak. Bức thư cảnh báo rằng các phòng thí nghiệm AI đang chạy đua không kiểm soát để cho ra đời “những trí tuệ số ngày càng mạnh hơn” – thứ mà chính con người không thể hiểu, dự đoán hay kiểm soát.
Hiện Tegmark cùng nhiều nhà khoa học, đại diện các cơ quan quản lý và chuyên gia từ các công ty như OpenAI, Google DeepMind đã đưa ra một sáng kiến chung mang tên Singapore Consensus on Global AI Safety Research Priorities. Báo cáo này xác định ba ưu tiên chính trong nghiên cứu an toàn AI gồm:
-
Phát triển các phương pháp đo lường tác động của AI hiện tại và tương lai.
-
Xác định hành vi mong muốn của AI và thiết kế hệ thống đảm bảo hành vi đó.
-
Quản lý và kiểm soát hành vi của hệ thống AI.
Xem thêm: Khám phá Kling AI – công cụ tạo video bằng AI chỉ trong vài giây