Tóm tắt ngắn gọn
OpenAI đang nâng cao nhận thức về những rủi ro của siêu trí tuệ AI và thành lập một nhóm chuyên trách để giải quyết những lo ngại này.
Công ty nhấn mạnh vào việc liên kết siêu trí tuệ với các giá trị và ý định của con người và thiết lập các thể chế quản trị mới.
OpenAI thừa nhận rằng việc điều chỉnh AGI gây ra những rủi ro đáng kể và có thể đòi hỏi nỗ lực chung của toàn nhân loại.
Giám đốc điều hành của OpenAI, Sam Altman, đã bắt tay vào một chiến dịch toàn cầu nhằm nâng cao nhận thức về những mối nguy tiềm ẩn của siêu trí tuệ AI, khi máy móc vượt trội hơn trí thông minh của con người và có thể trở nên không thể kiểm soát.
Để đáp ứng những mối quan ngại này, OpenAI gần đây đã thông báo về việc thành lập một đội ngũ chuyên trách có nhiệm vụ phát triển các phương pháp để giải quyết những rủi ro liên quan đến siêu trí tuệ, có thể xuất hiện trong thập kỷ này.
Công ty nhấn mạnh rằng việc quản lý hiệu quả siêu trí tuệ yêu cầu thiết lập các tổ chức quản trị mới và giải quyết thách thức quan trọng trong việc căn chỉnh siêu trí tuệ với các giá trị và ý định của con người.
OpenAI thừa nhận rằng việc căn chỉnh AGI (Trí thông minh tổng quát nhân tạo) đặt ra những rủi ro đáng kể cho nhân loại và có thể cần một nỗ lực tập thể từ toàn bộ nhân loại, như đã nêu trong một bài viết trên blog được phát hành năm ngoái.
Được gọi là “Siêu căn chỉnh,” đội ngũ mới thành lập bao gồm các nhà nghiên cứu và kỹ sư hàng đầu trong lĩnh vực học máy. Ilya Sutskever, đồng sáng lập và giám đốc khoa học của OpenAI, và Jan Leike, trưởng bộ phận căn chỉnh, đang dẫn dắt nỗ lực này.
Để giải quyết các thách thức kỹ thuật cốt lõi của việc căn chỉnh siêu trí tuệ, OpenAI đã cam kết dành 20% nguồn lực tính toán mà họ đã có được cho đến nay cho vấn đề căn chỉnh. Công ty dự đoán rằng trong vòng bốn năm, họ sẽ giải quyết những thách thức này.
Mục tiêu chính của đội ngũ siêu căn chỉnh là phát triển một nhà nghiên cứu căn chỉnh tự động ở cấp độ con người. Điều này bao gồm việc tạo ra các hệ thống AI có thể căn chỉnh hiệu quả các hệ thống AI siêu trí tuệ, vượt trội hơn con người về tốc độ và độ chính xác.
Để đạt được cột mốc này, đội ngũ sẽ tập trung vào việc phát triển một phương pháp đào tạo có thể mở rộng sử dụng các hệ thống AI để đánh giá các hệ thống AI khác. Họ sẽ xác thực mô hình kết quả của mình bằng cách tự động hóa việc tìm kiếm hành vi có thể gây vấn đề. Quy trình căn chỉnh cũng sẽ trải qua kiểm tra căng thẳng nghiêm ngặt bằng cách cố ý đào tạo các mô hình không phù hợp để đánh giá khả năng phát hiện của chúng.
Những nỗ lực của OpenAI để giải quyết rủi ro siêu trí tuệ đánh dấu một bước tiến quan trọng trong việc theo đuổi phát triển AI có trách nhiệm và đồng bộ. Bằng cách tập hợp một đội ngũ các nhà nghiên cứu hàng đầu và cam kết các nguồn lực tính toán đáng kể, công ty thể hiện cam kết của mình trong việc chủ động giảm thiểu những rủi ro tiềm ẩn liên quan đến sự xuất hiện của siêu trí tuệ. Khi họ bắt đầu hành trình đầy tham vọng này, OpenAI thiết lập một tiền lệ cho sự hợp tác và đoàn kết trong việc bảo vệ tương lai nhân loại trong thời đại AI.