CHUYÊN GIA HÀNG ĐẦU VỀ AI HOÃN LỊCH TRÌNH CÓ THỂ HỦY DIỆT NHÂN LOẠI

Cựu nhân viên OpenAI, Daniel Kokotajlo cho biết tiến trình đến trí tuệ nhân tạo tổng quát (AGI) đang chậm hơn so với dự đoán ban đầu.

Một chuyên gia hàng đầu về trí tuệ nhân tạo đã rút lại dự đoán của mình về "ngày tận thế" của AI, cho rằng sẽ mất nhiều thời gian hơn ông dự đoán ban đầu để các hệ thống AI có thể lập trình một cách tự chủ và do đó đẩy nhanh sự phát triển của chúng đến mức siêu trí tuệ.

Daniel Kokotajlo, một cựu nhân viên của OpenAI, đã khơi mào một cuộc tranh luận sôi nổi vào tháng 4 bằng cách phát hành AI 2027, một kịch bản tưởng tượng sự phát triển của AI không được kiểm soát dẫn đến việc tạo ra một siêu trí tuệ, mà sau khi vượt qua các nhà lãnh đạo thế giới, sẽ hủy diệt loài người.

Kịch bản nhanh chóng thu hút cả người hâm mộ lẫn người phản đối. Phó tổng thống Hoa Kỳ, JD Vance, dường như đã đề cập đến AI năm 2027 trong một cuộc phỏng vấn hồi tháng Năm khi nói về cuộc chạy đua trí tuệ nhân tạo của Hoa Kỳ với Trung Quốc. Gary Marcus, giáo sư danh dự về khoa học thần kinh tại Đại học New York, gọi bài này là “một tác phẩm hư cấu” và các kết luận của nó là “hoàn toàn viển vông khoa học viễn tưởng”.

Xem hình ảnh ở chế độ toàn màn hình 'Dòng thời gian của chúng tôi... vẫn còn khá dài,' Daniel Kokotajlo viết. Ảnh: Twitter/X

Các dòng thời gian cho trí tuệ nhân tạo chuyển đổi – đôi khi được gọi là AGI (trí tuệ nhân tạo tổng quát), hoặc AI có khả năng thay thế con người trong hầu hết các nhiệm vụ nhận thức – đã trở thành một đặc điểm trong cộng đồng tập trung vào an toàn AI. Việc phát hành ChatGPT vào năm 2022 đã đẩy nhanh các dòng thời gian này rất nhiều, với các quan chức và chuyên gia dự đoán sự xuất hiện của AGI trong vài thập kỷ hoặc vài năm.

Kokotajlo và nhóm của ông đã đặt năm 2027 là năm AI sẽ đạt được "mã hóa hoàn toàn tự động", mặc dù họ cho rằng đây chỉ là dự đoán "có khả năng nhất" và một số trong số họ có khung thời gian dài hơn. Hiện tại, một số nghi ngờ dường như đang xuất hiện về sự sắp xảy ra của AGI, và liệu thuật ngữ này có ý nghĩa ngay từ đầu hay không.

“Rất nhiều người khác đã kéo dài thời gian dự đoán của họ hơn trong năm qua, khi họ nhận ra rằng hiệu suất AI là khá bất ổn,” ông Malcolm Murray, một chuyên gia quản lý rủi ro AI và là một trong những tác giả của Báo cáo An toàn AI Quốc tế, nói.

"Để một kịch bản như AI 2027 xảy ra, [AI] sẽ cần rất nhiều kỹ năng thực tế hơn mà có ích trong những phức tạp của thế giới thực. Tôi nghĩ mọi người đang bắt đầu nhận ra sức ỳ khổng lồ trong thế giới thực sẽ trì hoãn sự thay đổi toàn xã hội hoàn toàn."

“Cụm từ AGI có ý nghĩa từ xa xưa, khi các hệ thống AI còn rất hạn chế - chơi cờ vua và chơi cờ vây,” Henry Papadatos, giám đốc điều hành tổ chức phi lợi nhuận về AI của Pháp SaferAI, cho biết. “Hiện nay, chúng ta đã có những hệ thống khá đa năng và cụm từ này không còn mang nhiều ý nghĩa như trước.”

AI năm 2027 của Kokotajlo dựa trên ý tưởng rằng các tác nhân AI sẽ hoàn toàn tự động hóa việc lập trình và nghiên cứu phát triển AI vào năm 2027, dẫn đến một “sự bùng nổ trí tuệ” trong đó các tác nhân AI tạo ra các phiên bản ngày càng thông minh hơn của chính chúng, và sau đó – trong một kết cục có thể xảy ra – tiêu diệt tất cả nhân loại vào giữa những năm 2030 để tạo chỗ cho nhiều tấm pin năng lượng mặt trời và trung tâm dữ liệu hơn.

Tuy nhiên, trong bản cập nhật của mình, Kokotajlo và các đồng tác giả đã điều chỉnh kỳ vọng về thời điểm AI có thể tự động mã hóa, đặt ra rằng điều này có khả năng xảy ra vào đầu những năm 2030, thay vì năm 2027. Dự báo mới đặt năm 2034 là mốc thời gian mới cho "siêu trí tuệ" và không đưa ra ước đoán về thời điểm AI có thể hủy diệt nhân loại.

"Kokotajlo viết trong một bài đăng trên X: 'Mọi thứ dường như đang diễn ra chậm hơn một chút so với kịch bản AI 2027. Các mốc thời gian của chúng tôi đã dài hơn năm 2027 khi chúng tôi công bố, và giờ đây chúng còn dài hơn một chút nữa.'"

Việc tạo ra các AI có thể thực hiện nghiên cứu AI vẫn là mục tiêu của các công ty AI hàng đầu. Vào tháng 10, CEO của OpenAI, Sam Altman, cho biết việc có một nhà nghiên cứu AI tự động vào tháng 3 năm 2028 là một “mục tiêu nội bộ” của công ty ông, nhưng cũng thừa nhận rằng: “Chúng tôi có thể hoàn toàn thất bại với mục tiêu này.”

Andrea Castagna, một nhà nghiên cứu chính sách AI có trụ sở tại Brussels, cho biết có nhiều phức tạp mà các mốc thời gian AGI đầy kịch tính không giải quyết được. "Việc bạn có một máy tính siêu trí tuệ tập trung vào hoạt động quân sự không có nghĩa là bạn có thể tích hợp nó vào các tài liệu chiến lược mà chúng tôi đã soạn thảo trong 20 năm qua."

"Càng phát triển trí tuệ nhân tạo, chúng ta càng thấy rằng thế giới không phải là khoa học viễn tưởng. Thế giới phức tạp hơn nhiều so với điều đó."

Aisha Down