Gần 1.000 nhân vật ảnh hưởng, bao gồm cả 'Bố già AI', kêu gọi cấm siêu trí tuệ

Vũ Anh, Theo markettimes.vn 11:27 24/10/2025
Chia sẻ

Các hệ thống AI siêu trí tuệ đang phát triển với tốc độ rất nhanh, đôi khi vượt khả năng kiểm soát.

Gần 1.000 nhân vật ảnh hưởng, bao gồm cả 'Bố già AI', kêu gọi cấm siêu trí tuệ- Ảnh 1.

Cuối tuần qua, một chiến dịch mang tính biểu tượng đã xuất hiện: hơn 850 nhân vật có tầm ảnh hưởng từ công nghệ, chính trị và giới giải trí đồng ký tên vào một tuyên bố do Future of Life Institute khởi xướng, kêu gọi “cấm phát triển hệ thống trí tuệ nhân tạo siêu việt con người” (super­intelligence) cho đến khi có “sự đồng thuận khoa học rộng rãi rằng chúng có thể được phát triển một cách an toàn và kiểm soát”.

Điều đáng chú ý là danh sách người ký rất đa dạng: từ những chuyên gia AI đầu ngành như Geoffrey Hinton, Yoshua Bengio đến các nhà sáng lập công nghệ như Wozniak, doanh nhân như Branson, ca sĩ, diễn viên, chính trị gia. Sự tham gia của những cái tên ngoài ngành công nghệ truyền thống cho thấy lo ngại về AI không còn là chuyện “chuyên gia nói với chuyên gia” mà đã trở thành một vấn đề xã hội – ai cũng được mời tham vấn.

Theo tuyên bố, các hệ thống AI siêu trí tuệ là những mô hình khả năng vượt trội con người trên hầu hết nhiệm vụ nhận thức, và điều đáng lo là quá trình phát triển chúng đang diễn ra với tốc độ rất nhanh, đôi khi vượt khả năng kiểm soát, đồng thời thiếu sự tham vấn từ công chúng và thiếu khung pháp lý vững chắc. Thăm dò kèm theo cho thấy chỉ khoảng 5% người Mỹ ủng hộ phát triển AI siêu trí tuệ không bị điều tiết, trong khi phần lớn muốn có điều kiện trước khi tiếp tục.

Tại sao động thái này lại quan trọng? Trước hết vì nó phản ánh một bước ngoặt trong nhận thức: khi mà “cuộc đua AI” giữa các tập đoàn lớn như OpenAI, Google, Meta Platforms được xem là vấn đề cạnh tranh công nghệ, thì giờ đây nó được đặt trong tư thế “rủi ro toàn cầu” – về nhân quyền, an ninh, kiểm soát và bản chất con người. Việc những người bên ngoài ngành công nghệ – nghệ sĩ, chính trị gia, tôn giáo – tham gia ký tên chứng tỏ mối lo ấy đã lan rộng.

Thứ hai, cái mới ở đây không chỉ là lời kêu gọi “tạm dừng” như các sáng kiến trước (ví dụ năm 2023 có thư kêu gọi ngừng phát triển AI mạnh hơn GPT-4) mà là yêu cầu cụ thể hơn: không chỉ tạm ngưng, mà cấm cho đến khi có chứng cứ rõ ràng rằng việc xây dựng siêu trí tuệ là an toàn và có thể kiểm soát được. Đó là thay đổi lớn trong cách nhìn nhận – từ “hãy chậm lại” sang “hãy chặn lại (hoặc đưa vào khung điều kiện rất chặt)”.

Tuy nhiên, cũng có nhiều hoài nghi và thách thức. Việc xác định “siêu trí tuệ” là gì, thời điểm nào nó xuất hiện, và ai sẽ kiểm soát đều chưa rõ. Một số chuyên gia cho rằng vẫn còn nhiều năm mới tới ngưỡng đó, và việc cấm có thể tạo ra hậu quả là làm giảm tốc độ đổi mới hoặc đẩy hoạt động nghiên cứu vào “bê bối” không kiểm soát. Ngoài ra, các công ty đang đầu tư khổng lồ vào AI – nếu bị điều tiết quá sớm – có thể chuyển ra các khu vực pháp lý lỏng lẻo hơn.

Gần 1.000 nhân vật ảnh hưởng, bao gồm cả 'Bố già AI', kêu gọi cấm siêu trí tuệ- Ảnh 2.

Từ góc độ chính sách và kinh tế, lời kêu gọi này đặt ra áp lực mới cho các nhà lập pháp và quản lý: liệu công bằng khi chỉ để các công ty tự điều chỉnh và “chạy đua” với nhau trong lĩnh vực mà hậu quả có thể vượt tầm kiểm soát? Với xu hướng quốc tế hoá việc điều tiết AI (ví dụ như luật AI của EU), đây là một tín hiệu mạnh rằng công chúng và các nhà lãnh đạo đang yêu cầu tham gia khống chế công nghệ, chứ không đơn thuần chỉ là khán giả.

Cuộc khảo sát 2.000 người trưởng thành tại Mỹ cũng phát hiện ra rằng phần lớn tin rằng “AI siêu phàm” không nên được tạo ra cho đến khi được chứng minh là an toàn hoặc có thể kiểm soát được và muốn có quy định chặt chẽ về AI tiên tiến.

Trong một tuyên bố được đăng tải trên trang web, nhà khoa học máy tính Bengio cho biết các hệ thống AI có thể vượt qua hầu hết mọi người trong hầu hết các nhiệm vụ nhận thức chỉ trong vòng vài năm. Ông nói thêm rằng mặc dù những tiến bộ như vậy có thể giúp giải quyết các thách thức toàn cầu, nhưng chúng cũng mang lại những rủi ro đáng kể.

Ông cho biết: “Để tiến tới siêu trí tuệ một cách an toàn, chúng ta phải xác định một cách khoa học cách thiết kế các hệ thống AI về cơ bản không có khả năng gây hại cho con người, dù là thông qua sự sai lệch hay mục đích sử dụng có ác ý”.

“Chúng ta cũng cần đảm bảo rằng công chúng có tiếng nói mạnh mẽ hơn trong các quyết định sẽ định hình tương lai chung của chúng ta”.

Theo: CNBC

TIN CÙNG CHUYÊN MỤC
Xem theo ngày