Elon Musk cùng hàng nghìn chuyên gia kêu gọi tạm dừng phát triển ''hậu duệ'' của ChatGPT

Bình Giang, Theo Tiền Phong 15:48 29/03/2023

Tỷ phú Elon Musk cùng một nhóm chuyên gia về trí tuệ nhân tạo và lãnh đạo ngành vừa gửi thư ngỏ kêu gọi tạm dừng các hệ thống huấn luyện trí tuệ nhân tạo (AI) mạnh hơn cả phiên bản GPT-4 của OpenAI, vì lo những nguy cơ tiềm tàng đối với xã hội và con người.

Elon Musk cùng hàng nghìn chuyên gia kêu gọi tạm dừng phát triển hậu duệ của ChatGPT - Ảnh 1.

Tỷ phú Elon Musk (Ảnh: AP)

Bức thư do Viện Tương lai cuộc sống (tổ chức phi chính phủ) đưa ra, được hơn 1.000 người ký, trong đó có Musk, Emad Mostaque - CEO của Stability AI, các nhà khoa học trong dự án DeepMind thuộc tập đoàn Alphabet, cùng với những tên tuổi lớn trong mảng AI như Yoshua Bengio và Stuart Russell. Bức thư kêu gọi dừng phát triển AI tiên tiến cho đến khi có các giao thức an toàn chung, được áp dụng và thẩm định bởi chuyên gia độc lập.

“Các hệ thống AI mạnh chỉ nên được phát triển khi chúng ta đã tự tin rằng chúng sẽ mang lại tác động tích cực và có thể quản lý rủi ro”, bức thư viết.

Bức thư cũng nêu ra những rủi ro tiềm tàng đối với xã hội và nền văn minh khi AI cạnh tranh với con người, gây ra những gián đoạn về kinh tế và chính trị, cho rằng các nhà phát triển cần bàn bạc với giới hoạch định chính sách và các cơ quan quản lý.

Bức thư được đưa ra sau khi lực lượng cảnh sát chung châu Âu (Europol) bày tỏ lo ngại về đạo đức và pháp lý đối với những hệ thống AI tiên tiến như ChatGPT, cảnh báo những hệ thống như vậy có thể bị tội phạm lợi dụng để lừa đảo, đưa ra thông tin sai lệch và thực hiện hành vi tội phạm trên mạng. Musk là một người lên tiếng mạnh mẽ nhất để bày tỏ quan ngại về AI, dù hãng Tesla của ông đang dùng AI trong hệ thống lái tự động.

Từ khi ra mắt cuối năm ngoái, ChatGPT của OpenAI thôi thúc nhiều hãng công nghệ tăng tốc để bắt kịp, phát triển những hệ thống tương tự để tích hợp AI vào sản phẩm của họ.

Sam Altman, giám đốc điều hành của OpenAI, chưa ký vào bức thư trên. OpenAI không phản hồi đề nghị bình luận.

“Bức thư này không hoàn hảo, nhưng tinh thần là đúng đắn: Chúng ta cần chậm lại cho đến khi chúng ta hiểu hơn về các tác động”, Gary Marcus, một giáo sư danh dự tại ĐH New York và là người đã ký vào bức thư, nhận xét.

“Chúng có thể gây tác hại nghiêm trọng. Những người chơi ngày càng trở nên bí mật về điều họ đang làm, khiến xã hội khó phòng thủ trước những nguy cơ có thể đến”, GS Marcus nói.

Nguồn: AP