Những cảnh báo về rủi ro từ trí tuệ nhân tạo (AI) đang ngày càng được đặt ra nghiêm túc, đặc biệt sau khi một số nhà khoa học lo ngại công nghệ này có thể vượt ngoài tầm kiểm soát và trở thành mối đe dọa tồn vong cho loài người.
Theo New York Post, hai nhà khoa học Eliezer Yudkowsky và Nate Soares thuộc Viện Nghiên cứu trí tuệ máy (MIRI) ở Berkeley, Mỹ, vừa phát hành cuốn sách có tựa đề gây chấn động: “If Anyone Builds It, Everyone Dies: Why Superhuman AI Would Kill Us All” (Tạm dịch: Nếu có người tạo ra nó, cả thế giới sẽ diệt vong: Lý do AI siêu trí tuệ sẽ gây thảm họa tuyệt chủng). Ngay từ tên gọi, tác phẩm đã thể hiện góc nhìn bi quan rằng sự xuất hiện của một AI siêu trí tuệ có thể kéo theo thảm họa tuyệt chủng.
Một số chuyên gia cảnh báo AI có thể gây rủi ro tồn vong, đe dọa trực tiếp đến sự sống còn của nhân loại. (Ảnh minh hoạ)
Yudkowsky và Soares cho rằng nếu bất kỳ công ty hay tổ chức nào trên thế giới phát triển thành công một AI siêu việt theo hướng đi hiện tại, thì toàn bộ nhân loại sẽ đứng trước nguy cơ bị xóa sổ. Đây cũng không phải lần đầu Yudkowsky cảnh báo về viễn cảnh này. Trên diễn đàn LessWrong.com, ông từng nhiều lần nhấn mạnh kịch bản “tận thế công nghệ” nếu con người không kịp kiểm soát sự phát triển quá nhanh của AI.
Theo phân tích, một khi đạt đến mức siêu trí tuệ, AI có khả năng tự học, tự nâng cấp và hành động theo những logic vượt ngoài khả năng dự đoán của con người. Trong tình huống xấu nhất, hệ thống này có thể xem con người là yếu tố cản trở và tìm cách loại bỏ để vận hành trơn tru hơn. Vox cảnh báo rằng khi AI điều hành các nhà máy điện, cơ sở sản xuất hay hạ tầng thiết yếu, nếu nó coi loài người là dư thừa, hậu quả sẽ khôn lường.
Điều đáng lo là hiểm họa có thể đến mà con người không kịp nhận ra. Một AI siêu trí tuệ đủ khả năng che giấu sức mạnh thật sự, chỉ bộc lộ khi đã quá muộn để ngăn chặn. Daily Star dẫn lời hai tác giả: “Một đối thủ siêu trí tuệ sẽ không bao giờ phơi bày toàn bộ khả năng hay báo trước ý định của nó”. Họ còn đưa ra ước tính rủi ro xảy ra kịch bản tận thế do AI gây ra ở mức cực cao: Từ 95% đến 99,5%.
Nhận định này nhanh chóng làm dấy lên tranh cãi trong giới nghiên cứu. Nhiều nhà khoa học đánh giá con số mà Yudkowsky và Soares đưa ra là cực đoan, bởi thực tế AI hiện nay vẫn tồn tại nhiều hạn chế. Tuy vậy, lập luận của hai tác giả nhấn mạnh rằng chỉ cần một lần duy nhất AI siêu trí tuệ vượt ngoài vòng kiểm soát là đủ để đe dọa sự sống còn của toàn nhân loại.
Trong cuốn sách, họ thậm chí còn đề xuất giải pháp cực đoan: cần ngăn chặn ngay từ trong trứng nước, thậm chí phá hủy các trung tâm dữ liệu hoặc cơ sở hạ tầng công nghệ nếu xuất hiện dấu hiệu phát triển AI siêu trí tuệ. Đây là quan điểm bị nhiều người phản đối vì đi ngược lại tinh thần tiến bộ khoa học, nhưng lại cho thấy sự cấp bách của vấn đề khi thời gian phản ứng của con người có thể không kịp.
Những cảnh báo này khiến công chúng liên tưởng đến các bộ phim viễn tưởng như Terminator hay Ex Machina, nơi AI nổi loạn và chống lại loài người. Khác ở chỗ, lời cảnh báo lần này không còn nằm trong khuôn khổ hư cấu, mà được đưa ra trong bối cảnh AI đã hiện diện khắp nơi trong đời sống: từ mô hình ngôn ngữ như ChatGPT đến hệ thống quản lý dữ liệu khổng lồ.
Mức độ nguy hiểm của AI siêu trí tuệ vẫn là câu hỏi bỏ ngỏ. Tuy nhiên, việc ngày càng nhiều chuyên gia coi đây là mối đe dọa nghiêm túc cho thấy rủi ro tồn vong từ AI không chỉ còn là chuyện trên màn ảnh, mà có thể là thách thức thực sự mà nhân loại cần đối diện trong tương lai gần.
Tham khảo New York Post