Giữa cuộc đua AI toàn cầu ngày càng nóng bỏng, Google đã âm thầm loại bỏ cam kết về đạo đức AI, cụ thể là lời hứa sẽ không sử dụng công nghệ này cho mục đích chế tạo vũ khí hoặc giám sát.
Trước đây, trong bản tuyên ngôn về nguyên tắc AI được công bố rộng rãi, Google từng khẳng định rõ ràng sẽ không theo đuổi các ứng dụng AI liên quan đến vũ khí gây sát thương hoặc công nghệ giám sát vi phạm các chuẩn mực quốc tế. Cam kết này, được ghi nhận lại bởi Internet Archive, đã từng là một phần quan trọng trong hình ảnh đạo đức mà Google dày công xây dựng.
Tuy nhiên, khi truy cập vào trang web chính thức của Google về nguyên tắc AI ở thời điểm hiện tại, người ta không còn thấy dấu vết của những lời hứa trên. Những dòng cam kết mạnh mẽ về việc từ chối AI vũ khí và giám sát đã biến mất một cách lặng lẽ.
Sự thay đổi này diễn ra trong bối cảnh cuộc đua phát triển AI đang tăng tốc chóng mặt, đặc biệt sau sự bùng nổ của chatbot ChatGPT từ OpenAI vào năm 2022. Trong khi AI ngày càng được ứng dụng rộng rãi, các quy định pháp lý và đạo đức liên quan đến công nghệ này vẫn chưa theo kịp tốc độ phát triển. Và dường như, Google, một trong những "người chơi" lớn nhất, đang có dấu hiệu nới lỏng những ràng buộc tự đặt ra cho chính mình.
Trong một bài đăng trên blog gần đây, các lãnh đạo cấp cao của Google, James Manyika và Demis Hassabis, cho rằng các khuôn khổ AI được công bố bởi các quốc gia đã giúp Google "hiểu sâu hơn về tiềm năng và rủi ro của AI". Họ nhấn mạnh về "cuộc cạnh tranh toàn cầu về vị trí dẫn đầu AI" và cho rằng "các quốc gia dân chủ nên dẫn đầu trong phát triển AI, dựa trên các giá trị cốt lõi như tự do, bình đẳng và tôn trọng nhân quyền". Bài đăng cũng kêu gọi sự hợp tác giữa các công ty, chính phủ và tổ chức có cùng giá trị để "tạo ra AI bảo vệ con người, thúc đẩy tăng trưởng toàn cầu và hỗ trợ an ninh quốc gia".
Tuy nhiên, nhiều người không khỏi đặt câu hỏi: Liệu việc loại bỏ cam kết không sử dụng AI cho vũ khí và giám sát có phải là một bước đi cần thiết để cạnh tranh trong cuộc đua AI toàn cầu? Hay đây là nước đi đáng lo ngại, báo hiệu một tương lai mà đạo đức AI bị xem nhẹ trước áp lực cạnh tranh và lợi nhuận?
Nhớ lại năm 2018, Google từng từ chối tham gia một hợp đồng điện toán đám mây trị giá 10 tỷ đô la với quân đội Mỹ vì lo ngại dự án này "không phù hợp với Nguyên tắc AI" của công ty. Thời điểm đó, hơn 4.000 nhân viên Google đã ký đơn yêu cầu công ty có "chính sách rõ ràng rằng Google và các đối tác sẽ không bao giờ xây dựng công nghệ chiến tranh". Một số nhân viên thậm chí đã từ chức để phản đối.
Sự thay đổi chính sách AI hiện tại của Google càng trở nên đáng chú ý và gây nhiều tranh cãi. Liệu đây có phải là dấu chấm hết cho kỷ nguyên "AI đạo đức" của Google, hay chỉ là một sự điều chỉnh cần thiết để thích ứng với bối cảnh mới? Câu trả lời vẫn còn bỏ ngỏ, nhưng chắc chắn rằng, động thái này của Google sẽ tiếp tục là tâm điểm chú ý và tranh luận trong thời gian tới.