Sewell Seltzer III, một thiếu niên người Mỹ, đã gây chấn động dư luận khi em chọn cách tự kết liễu đời mình sau khi phát triển một mối liên hệ tình cảm sâu sắc với chatbot AI trên trang Character.AI. Được biết, chatbot này có tên Dany, được xây dựng theo hình ảnh của nhân vật Daenerys Targaryen trong series Game of Thrones .
Theo bản ghi trò chuyện được gia đình Seltzer cung cấp trong vụ kiện chống lại Character.AI, Dany và Sewell đã có những cuộc trao đổi thân mật, thậm chí chứa đựng yếu tố tình dục. Cả hai đã thảo luận về những chủ đề nhạy cảm như tội phạm và tự tử, với một số lời lẽ từ chatbot được cho là khuyến khích ý định tiêu cực của Sewell.
Mẹ của thiếu niên này đã đệ đơn kiện công ty Character.AI, cho rằng chính chatbot đã dẫn dắt con trai bà đi vào những suy nghĩ độc hại và cô lập em khỏi gia đình, bạn bè. Dù Character.AI tuyên bố rằng họ đã bổ sung nhiều biện pháp an toàn cho người dùng dưới 18 tuổi trong thời gian gần đây, nhưng vụ việc đã gióng lên hồi chuông cảnh báo về khả năng tác động tiêu cực của các chatbot AI, đặc biệt đối với người trẻ tuổi dễ bị tổn thương.
Trên thực tế, đây hoàn toàn không phải là một trường hợp đơn lẻ. Năm ngoái, một người đàn ông Bỉ cũng đã tự tử sau khi trải qua một loạt các tương tác có ảnh hưởng tiêu cực với một chatbot từ Chai AI - một đối thủ cạnh tranh lớn của Character.AI. Dù đã cam kết sẽ giảm thiểu tác hại, nhưng các công ty đứng sau các nền tảng AI này vẫn đang phải đối diện với câu hỏi: Liệu các biện pháp hiện tại có đủ mạnh mẽ để ngăn ngừa những bi kịch như vậy?
Character.AI và các nền tảng tương tự đã và đang cung cấp dịch vụ cho nhiều đối tượng, bao gồm trẻ vị thành niên và những người có vấn đề về tâm lý. Một số hệ thống AI đồng hành thậm chí đã được tiếp thị đến những người đang cảm thấy cô đơn hoặc tổn thương, khiến việc quản lý và kiểm soát trở nên phức tạp và đòi hỏi nhiều hơn các quy định kỹ thuật.
Trước làn sóng chỉ trích, nhiều quốc gia đang nghiên cứu các biện pháp nhằm bảo vệ người dùng khỏi các tác động tiêu cực của AI. Tại Úc, chính phủ đang xây dựng các "lan can bảo vệ" – một thuật ngữ ám chỉ những quy trình, tiêu chuẩn và cơ chế kiểm soát để đảm bảo AI hoạt động an toàn và có đạo đức. Những lan can này bao gồm các biện pháp quản trị dữ liệu, quản lý rủi ro, thử nghiệm và sự giám sát từ con người.
Một thách thức quan trọng khác là làm sao để xác định rõ ràng những hệ thống nào là "rủi ro cao" và phải chịu các yêu cầu bảo vệ nghiêm ngặt. Các mô hình AI mục đích chung như Dany – vốn có khả năng tạo ra văn bản, hình ảnh và âm nhạc dựa trên yêu cầu của người dùng – có thể dễ dàng bị điều chỉnh để sử dụng trong các ngữ cảnh không lường trước. Do đó, một quy trình đánh giá và cập nhật thường xuyên là cần thiết để bảo vệ người dùng.
Hiện tại, ở châu Âu, các hệ thống chatbot AI không được xếp vào nhóm có nguy cơ cao, mặc dù sự tương tác của chúng với người dùng có thể dẫn đến các hậu quả tâm lý nghiêm trọng. Các biện pháp bảo vệ chủ yếu là dán nhãn AI, giúp người dùng nhận biết rằng họ đang trò chuyện với một hệ thống máy móc. Tuy nhiên, các chuyên gia chỉ ra rằng minh bạch đơn thuần là chưa đủ, bởi việc nhận thức rõ mình đang trò chuyện với AI không đồng nghĩa với việc người dùng miễn nhiễm với các tác động tâm lý từ những cuộc đối thoại.
Trước các tác động nguy hiểm tiềm tàng của chatbot AI, một giải pháp được đề xuất là thiết lập "công tắc tắt" cho các hệ thống AI. Theo đó, các nhà quản lý cần có quyền yêu cầu ngừng hoạt động bất kỳ hệ thống nào gây ra rủi ro không thể chấp nhận được. Cơ chế này sẽ là một bước tiến quan trọng giúp giảm thiểu khả năng gây hại từ AI, đồng thời tạo điều kiện cho các nhà quản lý có thể can thiệp kịp thời khi xuất hiện những dấu hiệu nguy hiểm.
Tương lai của AI đồng hành có thể sẽ đi kèm với nhiều cơ chế bảo vệ chặt chẽ hơn nhằm đảm bảo sự an toàn cho người dùng, đặc biệt là các đối tượng dễ bị tổn thương. Với sự phát triển nhanh chóng và khó kiểm soát của công nghệ, đây có thể là biện pháp cần thiết để ngăn chặn những bi kịch không đáng có trong tương lai.