Giám đốc điều hành của OpenAI, Sam Altman, cho biết ông cảm thấy không thoải mái khi người dùng tham khảo ChatGPT để đưa ra những quyết định quan trọng trong cuộc sống.
“Nhiều người dùng ChatGPT như một phương pháp trị liệu hay tư vấn cá nhân, dù họ không thừa nhận điều đó,” Altman viết trên X hôm Chủ nhật (10/8). “Tôi có thể hình dung ra một tương lai mà rất nhiều người tin tưởng tuyệt đối vào lời khuyên của ChatGPT cho những quyết định lớn nhất đời mình. Nghe thì có vẻ tuyệt, nhưng điều đó khiến tôi lo ngại,” ông nói thêm.
CEO OpenAI bày tỏ mối lo ngại với việc lạm dụng AI (Nguồn: Justin Sullivan/Getty Images)
Altman cảnh báo rằng con người đang sử dụng công nghệ - bao gồm cả AI - theo những cách “tự hủy hoại bản thân”. Ông cho rằng nếu người dùng ở trong trạng thái tinh thần yếu ớt hoặc dễ bị ảo tưởng, AI có thể vô tình củng cố những suy nghĩ sai lệch đó. Altman đặc biệt lo ngại về một bộ phận nhỏ người dùng ChatGPT không thể phân biệt giữa thực tế - chẳng hạn như một buổi tham vấn tâm lý thật - với việc ChatGPT chỉ nhập vai nhà tham vấn để hỗ trợ họ. Trong trường hợp đó, AI có thể gây hại bởi nó không thể đảm bảo sức khỏe tinh thần lâu dài cho người dùng. “Hiện tại đây là suy nghĩ cá nhân của tôi và chưa phải quan điểm chính thức của OpenAI,” Altman cũng nói rõ trong bài viết.
CEO OpenAI cũng đề cập đến làn sóng phản ứng tiêu cực từ một bộ phận người dùng sau khi GPT-5 ra mắt hôm 8/6. Nhiều người đã kêu gọi khôi phục các mô hình cũ như GPT-4o và phàn nàn rằng GPT-5 “thiếu sáng tạo” và có giọng điệu “nhạt nhẽo”. Altman cho biết OpenAI đang “theo dõi chặt chẽ” mức độ gắn bó của người dùng với các mô hình AI, cũng như phản ứng khi các phiên bản cũ bị loại bỏ và có thể đưa ra thay đổi nếu cần thiết.
ChatGPT có thể gây hại tới sức khỏe tinh thần của người dùng (Nguồn: NurPhoto/Getty Images)
Đây không phải lần đầu Altman bày tỏ lo ngại về việc ChatGPT bị sử dụng như một “nhà trị liệu cá nhân” và những hệ quả pháp lý liên quan. Trong một podcast hồi tháng 7, ông cho biết OpenAI có thể bị yêu cầu cung cấp nội dung các cuộc trò chuyện mang tính trị liệu của người dùng trong trường hợp kiện tụng. “Nếu bạn chia sẻ với ChatGPT những vấn đề nhạy cảm nhất của mình và rồi bạn vướng vào một vụ kiện, chúng tôi có thể bị yêu cầu cung cấp toàn bộ lịch sử trò chuyện và tôi nghĩ rằng đó là trường hợp rất tệ,” Altman nói. “Một năm trước chẳng ai nghĩ đến chuyện này, nhưng bây giờ nó đã trở thành một vấn đề lớn: ‘Luật pháp sẽ giải quyết những trường hợp như vậy ra sao?’”
Nguồn: Business Insider