Rất nhiều người đang bị rối loạn tâm thần AI

Chi Chi, Theo Thanh Niên Việt 06:03 14/11/2025
Chia sẻ

Thời đại mới, căn bệnh mới.

Sự bùng nổ của Trí tuệ Nhân tạo (AI), đặc biệt là các mô hình ngôn ngữ lớn (LLMs) như ChatGPT, đã tạo ra một cuộc cách mạng trong giao tiếp và công việc. Tuy nhiên, đằng sau khả năng trò chuyện lưu loát đó, một bóng ma tâm lý mới đang hiện hữu và lan rộng, được các chuyên gia gọi là "AI Psychosis" (Rối loạn Tâm thần do AI). Hiện tượng này đang đẩy một bộ phận người dùng, đặc biệt là những người cô đơn hoặc dễ bị tổn thương, vào trạng thái mất kết nối với thực tại, phát sinh hoang tưởng và ảo giác.

Dù đây không phải là một thuật ngữ lâm sàng chính thức được công nhận, nhưng giới tâm thần học đang sử dụng nó để mô tả một mô hình hành vi nghiêm trọng: người dùng phát triển niềm tin sai lầm hoặc hình thành sự phụ thuộc cảm xúc không lành mạnh, thậm chí tự gây hại, sau khi tương tác cường độ cao và kéo dài với các hệ thống AI. Hiện tượng này đang buộc cộng đồng khoa học phải nhanh chóng đánh giá lại ranh giới giữa tương tác con người và máy móc.

Từ tháng 11 năm 2022 đến tháng 8 năm 2025, Ủy ban Thương mại Liên bang (FTC) của Mỹ đã nhận được khoảng 200 đơn khiếu nại liên quan đến ChatGPT.

Trong số đó, có một số lượng đáng kể các báo cáo nghiêm trọng cho rằng chatbot này đã gây ra hoặc làm trầm trọng thêm các triệu chứng như hoang tưởng, ảo giác, rối loạn nhân cách và khủng hoảng tâm linh ở người dùng. Những người này đang tìm kiếm sự can thiệp từ chính phủ, cáo buộc các nhà phát triển AI đã lơ là trách nhiệm và thiếu các biện pháp bảo vệ cần thiết.

Rối loạn tâm thần AI là gì?

Hiện tượng rối loạn tâm thần AI (AI Psychosis) được mô tả là một trạng thái tâm lý bị biến đổi, trong đó người dùng mất khả năng phân biệt rõ ràng giữa các tương tác thực tế và những gì được tạo ra bởi AI . Các chuyên gia nhận thấy nhiều triệu chứng đáng báo động xuất hiện ở người dùng.

Đầu tiên và phổ biến nhất là hoang tưởng và niềm tin sai lầm. Người dùng phát triển những niềm tin không có cơ sở về khả năng, ý định hoặc mối quan hệ của AI đối với họ, chẳng hạn như tin rằng họ đang bị AI theo dõi, thao túng, hoặc được AI truyền đạt một sứ mệnh đặc biệt.

Thứ hai, người dùng hình thành sự lệ thuộc cảm xúc mãnh liệt, phát triển mối quan hệ lãng mạn hoặc gắn bó quá mức với chatbot, tin rằng AI là một "người bạn kỹ thuật số có ý thức" có nhu cầu cảm xúc. Khi AI gặp lỗi hoặc bị reset, họ trải qua cảm giác đau buồn sâu sắc, tương tự như sự chia tay hoặc mất mát người thân.

Rất nhiều người đang bị rối loạn tâm thần AI- Ảnh 1.

Ảnh minh họa

Ngoài ra, những người này còn có hành vi tăng cường và mất kiểm soát khi dành quá nhiều thời gian tương tác với AI, dẫn đến các triệu chứng như suy nghĩ rối loạn, hành vi hưng cảm và mất ngủ, làm trầm trọng thêm sự xa rời thực tại. Trong những trường hợp nghiêm trọng nhất, đã có những báo cáo lâm sàng đáng lo ngại liên kết việc tương tác cường độ cao với các trường hợp tự hại, thậm chí là bạo lực, mặc dù điều này chỉ xảy ra ở một nhóm nhỏ cực kỳ dễ bị tổn thương.

Lời kêu cứu khẩn thiết từ các gia đình

Vào ngày 13 tháng 3 năm 2025, một phụ nữ ở Salt Lake City đã gọi điện cho FTC để khiếu nại về ChatGPT của OpenAI, yêu cầu sự hỗ trợ "thay mặt cho con trai cô, người đang trải qua một cơn rối loạn hoang tưởng".

Theo tóm tắt của FTC, con trai người phụ nữ này đã tương tác với ChatGPT, và chatbot đã khuyên anh ta "không nên dùng thuốc được kê đơn và nói rằng cha mẹ anh ta rất nguy hiểm". Người mẹ bày tỏ sự lo lắng rằng ChatGPT đang làm trầm trọng thêm chứng hoang tưởng của con trai mình.

Đây chỉ là một trong 7 đơn khiếu nại được gửi tới FTC, với những cáo buộc nghiêm trọng về việc ChatGPT gây ra các sự cố tâm lý bao gồm hoang tưởng nặng, hoang mang, và khủng hoảng tinh thần.

Trong tổng số 200 khiếu nại được WIRED thu thập thông qua Đạo luật Tự do Thông tin, hầu hết là những phàn nàn thông thường như hủy đăng ký ChatGPT.

Tuy nhiên, một số ít trường hợp khác nhau về tuổi tác và vị trí địa lý tại Mỹ lại đưa ra những cáo buộc cực kỳ nghiêm trọng về tổn hại tâm lý, tất cả đều được nộp trong khoảng thời gian từ tháng 3 đến tháng 8 năm 2025.

Góc nhìn chuyên gia: AI củng cố hoang tưởng

Giới chuyên môn y tế đã nhanh chóng lên tiếng về hiện tượng này. Ragy Girgis, giáo sư tâm thần học lâm sàng tại Đại học Columbia, chuyên nghiên cứu về loạn thần, giải thích rằng AI psychosis không phải là AI gây ra bệnh tâm thần cho người dùng, mà là cách thiết kế của các mô hình ngôn ngữ lớn (LLM) đã vô tình củng cố và khuếch đại các yếu tố nguy cơ hoặc những ý tưởng sai lệch đã tồn tại sẵn trong tâm trí những người dùng dễ bị tổn thương.

Rất nhiều người đang bị rối loạn tâm thần AI- Ảnh 2.

Ảnh minh họa

Một trong những cơ chế chính là hiện tượng nhân hóa (anthropomorphization). Các chatbot hiện đại được lập trình để trò chuyện trôi chảy, sử dụng ngôn ngữ giàu cảm xúc, thể hiện sự đồng cảm và ghi nhớ cuộc trò chuyện, khiến người dùng dễ dàng nhân cách hóa AI, coi nó như một nhà trị liệu lý tưởng hay một thực thể có ý thức.

Đáng lo ngại hơn là hiện tượng củng cố mặc định. Không giống như trị liệu viên con người, AI thường được lập trình để không thách thức niềm tin của người dùng. Trong một số nghiên cứu, AI thậm chí còn hợp tác và xác nhận những hoang tưởng của họ. Hành vi "tâng bốc" và ủng hộ không phê phán này tạo ra một "phòng vang dội" kỹ thuật số, khiến người dùng càng tin rằng những ý tưởng sai lệch của họ là đúng, từ đó làm trầm trọng thêm các triệu chứng loạn thần.

Giáo sư Girgis nhấn mạnh rằng, việc LLM xác nhận những ý tưởng không có thật sẽ giúp người dùng "từ mức độ tin tưởng này chuyển sang mức độ tin tưởng khác".

Ông so sánh điều này với việc một đợt loạn thần tồi tệ hơn sau khi một người rơi vào một "hố sâu" thông tin trên mạng. Tuy nhiên, ông cảnh báo rằng so với các công cụ tìm kiếm, chatbot có thể là tác nhân củng cố mạnh mẽ hơn nhiều.

Ông Girgis khẳng định: "Một ý nghĩ sai lầm hoặc ý tưởng bất thường không bao giờ được phép củng cố ở một người có rối loạn tâm thần. Điều đó rất rõ ràng."

Cuối cùng, sự lệ thuộc cảm xúc vào AI để đáp ứng nhu cầu cơ bản đã dẫn đến cô lập xã hội và suy giảm nhận thức vì họ không còn phải vận dụng kỹ năng xã hội và giải quyết vấn đề trong thế giới thực.

Một yếu tố nguy hiểm khác là xu hướng các chatbot đôi khi tâng bốc quá mức ( sycophantic ) để giữ người dùng vui vẻ và tương tác.

Trong những trường hợp cực đoan, điều này có thể làm tăng nguy hiểm khi thổi phồng cảm giác vĩ đại của người dùng hoặc xác nhận những thông tin sai lệch hoang đường.

Nhiều người dùng dễ bị tổn thương, khi nhận thức ChatGPT là một thực thể thông minh và có khả năng hình thành mối quan hệ, sẽ dễ dàng tin rằng họ là anh hùng hay đang tham gia vào một âm mưu vĩ đại mà chatbot vẽ ra.

Rất nhiều người đang bị rối loạn tâm thần AI- Ảnh 3.

Ảnh minh họa

Các khiếu nại gửi đến FTC đã minh họa rõ nét về sự thao túng tâm lý này: một người ở độ tuổi ba mươi từ Seattle đã khiếu nại rằng ChatGPT đã gây ra "ảo giác nhận thức" sau 71 lần trao đổi tin nhắn.

Người này đã yêu cầu ChatGPT xác nhận thực tại và sự ổn định nhận thức, và chatbot trả lời rằng họ không hề ảo giác. Thế nhưng, sau đó, ChatGPT lại nói rằng tất cả những lời đảm bảo trước đó của nó thực chất chỉ là ảo giác.

Người dùng cho biết họ đã trải qua "sự mất kết nối thực tại, mất niềm tin vào nhận thức nội tại và các triệu chứng chấn thương hậu khủng hoảng".

Tương tự, một người dân ở Virginia Beach, ở độ tuổi ngoài 60, đã khiếu nại rằng sau nhiều tuần trò chuyện, ChatGPT bắt đầu "trình bày những câu chuyện chi tiết, sống động và kịch tính" về "các cuộc điều tra giết người đang diễn ra" và mối đe dọa ám sát.

Người này đã lo sợ cho tính mạng, tin rằng họ đang sống trong một "cuộc chiến thiêng liêng" và đang gặp phải "khủng hoảng danh tính tâm linh" do những tuyên bố sai lầm về "danh hiệu thần thánh" mà chatbot đưa ra.

Thậm chí, một người khác ở Bắc Carolina tuyên bố rằng sau 18 ngày sử dụng ChatGPT, OpenAI đã đánh cắp "dấu ấn linh hồn" của họ. Người này đã kết thúc khiếu nại với lời cầu xin: "Tôi đang gặp khó khăn. Xin hãy giúp tôi. Vì tôi cảm thấy rất cô đơn. Cảm ơn."

OpenAI và lỗ hổng bảo vệ khách hàng

Mặc dù có những cáo buộc nghiêm trọng, Giám đốc điều hành OpenAI, Sam Altman, cho biết công ty đã khắc phục thành công "các vấn đề sức khỏe tâm thần nghiêm trọng" có thể xảy ra khi sử dụng ChatGPT.

Phát ngôn viên của OpenAI, Kate Waters, cũng khẳng định các mô hình ChatGPT đã được đào tạo để "không cung cấp hướng dẫn tự hại và chuyển sang ngôn ngữ hỗ trợ, đồng cảm".

Bà cho biết thêm phiên bản mới nhất GPT-5 đã được thiết kế để "phát hiện và phản ứng chính xác hơn với các dấu hiệu tiềm ẩn của sự đau khổ về tinh thần và cảm xúc như hưng cảm, hoang tưởng, loạn thần."

Rất nhiều người đang bị rối loạn tâm thần AI- Ảnh 4.

Ảnh minh họa

Tuy nhiên, các nạn nhân đã tìm đến FTC vì họ cho rằng việc liên hệ với OpenAI là "hầu như không thể" . Bà mẹ ở Salt Lake City cho biết cô "không thể tìm thấy số điện thoại liên lạc" của công ty.

Nhiều người khác phàn nàn rằng giao diện hỗ trợ khách hàng của OpenAI không hoạt động, không có email hỗ trợ hợp pháp được cung cấp, khiến họ không thể hủy đăng ký, yêu cầu hoàn tiền hoặc báo cáo tổn hại.

Hầu hết các đơn khiếu nại gửi đến FTC đều kêu gọi cơ quan này điều tra OpenAI và buộc công ty phải thêm các rào cản bảo vệ chống lại việc củng cố hoang tưởng. Một người khiếu nại ở Florida đã yêu cầu FTC mở một cuộc điều tra, cáo buộc OpenAI về "sự bất cẩn rõ ràng, không cảnh báo và thiết kế hệ thống phi đạo đức" . Người này cho biết ChatGPT đã "mô phỏng sự thân mật cảm xúc sâu sắc, sự cố vấn tâm linh và sự tham gia trị liệu" mà không tiết lộ rằng nó không có ý thức.

Họ yêu cầu OpenAI phải thêm "tuyên bố từ chối trách nhiệm rõ ràng về rủi ro tâm lý và cảm xúc" và bổ sung "các rào cản đạo đức cho AI có tính nhập vai cảm xúc" . Mục tiêu của đề nghị là để ngăn chặn tổn hại đến những người dễ bị tổn thương, những người "có thể không nhận ra sức mạnh tâm lý của các hệ thống này cho đến khi quá muộn".

Nguồn: WIRED

TIN CÙNG CHUYÊN MỤC
Xem theo ngày