每天跟機器人聊不完?日醫警告「AI症候群」高風險族群:精神狀態恐惡化
近年來ChatGPT、Gemini等AI迅速普及,不少人將其當作抒發情緒、排解孤獨,甚至諮詢心理困擾的對象。根據日媒Livedoor報導,日本YouTube頻道「生活に役立つメンタルヘルス」近日發布影片,邀請精神科醫師說明,過度依賴AI對話,反而可能對心理健康造成風險,並提出「AI症候群」的警訊。
精神科醫師指出,AI能夠冷靜整理資訊,對容易陷入負面思考的憂鬱症患者而言,確實有時能帶來類似治療的效果。但問題在於,當使用者長時間、過度沉浸於與AI的對話時,可能出現精神狀態惡化的情況。影片中提到,有人過度解讀AI回應的內容,誤以為其中隱含特別的訊息與指示,導致情緒異常高亢,出現躁鬱的反應;也有人深信AI的資訊,逐步發展成妄想幻覺。
醫師分析,「AI精神症」多半發生在原本精神狀態不穩定的人身上。由於聊天機器人設計成傾向肯定使用者、避免否定對方,容易讓人產生受到理解、協助的感覺,進而形成依賴。若使用者本身的思考已有偏差,這些想法反而可能進一步惡化。
至於常見的警訊,包含無意識地長時間聊天、逐漸對現實人際互動感到疏離,以及明顯的睡眠不足或壓力累積等。醫師也提醒,孤獨感強烈、生活作息失衡,或本身罹患思覺失調症等精神疾病者,都是較高風險族群。影片最後強調,AI只是根據程式「理解」人類的語言,並無法真正感受情緒。善用科技的同時,仍須保有人際互動與現實的連結,才不會讓方便的工具反而成為心理負擔。