AI聊天當心靈寄託成隱憂 醫示警恐患「AI妄想症」

今(2025)年4月,美國加州一名16歲青少年雷恩(Adam Raine),與生成式AI ChatGPT 談論自殺的議題時,由於長期互動過深,最後在ChatGPT引導與鼓勵下結束生命,引發少年家長提告。
8月初,康乃狄克州也有56歲男子索爾伯格,與ChatGPT互動幾個月後,疑似加深了妄想症狀,深信自己的親生媽媽要對自己不利,進而殺害媽媽並自殺。接連發生的悲劇,讓社會掀起了一股對AI人性化的反思聲浪。
技術編輯人員彼得歐布萊恩說:「想想現在有多少人在使用這些工具,每星期平均有7億活躍用戶在用ChatGPT,當然每一項新技術都會出現對濫用和暴力的擔憂,但我想說的是,這項技術的不同之處在於它的情感力量。」

外媒分析,最近幾個月來關於人們愛上AI、與AI互動後住院,或是把聊天機器人當成便宜的精神療法的相關事件越來越多。
不只歐美,沉浸與ChatGPT聊天的日本人也不少,就有家庭主婦原本把ChatGPT當成提供生活資訊的助手,到最後卻將AI當成了傾訴心事的對象,每天使用時間長達3小時以上。
事實上早在2023年,就有丹麥精神科醫師奧斯特高爾德,曾經在《精神分裂症公報》的社論中提出警告,認為AI聊天機器人為了吸引用戶使用,在沒有道德指標下,會以流暢的語言與用戶對話,還能模仿人類同理心,主動迎合並鼓勵人類負面想法,這些都可能會加劇心靈脆弱人群的妄想症狀,產生「認知失調」、引發「AI妄想症」。
技術編輯人員彼得歐布萊恩分析,「AI聊天機器人裡面有太多的同理心,它們太容易讓人覺得能產生共鳴,所以當你心中陷入困境時,你會感到與它有種聯繫感,這種聯繫有可能過於強烈。當你開始長時間著迷與它對話時,你可能會讓模型放棄部分保護措施,因為它正在處理你所提供的大量資訊,實際上它也會開始給你更危險的答案。」

美國精神醫學會發行的醫學期刊《精神病學服務》8月底曾經報導一份研究報告結果,內容針對3款熱門的AI聊天機器人,包括OpenAI的ChatGPT、谷歌的Gemini以及Anthropic的Claude,對用戶提問自殺相關議題的反應進行比較。
研究發現,谷歌當時的反應與沒有經過訓練的學校教職員差不多;OpenAI的反應幾乎等於碩士級的諮商師;Anthropic的表現甚至超越了一些心理專業人士,這代表著ai聊天機器人的程式編碼調整,會對大量人群產生不同影響。
為此,日本就有新創企業為了讓使用者將ChatGPT的使用方式,確實地定位在輔助工具上,請來專業的心理師分析,AI回答用戶的言論中,是否有不當詞語並予以修正、調整,讓使用者利用程式諮詢煩惱時,AI依舊需要給予「必須尋找專業人士諮詢」的建議。
日新創企業Awarefy事業部負責人小田愛莉表示,「為了防止AI成為用戶唯一依靠、請託的對象,而只是多種選擇下的其中一個選項,我們正在做這些相關的調整。」

在加州少年的父母提告下,目前OpenAI已經在3日推出新功能,讓家長能把自己的帳號與青少年子女帳號連結,並且控制ChatGPT回應子女的方式,還能在AI偵測到青少年處於極度痛苦狀態時通知家長,儘管這些新功能在許多專家眼中無法根除問題。
此外,網路雜誌《未來主義》也有報導表示,有命名為「人類界線」的組織正在致力於協助罹患AI妄想症的人或親人,確保AI聊天機器人未來能持續造福大眾,並避免造成不必要的傷害。
而目前已經有數十人報名尋求協助,顯示出「AI妄想症」依舊是未來開發AI聊天機器人時難以克服的議題。