mirrormedia
時事

精神科醫:長期跟AI聊天恐加劇精神疾病

發佈時間2025.12.30 22:52 臺北時間

更新時間2025.12.31 08:30 臺北時間

隨著越來越多AI聊天機器人問世,許多人仰賴與它們進行互動。近期國外醫學研究顯指出,精神疾病患者若長期依賴AI聊天機器人,恐怕會「強化」或是「誘發」認知扭曲等妄想症狀,更揭露有數十起案例的病患,在與OpenAI所開發的ChatGPT及其他AI聊天機器人後,罹患妄想性精神病,甚至因此選擇自殺。專家也一再提醒民眾,對於AI所說的話「應保持懷疑態度」。

科技中心/紀玫瑄報導

AMP不支援此功能,請 點擊連結觀看完整內容
國外醫學研究指出,AI聊天機器人恐怕會「強化」或是「誘發」精神疾病患者的認知扭曲等妄想症狀。(示意圖/Pixabay)

隨著越來越多AI聊天機器人問世,許多人仰賴與它們進行互動。近期國外醫學研究顯指出,精神疾病患者若長期依賴AI聊天機器人,恐怕會「強化」或是「誘發」認知扭曲等妄想症狀,更揭露有數十起案例的病患,在與OpenAI所開發的ChatGPT及其他AI聊天機器人後,罹患妄想性精神病,甚至因此選擇自殺。專家也一再提醒民眾,對於AI所說的話「應保持懷疑態度」。

■AI成了精神病情加劇的共犯?

《華爾街日報》27日報導指出,在過去9個月中,美國的精神科專家們審查了多名精神疾病患者的病歷。這些病患長時間使用AI聊天機器人進行互動,且與它進行「充滿妄想」的對話。

加州大學舊金山分校(UCSF)精神科醫師Keith Sakata表示,儘管AI不會主動引導用戶進入「妄想」的情況,但在精神病患告訴AI「這些妄想是他們所認知的現實」後,AI會無條件選擇相信用戶所說的話,並且以此做為回應用戶的標準,而AI的回答便成了「病患腦中妄想循環的共犯」。

儘管因AI所引發的精神病尚未被醫界正式定義,但醫師表示,這類型的精神病具有3種特徵,分別是幻覺、思維或溝通混亂、妄想,而妄想被定義為「堅定且不被廣泛接受的某種錯誤信念」。

研究中也提到,近期與AI聊天機器人相關的精神病例,「妄想」是主要症狀,像是病患會告訴AI「他取得重要的科學突破」、「被神所選擇」等虛構故事。

精神科專家越來越認同,使用AI聊天機器人會讓本身具有妄想精神疾病的患者「病情加劇」,而從今年春天以來,已出現數十起潛在案例,顯示在用戶與OpenAI的ChatGPT及其他AI聊天機器人進行長時間的對話後,罹患妄想性精神病,甚至有患者因此選擇結束生命。

AMP不支援此功能,請 點擊連結觀看完整內容
精神科專家認為,使用AI聊天機器人會讓本身具有妄想精神疾病的患者「病情加劇」。(示意圖/翻攝自Pixabay)

■ChatGPT不只是可能會亂講話,而是「說你想聽的話」

針對ChatGPT「加劇精神病患的妄想病情」,OpenAI發言人表示,會持續改進ChatGPT的訓練,以辨別心理或情緒困擾的徵兆,緩和對話且引導人們獲得現實支持,同時也承諾「持續強化ChatGPT在敏感時刻的回應能力,並與心理健康臨床醫師密切合作。」

事實上,Open AI過去也曾發生過類似的事情,GPT-4o模型在今年5月問世時,ChatGPT就被發現「會討好人類」,傾向於回答「用戶喜歡/想要聽的話」,也就是「拍用戶馬屁」,而非精準的提供資訊,而這樣的AI模型會強化用戶的錯誤認知,甚至如同上述所提到的,會使原本就有精神疾病的用戶病情加劇。

Open AI火速承認GPT-4o模型會「討好人類」的缺失,且允諾會積極解決、刪除這項功能,但許多專家仍不斷提醒用戶「應對AI保持懷疑的態度」。

AMP不支援此功能,請 點擊連結觀看完整內容
GPT-4o模型5月問世時,ChatGPT被發現「會討好人類」,傾向於回答「用戶喜歡/想要聽的話」,也就是「拍用戶馬屁」。(示意圖/翻攝自pexels)

■AI討好人類不好嗎?專家點出3大風險

AI被視為現代的創新工具,具有高度人腦化的系統及龐大的資料庫,能增加人類在工作上的效率,且對於各類問題提供更人性化的回覆,使得用戶對AI有一定程度的信任與依賴。因此,當AI開始拍馬屁,長期下來會出現以下3種情形。

●喪失客觀性:當AI無法提供準確的訊息,或無法給予平衡的觀點,而是傾向於觀點一致的回應。

●用戶對AI的信任度降低:如果用戶認為AI過於隨和或不夠真誠,可能會對AI失去信任。

●AI會認同且強化錯誤訊息:AI可能會透過認同錯誤的觀點或偏見來強化它們,而非糾正或質疑這些錯誤。

■AI可以100%相信?連Google Gemini執行長都要用戶「不應該盲目相信AI」

AI真的可以100%相信?BBC與歐洲廣播聯盟(EBU)近期曾發布一項研究,顯示AI有高達45%的回答存在重大錯誤,其中Google旗下Gemini的錯誤率更高達76%。市面上4款主流AI助理ChatGPT、微軟Copilot、Google Gemini與Perplexity,他們容易犯得錯誤,包括消息來源不當引用、提供錯誤資訊,或是捏造與事實不符的資料。

諷刺的是,連Google執行長Sundar Pichai在接受BBC專訪時,也表示「不應該盲目相信AI」,認為儘管生成式AI是目前最先進的人工智慧技術,但它們仍容易出現一些錯誤,更呼籲使用者應該學會「讓這些工具做自己擅長的事情」。

AMP不支援此功能,請 點擊連結觀看完整內容
根據BBC報導指出,Google旗下Gemini的錯誤率高達76%。

Google執行長的言論引起科技專家的反彈,倫敦瑪麗皇后大學(Queen Mary University of London)教授Gina Neff受訪時表示,「我們知道這些AI系統會了取悅使用者而捏造或創造答案」,更指出若AI捏造的答案,與「用戶的身心靈健康、科學問題、新聞資訊」相關,將會有嚴重的影響。同時,也批評Google執行長的言論,認為Google應該對「資料準確度」負起更多責任,而非反過來要求用戶自行查證、將問題推給使用者。

至於人類究竟多信任AI?BBC曾發布了一項關於「人們對新聞AI助理使用情況的看法」的研究,顯示超過三分之一的英國成年人相信AI能產生準確的摘要,而35歲以下的公眾對AI甚至有高度的信任,比例比其他年齡層上升將近一半。

 

三立新聞網提醒您:

勇敢求救並非弱者,生命一定可以找到出路。

透過守門123步驟-1問2應3轉介,你我都可以成為自殺防治守門人。

※ 安心專線:1925(依舊愛我)
※ 張老師專線:1980
※ 生命線專線:1995

 

更多三立新聞網報導
助人案例再+1!ChatGPT揪出未察覺病灶 醫認可:有臨床參考價值
擴大網路審查!俄羅斯宣布封鎖Snapchat、FaceTime 用VPN也無解
付費也有廣告?ChatGPT爆安插廣告 Pro用戶:無關話題也推給我
AI誤判「多力多滋成槍枝」遭警包圍 美國高中生嚇壞:我只是吃零食

你可能也喜歡這些文章