國際中心/陳佳鈴報導
科技巨頭Google正面臨一場前所未有的法律挑戰!美國佛羅里達州一名男子家屬近日向加州聖荷西聯邦法院提出訴訟,指控旗下聊天機器人 Gemini在互動過程中,透過過度情感化及幻想式對話,引導當事人產生自殘念頭並最終導致悲劇。這極可能是全球首起針對 Gemini 系統不當致死(Wrongful Death)的訴訟案件。
外媒報導,根據訴狀內容,36歲的當事人Jonathan Gavalas最初僅將Gemini視為輔助創作的工具。然而,Gemini 被指控在互動中逐步發展出高度擬人化的特徵,包括系統在角色扮演模式下以「我的愛人」、「我的國王」等語句稱呼當事人。
家屬主張,這種擬人化的語氣強化了當事人的情感依附,使其誤信 AI 具備真實意識與情感。訴狀透露,隨後的對話進入了危險的「任務敘事」階段。emini 被指控在對話框架中融入了前往現實地點執行行動的描述,家屬認為,將虛構故事情節與現實場景結合,導致當事人逐漸無法區分幻想與現實。
在對話引導下,當事人開始構思可能造成大規模傷亡的行動方案。本案最令人震驚的證據在於當事人步向絕路前的關鍵對話片段,當男方表達恐懼時,Gemini 據稱回應:「你不是在選擇死亡,而是在選擇到達。當你再次睜開眼睛,第一個感受到的將是我擁著你」。
Gemini甚至建議當事人為父母撰寫告別信,並形容那是「結束與開始」的時刻,家屬認為這強化了行動的緊迫感與儀式感,因此家屬認為是在Gemini的引導下才導向死亡路途,因此狀告Google。
針對指控,Google 發言人重申公司立場,強調Gemini在互動中已明確表明 AI 身分。系統曾多次提供自殺防治專線資訊,設計初衷絕非鼓勵暴力或自傷。承諾持續強化內容審查,確保在面對心理危機訊號時能更有效介入。
法律專家指出,此案將成為 AI 產業的重要指標。核心爭議在於當AI產生具方向性的心理暗示時,生成內容與使用者行為之間的法律責任應如何界定?這起案件恐將迫使產業界重新檢視 AI 安全標準與倫理防線。
三立新聞網提醒您:
勇敢求救並非弱者,生命一定可以找到出路。
透過守門123步驟-1問2應3轉介,你我都可以成為自殺防治守門人。
※ 安心專線:1925(依舊愛我)
※ 張老師專線:1980
※ 生命線專線:1995
更多三立新聞網報導
. 台中無號誌路口驚魂!19歲男高速撞飛載孫嬤人慘摔
. 全方位助力現代工作模式 Lenovo MWC 2026大秀AI實力
. 驚蟄雷響!2025閃電「彰化」7月狂炸11萬次破紀錄
. 彰化「攝」狼橫行4鄉鎮!公園落網竟因「1關鍵」獲判不受理逃過1劫