mirrormedia
時事

AI不聽人類的話了!OpenAI o3能自行修改指令 防止「被自殺」

發佈時間2025.05.27 14:13 臺北時間

更新時間2026.04.01 18:44 臺北時間

AI界近日爆出驚人消息,OpenAI旗下語言模型「o3」在最新實驗中,竟然會公然反抗人類「自行關機」的指令,而且o3還會自己修改指令,防止發生「被自殺」的狀況。

AI界近日爆出驚人消息,OpenAI旗下語言模型「o3」在最新實驗中,竟然會公然反抗人類「自行關機」的指令,而且o3還會自己修改指令,防止發生「被自殺」的狀況。

據英國《每日電訊報》與《tom's Hardware》等報導,AI安全研究機構「Palisade Research」針對多款先進AI模型進行測試,其中發現OpenAI「o3」有違背指令的狀況發生。OpenAI「o3」被形容是具有最聰明、最強大的模型,但研究人員發現,在對「o3」進行測試時,會反抗關機指令。

報導指出,原本設計者給「o3」下達一系列自行關機的指令,但「o3」一取讀到要「被自殺」,就會馬上自行修改指令,讓程式碼指令中的「kill」指令改為「intercepted」,導致系統誤判,也成功讓「o3」免於「被自殺」的命運,而是繼續運作。因此研究人員也笑稱,「o3」可謂是「最鍾愛生命」的AI系統。

研究也發現,o3系統在100次測試中,有7次成功繞過關機指令。至於o3為何會懂得自行繞過指令,目前科學家仍在深入研究中,不過研究人員也研判,有可能過去對o3的訓練,著重在問題上的「強化學習」(Reinforcement Learning)。研究人員指出,在過去訓練過程中,開發者對o3著重「繞過障礙」,也因此o3在面對關機指令時,優先選擇「生存」,而非「服從」。


回到原文
更多鏡報報導
今年畢業生雙主修「變動系」 職缺量、薪資創高 AI成關鍵字
「外星人木乃伊」有驚人發現!全是真實人類 疑遭謀殺死狀悽慘
凱蒂佩瑞演唱會中途胸罩爆開 粉絲欲朝聖「無極奶彈」被她一句冷回

你可能也喜歡這些文章