文化
2018.04.19 06:16 臺北時間

美研發自主攻擊無人機 未來戰爭恐衍生人道危機

美軍MQ-9無人機在跑道上準備升空。(東方IC)
美軍MQ-9無人機在跑道上準備升空。(東方IC)
美國軍方近日宣布研發第一架能夠透過人工智慧主動搜尋並鎖定人車的無人機。這是很大的突破,因為目前的軍事無人機仍停留在由人類操控階段,未來這項新技術將可在幾乎不需人類介入的情況下,自主決定攻擊目標。
一旦研發完成,這種自主無人機將成為人工智慧跨入戰場的終極象徵,並觸發一連串衝擊整個社會的法律與道德問題。所謂的戰爭,將有可能從「戰鬥」轉向「殲滅」,失去了所有殘存的人性樣貌。另一方面,戰爭的範圍也因此延伸,包括人工智慧技術的研發廠商、工程師和科學家,都可能被捲入成為正當的軍事目標。
現役的攻擊性軍事無人機,如MQ-9「猛禽」,是由人類透過衛星小心操控運行的。每當操作員下令投彈或發射飛彈,另一名感測器操作員會在同時以雷射主動引導彈藥飛向目標。
因此,消滅敵人目標的最終道德、法律,和作業責任,也是由遠端操作員來承擔。一名猛禽無人機的操作員就曾說:「我的操作原則是:如果發起攻擊有可能會傷害無辜平民,那我寧可放過那些叛軍,不管他們是不是重要的目標。」
就算只是操作無人機,人類的情感、判斷,和道德意識仍舊主導著戰爭。遠端殺人所造成的心理壓力,從許多操作員都罹患心理創傷或創傷後壓力症候群(PTSD)便可見端倪。
表面上,這似乎正好印證隆納德‧亞金(Ronald Arkin)的論點:如果投彈的動作是由無人機自主進行,就可以避免人類操作員的心理創傷,所以應大量採用自主無人機。但此論點的漏洞在於:即使你不是按下發射鈕的人,也會產生創傷。研究顯示,那些因工作需要,必須仔細分析無人機攻擊影片的情報人員和軍方人員,也可能因為反覆觀看而罹患心理創傷。
我曾為了寫書做研究,採訪上百位猛禽無人機的操作員,而這些受訪者幾乎毫無例外地認為,最後按下發射鈕的人必須是有血有肉的人類。一旦把人排除在外,殺人的決定也將變得泯滅人性。

嚴重後果

全自主無人機的開發,將徹底改寫軍事戰場上複雜的交戰過程與決策。在此同時,法律和道德上的責任,並不因為移除人類操作員而就此消失。相反地,這些責任只會轉移到其他人,例如人工智慧科學家的身上。
事實上,這些層面的法律問題,已經開始具體顯現。依照現行的國際人道協定,生產軍用和民用製品的「雙重用途」設施,在某些情形下可成為攻擊目標。舉例來說,潘切沃(Pancevo)的煉油廠在1999年科索沃戰爭中便遭到攻擊,因為其所生產的油料不只供應給民用車,也供給南斯拉夫的坦克之用。
以自主無人機的武器系統來說,當中的某些程式碼勢必會被視為具有「雙重用途」。包括Google的辦公室、雇員和系統,都有可能因此成為敵軍攻擊目標。就以Google的梅文計畫(Project Maven)影像辨識人工智慧系統來說,如果這套程式被載入美軍無人機中,Google儼然就成了無人機攻擊行動的幫兇,而其他無人機自主技術的民間協力業者,也面臨類似處境。
道德上的爭議,還不僅止於此。自主學習演算法(能夠從各類資料中自行篩選學習的程式)的原理,就是這類程式可以經由學習提升效能。如果自主攻擊無人機能夠經由自行學習不斷提升準確度,就意味著某人必須決定到了哪個階段──學習到何種程度──可以實際送上戰場。以軍事武器的機器學習來說,這代表著某些政治或軍事領袖,或是公司領導人,必須要決定多少的平民死傷是可以接受的。
近期幾款自主人工智慧系統上路的經驗,便足堪借鏡。Uber和特斯拉的自駕車致死意外,證明了在電腦程式除錯過程中,必定會有意外傷人或致死事件發生。
如果機器可以自行決定攻擊對象,尤其是在大規模部署下,未來我們必將目睹滅絕慘劇。任何採行此種致命武力的政府或軍事單位,無論自詡是在捍衛何種價值,都將失去所有道德立場。相較之下,在「殺與不殺」之間游移的無人機操作員,至少在踐踏人性的戰場上,仍然勉力守著最後一道人性防線。
本文已獲作者授權。原文〈Drones will soon decide who to kill〉刊載於 The Conversation ,作者Peter Lee為樸茨茅斯大學安全與風險議題主任。
更新時間|2023.09.12 20:26 臺北時間

支持鏡週刊

小心意大意義
小額贊助鏡週刊!

每月 $79 元全站看到飽
暢享無廣告閱讀體驗

延伸閱讀

更多內容,歡迎 鏡週刊紙本雜誌鏡週刊數位訂閱了解內容授權資訊

月費、年費會員免費線上閱讀動態雜誌

線上閱讀

更多內容,歡迎 鏡週刊紙本雜誌鏡週刊數位訂閱了解內容授權資訊

月費、年費會員免費線上閱讀動態雜誌

線上閱讀