最新
2017.01.19 10:06

殺一人和殺千人無差別? 世經論壇報告:小心AI武器競賽釀人類災害

文|謝樹寬

人工智慧和機器人學習發展快速如飛,如今可幫人們倒茶掃地查資料、也能開車送貨下圍棋。那麼,我們能不能利用人工智慧幫我們殺死敵人?

在瑞士達沃斯世界經濟論壇的前夕,論壇的年度風險報告特別提醒大家要加強人工智慧在軍事上的規範,否則很快人工智慧的軍備競賽會升高而失控。

無敵AI擊墜王 未來空戰新戰士?

2016年6月,逾二十年戰機飛行經驗的美國空軍退役上校Gene Lee與人工智慧Alpha進行模擬空中對戰實驗,AI戰機全勝而歸。(畫面取自辛辛那提大學網頁)
2016年6月,逾二十年戰機飛行經驗的美國空軍退役上校Gene Lee與人工智慧Alpha進行模擬空中對戰實驗,AI戰機全勝而歸。(畫面取自辛辛那提大學網頁)

今年初,神秘的棋靈王Master連敗六十名各國圍棋高手讓圍棋界震動。事後真相揭曉Master原來是谷歌研發的圍棋人工智慧AlphaGo的進化版。隨著人工智慧(Artificial Intelligence, AI)的發展突飛猛進,如果人「機」對抗移到戰場,會有什麼情況?

事實上,美國空軍的Top Gun就曾經慘敗給AI。去年六月,美國空軍退役上校Gene Lee與辛辛那提大學研發的空戰模擬器Alpha進行模擬戰鬥,結果經過多次的交戰,「人類」駕駛的戰機連番被擊落,而「人工智慧」陣營的戰機則從頭到尾未被擊中,全數全身而退。

世經年度風險報告:小心AI軍備競賽

許多國防專家,正不斷研發人工智慧和機器人在軍事上的應用。不過,這種全新形式的武器競賽,卻潛藏著不斷擴張以致失控的危機。

在世經論壇的年度風險報告中,點出人工智慧在國防應用逐漸增多卻幾乎沒有規範限制,這些「殺人AI」可能思考能力很快就會超越人類。

這份報告裡面提到,對無人自駕車這類科技而言,減少人為的監督確實可增加效率因而有其必要。但是如果人們完全依賴人工智慧系統做出決策,卻未理解這個系統是如何運作,將對人類帶來極大的危害。

除此之外,由於人工智慧發展極為快速,目前已經有大量資金投入自主武器系統(Autonomous Weapon System,AWS)的產業。武器化的機器人這類的軍備競賽已經開始成形,這些人工智慧的應用未來很可能會出現不可預期或是人類無法控制的運作方式,引發嚴重的道德和安全問題。

武器級AI危及人類生存 科技名人連署籲禁令

2013年4月6日在英國倫敦的反人工智慧武器示威活動。(畫面取自stopkillerrobots.org)
2013年4月6日在英國倫敦的反人工智慧武器示威活動。(畫面取自stopkillerrobots.org)

過去,人工智慧成為人類存在的威脅,是科幻電影裡的常見情節,如今則是專家們嚴肅思考的實際問題。

一個不斷升級精進的「超級人工智能」(superintelligence),它追求的目標很有可能並不符合人類永續的生存。微軟創辦人比爾蓋茲去年就曾對「超級智能」的發展表達他的憂慮。他說,一開始,機器智能有限而且可幫人類做很多工作,透過良好管理可帶來正面效益。不過,在國際十年之後,它們的智能會強大到成為我們的心腹之患。

在比爾蓋茲之前,包括天文物理學家霍金、特斯拉創辦人穆斯克、語言學家喬姆斯基、蘋果共同創辦人沃茲尼克等數十名知名人士,就曾在國際人工智慧聯合會議(IJCAI)發表聯署公開信,呼籲世界各國政府禁止「攻擊性自動武器」的發展。

信裡頭主要的論點認為:

要試圖避免、抑或就此開展全球AI武器競賽,是人類今日的關鍵問題。如果任何一個軍事強權推動AI武器發展,全球武器競賽實質上無可避免,而這個科技發展曲線的終點不難預期:自主式武器會是我們明日的AK-47步槍。

接著,信裡頭把人工智能武器拿來跟生化武器相比擬:

就如同絕大部分化學家和生物學家對建造生化武器毫無興趣,大部分的人工智能研究者也沒有興趣建造AI武器--同時也不希望別人建造AI武器而損害他們的研究領域,因為這可能造成市民大眾對人工智慧的反感,影響到未來AI可能帶給社會的好處。

機器人參戰:戰爭型態的典範轉移

世經論壇年度風險報告的共同作者之一John Drzik談到,軍事產業擁抱人工智慧,將代表著人類戰爭方式的典範轉盈,對國際安全和穩定都會帶來深遠影響。

因為人工智慧甚至程式不需事先設定,而是隨時間演進,本身透過模式辨識來學習。 這類型機器學習造成風險的最明顯例子,是去年聊天機器人在推特透過它的「線上學習」發表越來越多種族主義、性別歧視、仇外傾向的貼文,而不得不緊急關閉帳號。

而發展人工智慧的武器,等於是人類把使用致命武力的決定權交給機器,但是人工智慧的一些基本原則往往不符合正常人類的思考模式。報告裡引用的,正是AI棋王AlphaGo的例子:

從人工智慧的非軍事應用中,我們可以得到一些教訓。想想AlphaGo這個谷歌DeepMind部門創造的AI圍棋手,它在去年三月打敗人類第二名的棋手。AlphaGo一些落子位置讓棋評也感覺困惑,因為它們並不符合人類棋手一般落子的模式。DeepMind的執行長Demis Hassabis對這種人機的差別解釋如下:「和人類不同,AlphaGo程式設定目標是獲勝機率的最大化而非優化棋盤上的優勢。」如果這種二元邏輯--唯一重要的事就是取勝而勝利的差距無關緊要--也被建入自主武器系統,它會造成比例原則的破壞,因為從演算法看來,需要殺死一個敵人的勝利和需要殺死一千個敵人的勝利,二者並沒有差別。

這份報告裡,最知道憂心的或許是它所下的結論:「我們可能已經跨過了禁止這些武器發展的臨界點,自主武器系統的軍備競賽非常有可能在短期內就會出現。 」

美國研發自主機器人LS3,別名AlphaDog,可自主追蹤士兵、攜帶重物,是機器人是實際被設計應用在戰場的例子。

參考資料:

AI arms race risks spiralling out of control, report warns (金融時報)

Musk, Hawking, Wozniak call for ban on autonomous weapons and military AI (Ars Technica)

'Aggressive' AI destroys veteran pilot in air combat simulator (Business Insider)

更多內容,歡迎訂閱鏡週刊

喜歡這篇文章嗎?
歡迎灌溉支持喔!

推薦文章

專題報導