國際
2018.06.02 02:41

協助研發AI殺人武器? 科技倫理與谷歌員工的認同危機

文|謝樹寬
2017年10月5日,谷歌在日本東京展出最新型家庭人工智慧服務Google Home。AI造福人類或或還人類,是否就在科技巨頭們的一念之間?(東方IC)
2017年10月5日,谷歌在日本東京展出最新型家庭人工智慧服務Google Home。AI造福人類或或還人類,是否就在科技巨頭們的一念之間?(東方IC)

科技的發展是為人所用,但是利用科技更有效的殺人是否合乎科學倫理。

科技龍頭谷歌的人工智慧(artificial intelligence,AI)部門,去年取得一項美國國防部的重要合約。不過,據《紐約時報》報導,這個合約卻引發谷歌內部員工的激烈辯論,甚至有多名工程師辭職抗議。

李飛飛是美國乃至全世界AI領域最閃亮的明星。目前她身兼史丹佛大學AI實驗室主任、和谷歌雲(Google Cloud)的首席AI科學家。

不過,去年九月,當谷歌的主管們討論如何對外說明公司與美國國防部第一份重大的AI合約時,她強力建議公司,「AI」這個字眼威力太強大,最好提都不要提。

欲語還休 「國防和AI別放一起!」

據紐約時報的報導,她寫給公司同仁的電郵中寫道:「要不計一切代價,避免提到與AI相關的字眼。. . . 武器化的AI可能是AI領域之中最敏感的一個主題. . .它是媒體眼中的肥羊,媒體會找到各種方法用它來傷害谷歌。」

李飛飛對谷歌與軍方合作戒慎小心顯然有先見之明。按照紐約時報的形容,谷歌取得五角大廈的合約之後,已經引發了內部一場「認同危機」(identity crisis)。

這項名為「行家計畫」(Maven program)的專案,內容是借助谷歌人工智慧的技術,來解讀影片的圖像,並可藉以來提升無人機空襲時鎖定目標的能力。

美國國防部的「行家計畫」借助AI尋找與辨識無人機攻擊目標,以部署於對抗ISIS的作戰。(網路截圖,YouTube)
美國國防部的「行家計畫」借助AI尋找與辨識無人機攻擊目標,以部署於對抗ISIS的作戰。(網路截圖,YouTube)

這個合約引發谷歌的熱烈討論和內部裂痕,部分員工更因此求去。同時也凸顯了公司倫理考量和業務發展之間的衝突。

據網路媒體Gizmodo的報導,為了這起爭議,谷歌內部四千多名員工發起聯署信聯署,反對AI做為軍事與偵查用途,要求「清楚的政策宣示,承諾谷歌和它的合約商都不會發展戰爭科技。」

AI協助殺人效率 有違「不為惡」理念?

此外,大約有十幾名谷歌員工並因此辭職抗議。其中一位工程師在離職前還發動請願,要把一間會議室改名為「克拉拉・伊梅瓦爾」(Clara Immerwahr)——在1915年不滿德國軍方發展毒氣而自殺抗議的德國化學家。在谷歌的紐約辦公室,則出現了「做正確的事」(Do the Right Thing)的貼紙。

德國化學家伊梅瓦爾(1870-1915)自殺抗議德國發展毒氣。她是德國第一位取得博士學位的女性,她的丈夫化學家福蘭茲哈伯參與了德國氯氣毒氣的研發。(wiki)
德國化學家伊梅瓦爾(1870-1915)自殺抗議德國發展毒氣。她是德國第一位取得博士學位的女性,她的丈夫化學家福蘭茲哈伯參與了德國氯氣毒氣的研發。(wiki)

與軍方合作帶來的內部反彈以及公關負面效應,應該早就在谷歌高層的預期之內。不過,另有一部分贊成這項合作的人則認為,在對手如微軟和亞馬遜都積極爭取美國國防部肥厚合約的時刻,這類的合約攸關公司業務的成長,同時也沒有感到羞恥的必要。

美國國防部長馬蒂斯在去年八月參觀了谷歌總部(在這之前也拜訪了亞馬遜),透過媒體強力放送,宣傳軍方將與科技公司更密切的合作。

在其他國家如中國,科技業與政府合作或許並不是選項,而是為求生存的義務。而在美國,公司該不該「配合」國家政策的需要或許有比較大的討論空間。不過,這畢竟有違谷歌向來所標榜的自我形象。

谷歌有所謂「不為惡」(don't be evil)的公司訓,公司創辦人拉瑞佩吉解釋是「為我們的用戶、為我們的消費者、為所有的人做我們所知道的最好的事」。而「行家計畫」卻可能成為協助無人機成為更好的殺人武器。

AI國防 引發科學倫理爭議

自中國移民美國的李飛飛,是史丹佛AI實驗室主任和谷歌雲的AI首席科學家。(截自網路,Ted)
自中國移民美國的李飛飛,是史丹佛AI實驗室主任和谷歌雲的AI首席科學家。(截自網路,Ted)

公司在最初高層的討論時,據稱許多人的建議都是「聽聽李飛飛的意見」。李飛飛是中國出生,16歲才和父母親到美國的第一代移民,從原本不識英文,到如今坐上了人工智慧領域的第一把交椅。

李飛飛當時回應說,最後的決定權應該交給她的老闆,谷歌雲平台(Google Cloud Platform)的主管葛林。不過她也建議公關宣傳「必須非常小心」,角度最好集中在谷歌雲平台,淡化AI的焦點。她還提到自己曾公開在媒體上談論「人性的AI」的主題。她擔心媒體的報導角度會鎖定谷歌正秘密為國防工業打造AI武器。李飛飛稍後在公開的聲明中說:「我相信以人為中心的AI可用正面方式造福人類。任何把AI武器化的計畫都嚴重違反我的原則。」

事實上,谷歌的確沒有大肆宣傳「行家計畫」。谷歌成為美國國防部合約商的新聞,一直要到公司內部反對和抗議出走的聲浪出現後,才引起了媒體和一般大眾的注意。

應用AI技術到國防似乎是不可避免的的趨勢。有人努力自圓其說,主張無人機影像更精準的分析,可以更有效找尋和辨識出恐怖份子,有助減少無辜平民的傷亡。況且,就算谷歌退出合作,美國國防部頂多是換人合作,決計不可能放棄AI領域的研發。特別是如今中國和其他先進國家正競相投入AI國防產業。

李飛飛建議谷歌「不計一切代價,避免談AI這個字眼」,等於暫時閃避了AI和殺人之間的爭議。不過現實上是,國防工業越來越仰賴AI的技術,這在未來必定會對谷歌「利他、不為惡」的理念,不斷帶來新的挑戰。

文章未完 往下繼續閱讀

參考資料:New York Times,Gizmodo,Verge

更新時間|2018.06.02 04:18

更多內容,歡迎訂閱鏡週刊了解內容授權資訊

相關關鍵字:

喜歡這篇文章嗎?
歡迎灌溉支持喔!