2018.03.07 06:02 臺北時間

2018年 人工智能領域仍有5大難題要解決

人工智能仍然有很多不能做或者不能理解人類的事情。
人工智能仍然有很多不能做或者不能理解人類的事情。
隨著社會上開始遍布類似「終結者」之類機器人的駭人報導,人工智能領域(AI)在2017年取得了卓越的進步。例如,一個叫做Libratus的機器人選手就會讓你在撲克遊戲裡進退兩難。而在現實世界中,機器學習正在被用於改善農業產出,或者擴大醫療的覆蓋面等諸多領域。但是,你最近有和你的智能助理Siri或者Alexa聊過天嗎?如果有的話,你會知道儘管有很多企業的宣傳,人工智能仍然有很多不能做或者不能理解人類的事情。所以,在接下來的下一年裡人工智能的專家們還需要解決以下5個棘手的問題。

理解我們的語言

實際上,機器從未能如此輕鬆地處理我們的語言和文字。Facebook已經做出了可以為視障人士讀出圖像內容的描述的AI,而谷歌則能夠幫你簡潔快速地回覆電子郵件。儘管如此,軟件仍然不能真正理解我們的語言以及背後的真實語意。「我們能夠理解一些概念,然後把它們用各種方式結合起來運用到不同的實際情況中。「來自波蘭州立大學的教授Melanie Mitchell說道,「但是這些人工智能和機器學習系統並不能做到百分之百和我們人類一樣。」Mitchell把當今軟體上的這些困境描述為數學家Gian Carlo-Rota所說的「the barrier of meaning」(語意障礙)。目前一些人工智能的研究團隊正在努力嘗試攻克這個難關。
其中任務之一是讓機器有一定的常識,來理解現實世界。比如,Facebook 的研究人員正在嘗試讓機器人軟體看一些視頻來理解現實世界。而其他的研究人員則是讓軟體用他們對世界的認知來模仿人類的行為。谷歌一直在嘗試提升機器學習人類語言學隱喻修辭的能力,Mitchell已經用相關系統模擬過機器用一些類比修辭和預存的對人類世界的理解,來解釋照片中的內容。 

阻礙機器人革命的現實差距

機器人在硬體方面已經相對成熟了:你可以用500美元買一個手掌大小、配備高清攝像頭的無人機。同時搬運貨物和能用雙腿行走的機器人性能也大有改善。然而問題在於為什麼現實生活中這些機器人沒有參與進來,幫助我們更好地工作?那是因為當今的機器人缺乏協調他們發達四肢的大腦。實際上,讓機器人完成任何具體的任務都需要給他們特定的編程。通過這樣,他們可以學習一些操作,比如在多次失敗的嘗試之後學會抓取特定物體。但是這個學習過程相對較慢。目前一個可行的方法是讓機器人在虛擬世界中接受訓練,然後把這些數據轉移到真實的機器人體內。儘管這個方法困擾於現實中結果的差距---模擬訓練過程學習到的技能在現實場景不能總是被有效地運用進來。
幸運的是現實的差距正在逐步縮小,2017年10月,谷歌的研究人員報導新的進展,他們在試驗機器人在模擬和真實場景下拾取不同物體比如膠帶座、玩具、梳子等物體。人工智能在自動駕駛汽車領域的進展同樣非常重要。那些在自動駕駛汽車領域角逐的公司,讓虛擬的汽車在模擬的道路上行駛,以此減少在實際路況下測試所花費的時間和金錢開銷。自動駕駛汽車初創公司Aurora的首席執行官Chris Urmson表示,如何讓模擬的測試更貼近去現實駕駛情況,是他們公司的首要任務之一。Urmson之前領導過Google母公司Alphabet 的自動駕駛汽車項目,他預計道「明年或者之後,我們可以更好的通過這種模擬來加速機器學習的進展。」

防止AI駭客的攻擊

那些管理我們電網、攝影鏡頭、手機的軟體經常會受到各種安全漏洞的困擾。應用於自動駕駛汽車和自主機器人的軟體同樣會遭受這樣的問題。更嚴重的是,有證據表明有關機器學習的軟體因為複雜性的原因反而引入了更多的攻擊途徑。今年,有關研究人員指出,他們可以隱藏某個內置於機器學習系統裡的觸發器,然後讓它在接受特定信號的時候變成邪惡模式。來自紐約大學的研究小組設計了一個在通常情況下能夠正常運作的街道識別系統,但是該系統的問題在於它一旦識別出黃色的Post it標誌就會異常運作。如果把黃色便利貼粘到Brooklyn街道的一個停車標誌上,系統會自動識別並報告這是一個限速標誌。這些看似很小缺陷,都可能成為自動駕駛汽車的潛在問題。
在本月一個世界知名的機器學習會議上,研究人員們強調了這種潛在威脅的嚴重性。在會議上他們討論了機器欺騙的一些可能方法,比如如何生成與人類手寫相仿但是對於機器來說截然不同的數字。比如人類會把某個圖形看作是數字2,然而機器視覺系統卻把它當做是3。研究人員也討論了應對這種攻擊可能有效的防禦方法,同時也擔心人工智能可能會被當做愚弄人類的工具。該研討會的組織者Tim Hwang預測到,隨著機器學習以後被應用地更加廣泛、變得更加強大,使用這種技術來操控人類的情況難以避免。他說:「以後你將不再需要一屋子的博士生去進行機器學習的研究」,Hwang先生指出,在2016年美國總統選舉期間,俄羅斯的虛假宣傳表明出AI技術已經可以被用於信息戰。他說:「為什麼你沒有在這些活動之中發現機器學習技術應用的蹤影呢?」Hwang預測道把戲之一就是可能使用了機器學習來產生不實的音頻和視頻。

人工智能在棋類競技中脫穎而出

Alphabet的圍棋選手軟件在2017年發展迅猛。在5月份,更強大的新一代版本在中國打敗了圍棋冠軍。這個AI的研究部門DeepMind隨後又創立了一個叫AlphaGo Zerod的版本,它可以在不需要和人類比賽的情況下訓練自己。去年12月,該部門又一次升級了AlphaZero,讓它先後學會了下象棋和日本將棋。Alpha Go的結果令人意外,但同時也限制了人工智能的局限性。因為儘管國際象棋,將棋和圍棋都很複雜,但是這些棋類選手都有相對簡單的規則和遊戲玩法。這表明了它們在未來確實能夠很好的勝任的某些人類職務。但是在生活中大多數情況下,問題的結構遠遠沒有那麼規整。
這也是為什麼2017年DeepMind和Facebook兩公司都開始發展能夠玩多人制「星際爭霸」遊戲的人工智能的原因,雖然到目前為止兩公司都沒有取得長足發展。因為到目前即使是最好的人工智能玩家,也難以和中等水平的人類玩家抗衡。DeepMind的研究人員Oriol Vinyals在今年早些時候告訴WIRED網站的記者,它們的人工智能玩家缺乏規劃和記憶的能力。而這些能力恰恰是規劃指揮遊戲隊伍,預測對手行為並且加以應對的關鍵。此外,這些技能還能讓人工智能更好的協同現實工作,比如運用到辦公室場景或者軍隊指揮中去。2018年人工智能在星際爭霸或者類似遊戲的巨大進步,可能預示著AI未來會有更強大廣泛的應用。

教會人工智能來明辨是非

即使在上述領域AI沒有新進展的情況下,如果把現有技術用於經濟和社會學領域也同樣會帶來翻天覆地的變化。然而正當企業和政府正在大力發展AI的時候,一些人難免會擔心人工智能和機器學習帶來的一些意外或者蓄意傷害。於本月召開的NIPS機器學習大會上,如何在安全和道德準則限定下發展科技成為了會議討論的重要內容之一。研究人員發現,機器學習系統已經可以開始從我們遠不完美的世界裡獲取數據,進而學會了一些例如對性別有刻板映像印象之類的不好的行為。所以現在有人在研究能夠監視人工智能係統內部的運作,並保證他們能夠在運用到金融或者醫療領域時能公平地發揮作用。
下一年我們應該就能看到科技公司賦予人工智能以人性的光輝。谷歌、Facebook、微軟和其他公司已經開始著手這個問題。同時他們都是一個致力於控制人工智能對社會影響的非盈利組織Partnership的成員。當然,很多驅動力也來自於外界的獨立組織。一個叫做人工智能倫理管理基金會的慈善項目正在支持麻省理工學院,哈佛大學等研究人工智能運用和社會福利的關係。紐約大學的一個叫AI Now的新組織也在進行類似研究。在近期的一個報告裡,該組織呼籲各國推廣使用黑匣子算法以此來保持司法刑事、社會福利領域的隱私性。
本文係由DeepTech深科技授權刊登。
更新時間|2023.09.12 20:26 臺北時間

支持鏡週刊

小心意大意義
小額贊助鏡週刊!

每月 $79 元全站看到飽
暢享無廣告閱讀體驗

延伸閱讀

更多內容,歡迎 鏡週刊紙本雜誌鏡週刊數位訂閱了解內容授權資訊

月費、年費會員免費線上閱讀動態雜誌

線上閱讀

更多內容,歡迎 鏡週刊紙本雜誌鏡週刊數位訂閱了解內容授權資訊

月費、年費會員免費線上閱讀動態雜誌

線上閱讀