生活
2019.06.14 08:30 臺北時間

【黃宗潔書評】小心你的願望──《打開演算法黑箱:反噬的AI、走鐘的運算,當演算法出了錯,人類還能控制它嗎?》

【黃宗潔書評】小心你的願望──《打開演算法黑箱:反噬的AI、走鐘的運算,當演算法出了錯,人類還能控制它嗎?》
以全有或全無的態度面對大數據,既不實際也辦不到,這精靈已被放出來了,無法回收。但它同時也完成了許多單憑人力無法實現的事,弗萊像個公平的評審,她打開黑箱,將演算法在當代社會所扮演的角色與權力一一進行盤點,並且釐清這些眩目戲法背後運作的關鍵。

黃宗潔書評〈小心你的願望──《打開演算法黑箱:反噬的AI、走鐘的運算,當演算法出了錯,人類還能控制它嗎?》〉全文朗讀

生活在這個被科學家韋思岸(Andreas Weigend)稱為「後隱私」的年代,大數據往往令人感到又愛又恨,卻未必人人都有充分的了解。近幾年,由於許多學者憂心忡忡提醒我們注意數位時代的各種網路陷阱,過於樂天地抱持著毫無警覺的心態,以為「誰會需要我們這種小人物的數據資料」的人,或許已經較為減少,但如同本書作者漢娜‧弗萊(Hannah Fry)所指出的:「我們與機器之間的關係有個弔詭。雖然我們對自己不了解的事物有過度信任的傾向,但我們一旦知道演算法會犯錯,也有一種蠻惱人的習性:過度反應、徹底棄絕,轉而回頭依靠我們自己有瑕疵的判斷。」(頁46)
但是,在全盤將自己的隱私當成商品送出去,以及把網路當成萬惡的洪水猛獸之間,是否有可能找出一個相對安全與務實的態度,去面對這不可逆的數位時代?演算法就像是當代的神燈精靈,提醒我們「小心你的願望」,想要善用祂的力量,前提或許是我們得先知道自己到底許下了什麼樣的願望,又付出了什麼可觀的代價去交換。
演算法可以用來進行對個人的全方位評估
大部分的人提到演算法,最先聯想到的,可能就是切身相關的數位足跡商品化問題。任何一個網路使用者,對於網站上無所不在的廣告必然不陌生,稍微敏感一點的人,或許還會注意到這些廣告的反應速度越來越驚人──你可能這邊剛和朋友在聊天室聊完,那頭就看到臉書「貼心」地提供某個關鍵字商品,如果友人傳了網站連結,那麼這些網站也會如影隨形地被視為你可能感興趣的物件,在網頁上常相左右。
《打開演算法黑箱:反噬的AI、走鐘的運算,當演算法出了錯,人類還能控制它嗎?》,漢娜‧弗萊著,林志懋譯,臉譜出版
如果只是把這些廣告視為生活中小小的干擾,或許就太小看了大數據「比你更了解自己」的驚人分析力,所謂個資,並不只是姓名、電話、身分證字號這類基本資料而已,我們每一次在網路上的搜尋、點讚、餐廳打卡、分享文章,也都是累積自己數位足跡的過程,就算禁絕了社群網站的使用,你的手機裡也同樣記載著你移動的位置,以及你用電話購物、掛號看病等生活紀錄。若干知名的案例讓我們看到,將這些個人化的訊息透過演算法加以分析之後,可以對行為模式得出頗為準確的預測。廠商透過這樣的方式,讓廣告只針對目標客群發放,表面上看來確實是更有效率(甚至也更環保)的做法,但當美國超商Target比某位少女的父親早一步知道她可能懷孕了,而父親卻是在收到超商寄來的商品折價券,才發現這個事實時,演算法是否踩界,遂成為一個浮上水面的問題。(頁55-57)
如果隱私被侵犯的感覺還不夠令人感到不快,那麼得知演算法可以用來進行對個人的全方位評估,並因此改變社會對你的信任程度,甚至對待你的方式呢?而且判斷的標準甚至僅來自於觀察超市購物籃裡的購買品項就可以做到──某保險業者表示,購物籃裡有一個品項比其他商品都更能凸顯購物者是個居家型的可靠父母,他們提出居家保險理賠的機率更低,是業者更喜歡的投保對象,而那個可以充分提升個人形象的東西,叫做新鮮茴香。(頁58)
我們正以自己未必意識到的方式高度依賴演算法
乍看之下,單憑購物清單裡的一個品項,就可以決定我們是否能被納入「居家負責好爸媽」的行列,似乎顯得草率與兒戲,但本書的目的之一,就在於讓我們清楚看到演算法是如何全方位滲入生活的各個面向,它們能做到哪些超乎想像的事,以及我們的生活如何以自己未必意識到的方式高度依賴演算法,以致它們一旦出了差錯,後果往往也非常嚴重。凱西‧歐尼爾(Cathy O’Neil)在《大數據的傲慢與偏見》一書中,就以「數學毀滅性武器」(Weapons of Math Destruction)來稱呼這些在大數據經濟的邏輯之下,可能造成重大影響的有害數學模型。她以2009年美國華盛頓特區為了優化教育品質而推行的教師評價系統為例,某位認真負責頗受好評的教師,卻因為被系統評了一個很低的分數而失去教職。儘管後來她懷疑學生的成績可能在前一學年度被人為竄改,導致表現看似大幅退步,教育當局卻不願接受此一解釋。歐尼爾據此提醒讀者:
某個演算法處理了一些數據,估算出某個人不適合聘用、將會借錢不還、將參與恐怖活動或教學表現不稱職的機率,然後根據該機率算出一個分數,而該分數可能令當事人的生活天翻地覆。當事人試著反擊時,「很有意思的」反證無法證明自身清白,因為當局僅接受確鑿的證據。我們將一再看到,在證據標準這一點上,當局對數學毀滅性武器受害者的要求,遠高於對演算法的要求。(《大數據的傲慢與偏見》,頁26)
歐尼爾的提醒確實相當重要,她的觀點對於那些盲目信任大數據,或因無所知而任其擺佈的民眾而言,可說敲響了一記警鐘。但同樣是「圈內數學家」的角度,《打開演算法黑箱》抱持的態度卻沒有這麼悲觀──儘管書中所揭露的,演算法一旦失誤可能產生的風險,以及其中牽涉的道德爭議,並不比前述《大數據的傲慢與偏見》,或是馬克‧古德曼談論高科技犯罪危機的《未來的犯罪》等書要少。
《大數據的傲慢與偏見:一個「圈內數學家」對演算法霸權的警告與揭發》,凱西.歐尼爾(Cathy O’Neil)著,許瑞宋譯,大寫出版
事實上,書中提到的建築師伊布拉馨(Rahinah Ibrahim)的遭遇,與華盛頓特區被解聘的那位老師雖然狀況不同,卻似乎同樣證明了將大數據稱為數學毀滅性武器並非誇大其辭。由於聯邦調查局幹員在對照表單時的疏失,導致伊布拉馨被置入恐怖組織名單中而遭到禁飛,儘管錯誤很快被發現,但她「順利」出境後,卻依然在回程時被擋下,這次,她的護照被註銷,最後花了十年才打贏官司──但在這漫長的過程中,她被剝奪了回家的權利,一切只是因為當人為的錯誤進入了自動化系統之後,就被視為不容質疑的權威所致。(頁262-263)。
如果某人的道德選擇成為程式設計內建的道德標準
但是,與其說弗萊想藉此說明大數據的不可靠,不如說她想挑戰的,是整個社會看待大數據的心態。以全有或全無的態度面對大數據,既不實際也辦不到,這精靈已被放出來了,無法回收。但它同時也完成了許多單憑人力無法實現的事,弗萊像個公平的評審,她打開黑箱,將演算法在當代社會所扮演的角色與權力一一進行盤點,並且釐清這些眩目戲法背後運作的關鍵。她說:「演算法很像魔術幻覺。一開始看起來簡直是真實版的巫術,然而一旦你知道戲法是怎麼變的,神秘感便煙消雲散了。往往有某種簡單到可笑(或是明目張膽到令人憂心)的東西隱藏在幕後。」(頁41) 明目張膽到令人憂心的例子我們已知不少,但本書特別精彩之處,在於弗萊同時也讓我們看見演算法為何迷人,以致我們一步步墮入失去警覺心的陷阱。
對大數據的議題稍有涉獵的讀者,就會知道大數據絕不僅是用在網路資料分析這個領域而已,司法、醫療、交通、政治……現實生活中所有重要的層面都有它們的存在。她在前作《數學的戀愛應用題》,就曾精彩地分析如何將數學模式應用在看似毫無關聯的愛情領域,例如計算出在社交場合主動出擊絕對比被動等待要好,或是如何將性伴侶人數的調查,應用在減緩流行病的傳播上……透過這些生活化的例子,她強調「數學本身是將現實抽象化,而不是複製現實的學科,過程中能帶給我們很真實的價值。……數學是用來研究人類行為的模式,讓我們得以用深刻的新觀點,觀察從恐怖主義到城市生活等事物。」(《數學的戀愛應用題》,頁187)這些模式當然有其必然的侷限,但弗萊透過和數學公式一般簡潔優雅的文筆,指出若我們善用演算法,反而可以協助更容易因為主觀、疲倦或各種身心狀況而發生誤判的人類,減少決策時的錯誤。
《數學的戀愛應用題》(TED Books系列)》,漢娜‧弗萊著,洪慧芳譯,天下雜誌出版
以無人自駕車為例,許多人對其保持疑慮的理由,早已從技術上的可行性,轉為人類駕駛會面臨大規模失業,以及機器人如何進行道德判斷的質疑──如同除草機不會自動避開小動物,如何訓練無人自駕車避免路殺,又不會造成危險駕駛的風險?如果某人的道德選擇成為程式設計內建的道德標準,我們願意接受嗎?書中提到,賓士汽車發言人馮‧胡戈(Christoph von Hugo)曾在一次受訪時表示,如果知名的道德思想實驗「電車難題」發生,賓士未來的自駕系統毫無疑問會選擇「救車裡的那個」。此言一出,賓士幾乎被各種譴責的聲音淹沒,大眾主張,自駕車當然應該符合我們在面對電車難題時多數人的共識:救越多人命越好。但弗萊冷靜地要求讀者思考這個問題:你願意花錢買一台確定在面臨狀況時會優先讓你送命的車子嗎?
我們要把人與機器/演算法的界線畫在哪裡
據此,她進一步提問:「我們現在對無人駕駛車的思考是不是整個搞錯方向?」我們應該想像的未來,不是一堆會說話的霹靂車在路上亂跑,而是沒那麼戲劇性的,「讓機器的技能與人類的技能互補,並且提升兩者的能力……可以耐心地監視路況,並對駕駛人忽略的危險保持警戒。不那麼像司機,而是像守護神。」(頁190-191)不難發現這是弗萊最核心的主張:提出對演算法合乎實際的期待,讓演算法成為好用的助手,而不是將一切轉嫁到演算法身上,盲目地放棄人類原本的責任。更重要的是,當我們將某些權力交給機器的同時,我們就是在做道德選擇──2014年,無辜的男子塔利(Steve Talley)因臉部辨識軟體將其指認為搶匪遭到逮捕(頁215-217),但2017年在倫敦橋進行恐怖攻擊的男子之一札巴克(Youssef Zaghba),早已列名義大利的恐怖主義嫌犯觀察名單,若使用臉部辨識系統,入境前應該可以將其指認出來。(頁230)在個人隱私和社會安全之間,我們要如何取捨?多大的誤判比例是我們可接受的範圍?儘管對無辜的當事人來說,可能要付出無比慘痛的代價?如同所有的道德兩難,無論選擇哪一邊,永遠都可以找到無數的反例來反對我們的決定。
《打開演算法黑箱:反噬的AI、走鐘的運算,當演算法出了錯,人類還能控制它嗎?》作者漢娜‧弗萊(東方IC)
但是,如果對演算法的選擇,終究成了道德與價值觀的選擇,我們要把人與機器/演算法的界線畫在哪裡?有趣的是,弗萊選擇應該捍衛的那條底線,卻是一個相較於是否要用演算法判斷腫瘤細胞、評估再犯風險、計算信用評分都更「無傷大雅」的領域,那就是藝術。不過,她反對的不是用演算法來評估熱門排行榜、預測某部電影會不會大賣,而是運用演算法「製造」藝術的可能性──儘管曾經有個實驗結果顯示,用演算法模仿巴哈風格的作品,反而被聽眾誤認為是巴哈本尊創作的。(頁251)但在書末,弗萊卻語重心長地提醒讀者,「可被量化的物事有其極限,資料和統計學所能告訴我種種驚世駭俗的事物中,生而為人有何感受,並不包括在內。」(頁259)一如安德魯‧基恩(Andrew Keen)在他那本反對大數據壟斷的著作《修復未來》中強調的,我們以為這是一個物聯網的時代,但這一切其實是「人聯網」(《修復未來》,頁17)。我們對科技的思考,終究要回歸到對人的思考上。人從不完美,我們又怎能天真地認為人所創造出來的演算法會是完美的?意識到人與其創造物的不完美,才能更加審慎地評估與行動。弗萊讓我們看到,神秘的黑箱只是幻象,裡面裝著的,是我們向科技許下的願望,在享受眩目聲光秀的同時,我們也不能忘記,魔術師從來變不出無中生有的鴿子,所有的演出背後都可能有著黯淡的真相,一如所有的願望,都會有代價。
本文作者─黃宗潔
國立台灣師範大學教育心理與輔導系學士、國文學系碩、博士。長期關心動物議題,喜歡讀字甚過寫字的雜食性閱讀動物。著有《生命倫理的建構》《當代台灣文學的家族書寫──以認同為中心的探討》《牠鄉何處?城市‧動物與文學》《倫理的臉──當代藝術與華文小說中的動物符號》。現任國立東華大學華文文學系副教授。
按讚加入《鏡文化》臉書粉絲專頁,關注最新貼文動態!
更新時間|2023.09.12 20:30 臺北時間

支持鏡週刊

小心意大意義
小額贊助鏡週刊!

每月 $79 元全站看到飽
暢享無廣告閱讀體驗

延伸閱讀

更多內容,歡迎 鏡週刊紙本雜誌鏡週刊數位訂閱了解內容授權資訊

月費、年費會員免費線上閱讀動態雜誌

線上閱讀

更多內容,歡迎 鏡週刊紙本雜誌鏡週刊數位訂閱了解內容授權資訊

月費、年費會員免費線上閱讀動態雜誌

線上閱讀