文化
2019.09.02 06:00 臺北時間

【AI面相學(上)】機器能幫你找出犯罪者或同志的臉?

美國麻省理工臉部辨識研究員伯蘭威尼站在面具後。他在今年2月發表的研究報告指出亞馬遜等公司的臉部分析工具存在性別、種族偏見。(東方IC)
美國麻省理工臉部辨識研究員伯蘭威尼站在面具後。他在今年2月發表的研究報告指出亞馬遜等公司的臉部分析工具存在性別、種族偏見。(東方IC)
中國推動的社會信用體系透過大數據和臉部辨識技術加強對社會安全的監控,許多人認為這是對人權的進一步侵害。美國移民與海關執法局也曾在未告知的情況下,對數百萬計駕駛人的駕照照片進行分析。
不過,除了隱私侵犯和不當監控的問題之外,同樣值得警惕的是AI臉部辨識背後的運作邏輯。《紐約時報》的圖像編輯Sahil Chinoy最近在專欄裡指出,一些臉部辨識研究者和新創公司發展技術的方向,像是利用臉部特徵和頭型來預判性格與心智能力,往往預含了人類的偏見與歧視。
Chinoy的文章說,面相學(physiognomy)或顱相學(phrenology)過去曾經被用來合理化奴隸制度和納粹主義。如今人工智慧和電腦運算正讓這類偽科學借屍還魂。
他在文章裡比較了過往面相學的諸多謬誤,和今日臉部辨識技術的應用有許多雷同之處。
例如鼓吹優生學的蓋爾頓(Francis Galton)是十九世紀在英國臉部分析的先驅。他曾把一些罪犯的照片疊製在一起,想要透過所謂「圖像統計」(pictorial statistics)的方式來找出「犯罪者的臉」。
蓋爾頓製作的複合圖像,上排為「罪犯」的臉,下排則是「一般人」的臉。(網路截圖:biographyuk)
蓋爾頓對自己的研究結果並不滿意。他無法從這些複合的照片裡找到犯罪者臉的類型。但是追根究柢,或許這是因為面相學原本就不科學,罪惡並不是寫在某些人的基因裡或是臉上。他也曾嘗試用疊製的照片來判定每個種族臉孔的標準特徵,他的研究被納粹的優生學家岡瑟( Hans F.K. Günther )在書中引述,這本書成了納粹德國學校必讀的課本。
儘管蓋爾頓的方法沒有得到令人信服的成果,但是他的構想至今卻歷久不衰。如今仍有人在思索如何從一個人臉上看出犯罪的蹤影。
2016年中國上海交大的一份引發爭議的研究報告就宣稱,透過演算法可以從一堆照片中,根據「上唇曲度、眼角間的距離、和鼻尖到嘴巴的角度」 分辨出哪些人是犯罪者。這份論文引發爭議和蓋爾頓的爭議類似。首先,用臉部特徵推論性格並不可靠;其次,犯罪不該是先天因素所註定的,生活環境對一個人是否會犯罪有很大的影響;此外,司法體系本身存在的定見,往往決定了社會上哪些族群容易被貼上「犯罪者」的標籤。
上海交通大學吳曉林和張希研發的神經網絡系統透過臉部辨識技術辨認罪犯。根據他們的實驗結果,罪犯的面部特徵與平常人有三大不同:上唇曲度大23%;兩眼距離短5%;鼻尖到嘴角兩條線角度小20%(網路截圖:semanticscholar.org)
在2017年,美國史丹佛大學教授柯辛斯基(Michal Kosinski)宣稱發明了人工智慧的「同志偵測器」(gaydar),可以從兩張照片中,分辨出哪一張是同性戀、哪一張是異性戀,準確率達到81%。他在接受媒體訪問時甚至大膽斷言,未來的臉部辨識也可以用來判定智商。
史丹佛大學研究員柯辛斯基與王依倫發表研究以臉部辨識技術判斷同性戀或異性戀。(網路截圖:stanford.edu)
這份報告裡推斷同性戀和異性戀臉部結構的差異可能是男性荷爾蒙不足所致,但是卻忽略了另一個可能更簡單的原因。Google的AI研究員Blaise Aguera Arcas等人在評論這份報告的文章裡指出,這份研究的照片都是取自約會網站。同性戀和異性戀在這類網站上自拍的照片很可能在髮型、拍照角度會有差異,但是報告裡卻錯誤地認為同性戀是一種天生的「性別倒轉」,認定同性戀具有某種女性的特徵。因此,即使使用的是科學的術語和測量方法,研究者仍可能做出錯誤的實驗而推導出有瑕疵的結論。
參考資料:New York Times, ArXiv, BuzzFeed
更新時間|2023.09.12 20:30 臺北時間

支持鏡週刊

小心意大意義
小額贊助鏡週刊!

每月 $49 元全站看到飽
暢享無廣告閱讀體驗

延伸閱讀

更多內容,歡迎 鏡週刊紙本雜誌鏡週刊數位訂閱了解內容授權資訊

月費、年費會員免費線上閱讀動態雜誌

線上閱讀

更多內容,歡迎 鏡週刊紙本雜誌鏡週刊數位訂閱了解內容授權資訊

月費、年費會員免費線上閱讀動態雜誌

線上閱讀