科技
2018.06.09 03:29

多倫多大學創「隱私篩檢程式」 以演算法干擾人臉識別

文|DeepTech深科技    攝影|DeepTech深科技

過去幾個月資訊安全和資料隱私問題被人們熱議,熱議的內容中包括了英國資料分析公司Cambridge Analytica的資料收集策略和Facebook首席執行官馬克·紮克伯格在美國參議院的證詞。

人臉識別技術利用基於人臉特徵點的演算法進行識別,因此人臉特徵點是其中的一種主要的資料形式。每次你上傳一張照片到Facebook、Instagram,或者其他地方,你都會將照片中人的面部特徵點和照片中其他物體的特徵點提供給這些學習系統。

為了解決這個問題,多倫多大學的Parham Aarabi教授和研究生Avishek Bose領導的研究小組開發了一種演算法來動態干擾這項技術。

這種技術原理基於「對抗性訓練」,本質上是建立起兩種相互對抗的演算法。Aarabi和Bose創建了兩個神經網路,一個是識別人臉的網路,另一個是破壞其既定目標的神經網路。這兩個網路互相學習,相互提升效果。

Bose在接受Eureka Alert的採訪時說:「具有破壞性的人工智慧可以「攻擊」人臉識別時神經網路所尋找的東西。例如,如果檢測AI正在尋找眼角,它會調整眼角,這樣眼睛就不那麼明顯了。它會在照片中產生非常細微的干擾,但對探測器來說,這些干擾足以愚弄整個系統。」

在實踐中,這意味著用戶可以使用一個篩檢程式(比如Instagram或Snapchat上的普通視覺篩檢程式),改變圖像中人眼無法察覺的特定圖元,使人臉識別技術失效。

 
 

在一個包含600多張不同種族、光照和環境的人臉圖像的測試集上,該系統能夠將可檢測的臉從100%降低到0.5%。

「十年前,這些演算法必須是人類定義的,但現在神經網路可以在訓練集上自己學習,」 Aarabi 說。「最後,他們可以做一些非常令人驚奇的事情。這是一個令人著迷的領域,有巨大的潛力。」

更多內容,歡迎訂閱鏡週刊

相關關鍵字:

喜歡這篇文章嗎?
歡迎灌溉支持喔!

推薦文章