國際
2018.02.18 22:27

YouTube演算法扭曲的世界(一):為什麼推薦我看這個?

文|謝樹寬
YouTube的網路名人羅根保羅(Logan Paul)在日本「自殺林海」對死者不敬觸犯眾怒,不過他的影帶下架前已有超過六百萬人次瀏覽。(YouTube截圖)
YouTube的網路名人羅根保羅(Logan Paul)在日本「自殺林海」對死者不敬觸犯眾怒,不過他的影帶下架前已有超過六百萬人次瀏覽。(YouTube截圖)

我們一般說「事實比小說還離奇」,不過,如今在社群媒體的「過濾泡泡」作用下,事實的說服力甚至不如杜撰的假新聞。

《衛報》最近的一篇調查報導,用前Youtube內部員工提供資料進行深入研究,發現Youtube演算法所做的推薦,往往會偏向具煽動性、有爭議的內容,帶領用戶進入真實被扭曲的世界。

從「自殺森林」演算法帶你看小孩互毆

YouTube的演算法推薦內容,真的是根據我們偏好決定嗎?(東方IC)
YouTube的演算法推薦內容,真的是根據我們偏好決定嗎?(東方IC)

今年一月,在YouTube網站上引發熱烈爭議的內容,是YouTube網路名人羅根保羅(Logan Paul)在日本著名的「自殺森林」拍攝的一段影片。他在樹林的自殺者遺體旁與朋友有說有笑,引發日本網友的憤怒,認為是對死者的不尊重。

這位擁有1600萬訂閱粉絲的YouTube網紅,二十四小時後隨即撤下了他的影片並且公開道歉。不過,在此之前,影片已經吸引600萬次瀏覽,並登上 YouTube的熱門排行榜。

不過,即使這段影片引來爭議,仍可輕易在網路上搜尋到。衛報的記者路易斯(Paul Lewis)說他隔天在YouTube上觀看這段複製的影片時(他使用了新的登錄帳號,以避免過去個人瀏覽歷史影響了YouTube的影片推薦),有一些有趣的發現。

他注意到的是螢幕右邊「即將播放」(Up Next)的推薦內容——這些內容的預設是自動播放的,目的就是要吸引用戶在平台停留更多的時間——前面有幾段嘲笑羅根保羅粉絲的影片,接下來的推薦開始變得有點詭異。

有個小孩偷東西的監視錄影器畫面、還有一段幾個小孩子奇怪的自製器具拔牙的影片。最後,是兩個小男孩在鏡頭面前打架,旁邊有個像是姊姊的聲音說:「我要把它貼到YouTube,快點轉過來,痛打他一頓。」兩個小孩子互相拳打腳踢了幾分鐘,直到其中一個孩子被打落了牙齒為止。

演算法:YouTube成長的發動機

我們在YouTube觀看的內容,被它的演算法左右。它從數以億計的影片中,找出和原本播放影片可能相關,而且在統計數字上最可能吸引你繼續觀看的20支「即將播放」的影片。

據內部員工的說法,YouTube 的演算法是公司成長最主要的發動機。YouTube的工程師形容他們自己的演算法是「現有規模最大、也最為精密的產業推薦系統」。

不過,它也是充滿爭議的系統。衛報記者質疑它的演算法似乎透過推薦鼓吹一些匪夷所思的陰謀論,和煽動對立的內容。過去不少人認定臉書和推特的假新聞,是川普在2016年當選的重要因素。不過,現在開始有人注意YouTube的演算法,也是假新聞的主要來源。

YouTube是2016年(大選)最被忽略的新聞。它的搜尋和推薦演算法是假訊息的引擎。
圖菲奇(Zeynep Tufekci),社會學家、科技評論家

演算法扭曲的世界 只為了留住你

三十六歲,擁有人工智慧博士學位的法國程式設計師夏斯洛(Guillaume Chaslot),在谷歌(YouTube的母公司)任職三年,曾經有幾個月的時間和YouTube 的一支團隊共同研發推薦系統。他的工作經驗讓他推論,YouTube 的演算法有著嚴重而且危險的扭曲。

他說:「YouTube的東西是會讓你看起來像真的,但是它是扭曲的,好讓你在線上停留更多時間。」也因此,他認為YouTube的演算法並不優化「真實的、平衡的、對民主制度有益的」內容。

夏斯洛說,他過去的團隊主要工作就是持續試驗如何讓用戶觀看影片時間停留更久,以擴大YouTube廣告的收入。 他認為為了提供用戶忍不住會繼續看下去的內容,無形中打造了「過濾泡泡」(filter bubble),也就是只會強化用戶既定觀點。

從2016年夏天開始,他自己寫程式研究YouTube推薦內容給用戶的演算法。他的程式會首先透過文字搜尋,選出一個「種子」影片,然後紀錄 YouTube接下來「即將播出」的推薦影片,重複這個過程幾千次之後,從多層YouTube推薦數據來建構出演算法的偏好模型。

過去十八個月來,夏斯洛用這個程式來研究YouTube內容在法國、英國、德國的選舉、全球暖化和槍擊事件的推薦內容,並將他的研究發現,放在他的個人網站Algotransparency.org。他主要結論是,YouTube系統性會放大有爭議性、聳動的、陰謀論的內容。

舉例來說,他的程式選擇搜尋「誰是蜜雪兒歐巴馬」找到一支種子影片之後,接下來一系列「即將播放」的建議裡,大部分的推薦影片說她「是一個男人」。關於方濟各教宗,超過八成的推薦影片描述的內容形容這位教宗是「邪惡的」(evil)、「惡魔的」(Satanic)。上傳到 YouTube有數以百萬計影片符合演算法對內容要求「地球是平的」。整體而言,夏斯洛說:「在YouTube上頭,杜撰的內容比真實的內容表現更好。

前美國第一夫人蜜雪兒(東方IC)
前美國第一夫人蜜雪兒(東方IC)
夏斯洛的研究發現,輸入「蜜雪兒出生時是男的」,在谷歌搜尋到內容支持這主張的比例是5%,在YouTube推薦內容的支持比例則高達65%。(medium)
夏斯洛的研究發現,輸入「蜜雪兒出生時是男的」,在谷歌搜尋到內容支持這主張的比例是5%,在YouTube推薦內容的支持比例則高達65%。(medium)

他認為在他的程式裡,最讓人感到震驚的例子是2016年美國大選,YouTube 的推薦演算法在選戰中並不中立,它所推播的影片極大部分是幫助川普、傷害希拉蕊。

「很奇怪,不管你從哪裡開始,不管是搜尋川普還是搜尋希拉蕊,推薦的演算法都會把你推向親川普的方向。」

川普贏得大選中,拿下的三個最關鍵的搖擺州,總共只比希拉蕊多出八萬張選票。全美國有一點五億的YouTube用戶,在夏斯洛的數據庫中關於選舉的影片在投票日之前總共被觀看了超過三十億次。被演算法所決定的內容,小小的一點偏見,對選舉結果都可能事關重大。

文章未完 往下繼續閱讀

參考資料:Guardian, Medium

更新時間|2018.02.08 07:27

更多內容,歡迎訂閱鏡週刊了解內容授權資訊

相關關鍵字:

喜歡這篇文章嗎?
歡迎灌溉支持喔!