時事
2023.10.22 14:34 臺北時間

熟人、名人突視訊、拍片揪投資 網紅「異色檔案」揭其中真相

AI深偽變臉技術可製造出逼真的虛假影像和聲音,仿真度極高,網紅「異色檔案」與警方合作教民眾辨識詐騙。(中正二分局提供)
AI深偽變臉技術可製造出逼真的虛假影像和聲音,仿真度極高,網紅「異色檔案」與警方合作教民眾辨識詐騙。(中正二分局提供)
隨著科技發展、社群媒體興盛,詐騙集團也「與時俱進」,透過通訊軟體假冒親友、同事、名人來行騙。尤其近來利用AI深偽(Deepfake)的變臉技術日趨成熟,為了防範詐騙集團裡用深偽技術行騙,台北市中正第二警分局特與網紅「異色檔案」攜手合作宣導公布破解絕招,只要一秒鐘就能辨別影中人的真偽。
眼見不一定為憑,AI深偽(Deepfake)變臉技術,可以製造出逼真的虛假影像和聲音,仿真度極高,AI變臉軟體還內建許多來自不同人種的臉部圖片,甚至連名人、明星照片也有,且使用者可自由選擇性別及種族合成。從正面觀看以假亂真,很容易讓民眾誤以為是檢警或名人。
網紅「異色檔案」於影片中教導大家AI深偽詐騙手法的破解之道。在AI深偽的影像中,人的側臉、脖子等部位,現今軟體不會偵測分析及套用到,因此側面影像會產生模糊狀,臉部跟脖子也會產生色差,如果忽然有親友、同事要求視訊,或是生活中未見過的人、自稱檢警等單位視訊,且在通話中要求民眾匯錢,民眾可以要求對方轉頭、變換姿勢、在臉前揮手,就可以藉由影像破綻分辨出對方是否使用深偽AI技術變臉,避免受騙。除此之外,民眾也可以親友互相約定「通關密語」,進一步避免被騙。
中正二分局表示,未來與熟人視訊,或與未見過的人或自稱檢警等單位視訊,可要求對方轉頭、變換姿勢、在臉前揮手,就可藉由影像破綻分辨對方是否使用深偽AI技術變臉,千萬不要因為鏡頭的那端是熟人就信以為真,接獲各項影音訊息務必提高警覺,也謹記「談到錢要警覺、談借錢要查證、談投資金錢要當心」,發現深偽犯罪或遇有疑慮時,請打反詐專線165諮詢查證保護您的荷包。
更新時間|2023.10.22 14:34 臺北時間

支持鏡週刊

小心意大意義
小額贊助鏡週刊!

每月 $79 元全站看到飽
暢享無廣告閱讀體驗

延伸閱讀

更多內容,歡迎 鏡週刊紙本雜誌鏡週刊數位訂閱了解內容授權資訊

月費、年費會員免費線上閱讀動態雜誌

線上閱讀

更多內容,歡迎 鏡週刊紙本雜誌鏡週刊數位訂閱了解內容授權資訊

月費、年費會員免費線上閱讀動態雜誌

線上閱讀