【換臉換聲騙到你特輯】小心AI攻陷你的戒心 3個動作護你財產安全|鏡週刊

小心!AI詐騙就在你身邊!詐騙集團已將AI換臉換聲技術運用在製作假訊息的內容,利用「深偽」(Deepfake)生成逼真人像在網路上大量出現!一通騷擾電話僅需3秒,便可提取你的聲音特徵,通過AI技術合成一通詐騙電話,危害周遭親友的財產安全。在未來AI技術持續發展的狀況下,辨識的難度會變得越來越高,如何辨偽反詐是刻不容緩的課題。