最新消息

:::

換臉變聲AI科技詐騙手法宣導

隨著人工智慧發展,「深僞(Deepfake)」技術恐遭有心人士利用於假訊息、影片、語音等媒體素材合成製作,達到「換臉、變聲」等效果,甚至用於強化詐欺手法的擬真性,令民眾難辯真偽,因而受騙。

提醒您,針對來電匯款要求,應多一層警覺、主動暫停通話,並透過其他管道聯繫對方以確認真實性。

深偽是運用人工智慧概念的一種技術

詐騙集團會利用深偽技術產出影像、及語音,讓騙術更真實。

針對來電匯款要求,要保持警覺

 

返回頁首