本篇回應
uienwt 認為 含有正確訊息
引用自 uienwt 查核回應
AI技術改變聲音、變臉後的影音,容易讓民眾掉入「眼前為真」的詐騙陷阱。碰到類似情形,應主動暫停通話,並透過其他管道聯繫對方以確認真實性,多一層警覺,謊言將不攻自破。

資料佐證

https://www.119.gov.taipei/News_Content.aspx?n=6C686F344A7BD003&sms=9D72E82EC16F3E64&s=752B97DEE1C49834
https://news.ltn.com.tw/news/society/paper/1585340

不只換臉連聲音也偷 防中國深偽詐騙入侵 - 社會 - 自由時報電子報

換臉易音 好友視訊竟是假現今科技時代,治安單位研判深偽(Deepfake)犯罪會越來越猖獗,包括原本就已竄升為犯罪類型大宗的詐騙案,也開始將深偽技術運用進來,不僅藉由AI技術改變聲音,使「猜猜我是誰」的詐術易於騙過受害人,大幅提升詐騙成功率,甚至直接利用「變臉」後的影音,讓人防不勝防,更容易讓民眾掉入「眼前為真」的陷阱。

https://news.ltn.com.tw/news/society/paper/1585340

以上內容「Cofacts 真的假的」訊息回報機器人與查證協作社群提供,以 CC授權 姓名標示-相同方式分享 4.0 (CC BY-SA 4.0) 釋出,於後續重製或散布時,原社群顯名及每一則查證的出處連結皆必須被完整引用。