「AI會模仿,信任要驗證!」
近期,詐騙集團利用人工智慧AI技術,模擬親友的聲音,
製造緊急情境,誘使受害者匯款。
由於模擬的聲音與真人極為相似,
受害者在慌亂中往往難以分辨真偽。
📌常見的AI語音詐騙手法
1.緊急情境誘騙:
詐騙者冒充親友,聲稱遭遇車禍、被綁架或其他緊急狀況,要求立即匯款。
2.冒充機構人員:
假冒政府機關或銀行人員,聲稱受害者涉及案件或帳戶異常,要求提供個人資訊或匯款。
3.投資詐騙:
冒充投資專家,聲稱掌握內線消息,誘騙受害者投資高風險的金融商品。
🛡️如何防範AI語音詐騙
1.設定家庭密語 2.保持冷靜,勿急於匯款
3.避免公開分享聲音資料 4.使用防詐工具
5.報案與求助 如懷疑遭遇詐騙,可撥打165反詐騙專線,尋求協助。
來看幽默又實用的防詐小劇場, 學習快速識破最新詐欺手法吧!!
#AI詐騙 #防詐小劇場 #cib #police