以假亂真的 AI 詐騙 如何防範

/ 張天培 蘇濱
    傳一張靜態照片,即可生成動態視頻;只需幾秒語音,就能克隆聲音……這不是科幻電影,而是發生在身邊的真實事件,「人工智慧(AI)換臉」正成為侵權違法的重災區。
AI 詐騙形式多樣
「你以為在和朋友親人視頻聊天, 其實是騙子使用的『AI 換臉技術,讓別人的嘴能夠對口型。」寧夏回族自治區公安廳刑偵總隊副總隊長、反詐中心負責人吳克剛介紹,如今,「AI 換臉」技術不僅限於靜態照片的活化,還能在即時視頻通信中即時換臉。雖然需要採集大量不同角度的照片進行模型訓練,但一旦成功,便可以假亂真。
    新型AI 詐騙主要有以下類型: 語音合成詐騙,不法分子利用AI 技術,合成受害人親友或熟人的聲音,讓受害人誤以為是親友或熟人需要幫助,進而實施電話詐騙;圖像生成詐騙,不法分子通過AI 技術,生成虛假的照片或視頻,製造出受害人親友緊急且合理的情景, 從而獲取個人資訊,騙取錢財;智慧客服詐騙,不法分子利用AI 技術,製作智慧客服系統,通過語音或文字同受害人交流,誘騙受害人提供個人資訊或進行轉帳操作; AI 情感詐騙,不法分子運用AI 訓練面向網聊的大語言模型,通過偽造場景、聲音與受害人建立情感關係,進而獲取個人資訊。

想讓品牌在新聞媒體曝光? 立即點我加入官方LINE@免費諮詢

相關新聞

最新消息