
數位安全格局發生了巨大變化。新分析顯示,深偽欺詐已從少數的高科技威脅轉變為工業化規模(Industrial Scale)的運作。在生成式 AI(Generative AI)工具普及的推動下,網路犯罪分子正發起個人化的自動攻擊,僅在九個月內就讓英國消費者損失了高達 94 億英鎊。
在 Creati.ai,我們密切關注生成式媒體(Generative Media)的演變。雖然這些技術的創意潛力無限,但最新報告強調了一個關鍵轉折點:製作具有說服力的合成媒體之門檻已實際上消失,使不法份子擁有了以往僅限於國家支持之特工才具備的能力。
「工業化規模」欺詐的概念,標誌著與過去手動、勞動力密集型詐騙的背離。從歷史上看,製作一個具說服力的深偽內容需要大量的計算能力、機器學習(Machine Learning)方面的專業技術以及數小時的渲染時間。今天,情況已發生改變。
《衛報》(The Guardian)報導的一項最新研究指出,廉價且易於獲取的 AI 工具爆發,讓詐騙者能夠實時生成合成音訊和視訊。這種普及性使犯罪集團能夠自動化生成欺詐內容,並透過量身定制的訊息同時鎖定數千名受害者。
財務影響是前所未有的。據報英國在短短九個月內損失 94 億英鎊,這表明目前的防禦機制未能跟上 AI 驅動型犯罪的速度。這個數字不僅代表了數量的激增,更反映了這些詐騙成功率的根本性提升,因為合成語音和視訊證明比傳統的文字網路釣魚(Phishing)更具說服力。
這場危機的主要驅動力是易於使用的 AI 平台激增。在 2026 年初,我們看到市場上充斥著為合法內容創作設計的應用程式——例如為播客提供的語音複製(Voice Cloning)、為配音提供的對嘴技術,以及為客戶服務提供的頭像生成。然而,這些相同的工具正被重新利用於惡意目的。
促成這一激增的關鍵因素包括:
這些能力的普及意味著詐騙者不再需要是駭客;他們只需要成為訂閱者。這種易用性擴大了潛在攻擊者的群體,導致報告中提到的「工業化」規模事件。
了解這些現代攻擊的機制對於開發對策至關重要。與電子郵件垃圾郵件的「廣撒網」方式不同,工業化深偽欺詐(Deepfake fraud)將自動化與個人化相結合。
攻擊者使用機器人從社群媒體平台抓取公開數據,收集語音樣本(來自影片剪輯)和視覺參考。這些數據被輸入生成模型,以創建一個受信任對象(如老闆、家人或銀行代表)的數位傀儡。
一旦模型訓練完成——現在只需幾秒鐘——詐騙就會展開。
雖然 94 億英鎊這個數字捕捉了宏觀經濟規模,但人身代價卻是極其個人化的。研究指出,受害者通常被施以高壓手段,利用情感聯繫進行詐騙。
在一種普遍的情況中,父母接到聽起來完全像他們受驚孩子的電話,聲稱處於緊急狀態。聽到親人聲音的直覺反應往往會繞過邏輯上的懷疑。在企業領域,財務部門正成為「執行長欺詐」(CEO fraud)的受害者,高級領導層的合成視訊通話要求立即轉帳。
這些詐騙的心理影響非常嚴重。受害者報告對數位通訊失去了深厚的信任,導致了一個「零信任」的社交環境,在那裡每一次電話或視訊訊息都受到懷疑。
網路安全產業目前正在進行一場軍備競賽。隨著生成式 AI 越來越擅長模仿現實,檢測算法必須不斷進化,以識別合成生成留下的細微痕跡。
目前的防禦策略包括:
然而,專家警告說,檢測只是一種被動措施。長期解決方案在於監管框架和公眾意識的結合。各國政府開始要求 AI 開發者實施「了解您的客戶」(Know Your Customer,KYC)協議,以防止強大生成工具的匿名濫用。
下表說明了使這波新詐騙浪潮如此危險的運作差異。
| 特徵 | 傳統網路釣魚 | AI 工業化欺詐 |
|---|---|---|
| 主要媒介 | 電子郵件 / 簡訊 | 語音 / 視訊 / 實時互動 |
| 個人化程度 | 低(通用模板) | 高(克隆語音/形象) |
| 成功率 | 低(< 1%) | 高(基於感官信任) |
| 進入門檻 | 低技術要求 | 低(透過普及的 AI 工具) |
| 規模 | 大量、低品質 | 大量、高品質 |
| 檢測方式 | 垃圾郵件過濾器 / 關鍵字 | 生物特徵分析 / 痕跡檢測 |
作為一家致力於推動 AI 進步的組織,Creati.ai 對這些發展深感憂慮。生成技術的誤用威脅到大眾對整個 AI 產業的信心。我們相信普及性必須與問責制平衡。
我們倡導:
工業化深偽欺詐時代並非未來的預測;它是 2026 年的現實。94 億英鎊的損失服務於一個警鐘。雖然技術創造了這個問題,但負責任的技術——配合警覺與監管——必須解決它。我們仍致力於開發賦予創意能量的 AI,同時積極減輕這些新興風險。