
為打擊合成媒體(Synthetic Media)的擴散,英國政府宣佈與微軟(Microsoft)及其他領先技術公司建立戰略合作夥伴關係,開發全球首個深偽(Deepfake)偵測評估框架。這項舉措代表了在建立一致的全球標準以識別 AI 生成內容方面邁出了關鍵一步,旨在應對數位欺詐的激增——僅在 2025 年,估計就有 800 萬個深偽內容被分享。
此次合作匯集了科學、創新與技術部(Department for Science, Innovation and Technology, DSIT)、內政部、執法機構和學術專家。他們的共同目標是為偵測工具建立嚴格的測試平台,確保其能有效識別從金融詐騙到未經同意的親密影像(Non-consensual Intimate Imagery)等各種有害內容。
政府公佈的驚人數據凸顯了這項倡議的緊迫性。網路上流傳的深偽內容數量呈爆炸式增長,從 2023 年的約 50 萬件增加到 2025 年的超過 800 萬件。這種指數級增長是由生成式 AI(Generative AI)工具日益普及所推動的,這些工具降低了製作超寫實虛假影片、音訊和影像的技術門檻。
技術大臣 莉茲·肯德爾(Liz Kendall) 強調了這種激增背後的惡意企圖。「深偽正被罪犯武裝化,用於詐騙公眾、剝削婦女和女孩,並破壞我們對所見所聞的信任,」肯德爾表示。新框架旨在剝離這些惡意行為者的匿名性,確保那些企圖欺騙的人「無處遁形」。
保護與反對針對婦女和女孩暴力行為部長 傑斯·菲利普斯(Jess Phillips) 強調了這項技術造成的人力成本。菲利普斯指出,被製作深偽內容所帶來的傷害是「無與倫比的」,並指出這項技術不分對象,老奶奶、年輕女性和企業高管同樣都是目標。
此次合作的核心是開發一套標準化方法,用以評估深偽偵測工具的效能。目前市場缺乏統一的基準,使得平台和政府難以確定哪些偵測軟體是可靠的。
該框架將透過針對現實世界的威脅場景測試領先的偵測技術來運作。這些場景旨在模擬當今社會面臨的最迫切風險,包括:
藉由讓工具接受這些高壓測試,政府旨在找出當前偵測能力的差距,並對技術產業設定明確的預期。
為啟動這項倡議,政府最近資助並領導了一場由 微軟(Microsoft) 主辦的「深偽偵測挑戰賽」。這場為期四天的活動動員了全球專家,對應對複雜 AI 威脅的防禦機制進行了壓力測試。
挑戰賽重點摘要
| 特性 | 詳情 |
|---|---|
| 參與者 | 超過 350 名專家,包括國際刑警組織(INTERPOL)、「五眼聯盟」情報成員和大型科技公司代表 |
| 持續時間 | 為期 4 天的密集、高壓場景測試 |
| 重點領域 | 受害者識別、選舉安全、有組織犯罪和詐騙 |
| 目標 | 區分真實、完全虛假和部分操縱的視聽媒體 |
這次協作練習超出了技術問題的解決;它在國際盟友和私營部門領導者之間建立了一個統一戰線,以加強針對惡意合成媒體的全球防禦。
雖然技術解決方案至關重要,但 英國政府(UK government) 同時也在收緊針對有害 AI 內容創作者的法律網。與微軟的合作與旨在保護公民(特別是婦女和女孩)免受網路虐待的強有力新立法措施並行。
最近的法律進展包括:
倫敦市警察局副局長尼克·亞當斯(Nik Adams)對該框架表示歡迎,稱其為執法部門武器庫中「強而有力且及時的補充」。他指出,犯罪分子正越來越多地利用 AI 以空前的速度擴大傷害,因此警察必須獲得經過驗證的高品質偵測工具,才能領先於違法者。
這項倡議使英國在 AI 安全(AI safety) 領域處於全球領先地位,從法規的理論討論轉向安全標準的實際應用。透過與像微軟這樣的技術巨頭合作,政府承認解決 AI 生成的威脅需要公私合作。
對於 AI 產業而言,這一框架標誌著向問責制的轉變。隨著偵測標準的法典化,生成式 AI 模型開發者和社群平台將面臨越來越大的壓力,以確保其系統不會參與傳播無法核實或有害的內容。最終目標是恢復公眾對數位生態系統的信任,確保 AI 仍然是創新的工具,而不是欺騙的武器。