
隨著 2026 年初全球政治局勢升溫,人工智慧與民主完整性的交匯已達到關鍵的拐點。來自加拿大情報官員和學術研究人員的最新報告強調了一個令人不安的趨勢:生成式 AI(Generative AI)的武器化已不再是理論上的風險,而是一個活躍且快速演變的威脅。隨著深偽技術(Deepfakes)模糊了事實與虛構之間的界限,專家警告說,2026 年的選舉週期可能是首個受到自動化、高保真 虛假訊息系統性破壞的週期,而美國正成為一個顯著且出人意料的不穩定因素。
多年來,西方民主國家一直將反虛假訊息工作的重點放在以國家資助網路活動聞名的專制政權上。然而,新的分析表明範式正在發生轉移。根據里賈納大學(University of Regina)人工智慧、數據與衝突中心(Centre for Artificial Intelligence, Data and Conflict)聯席主任 Brian McQuinn 的說法,威脅景觀已擴大到包括美國境內的國內政治行為者。
McQuinn 警告說,美國政府及其代理人「百分之百」會成為針對鄰國(尤其是加拿大)的深偽內容來源。近期圍繞「第 51 個州」(51st state)敘事的修辭,以及美國知名政治人物戰術性使用 AI 生成的媒體,放大了這種擔憂。AI 修改圖像的標準化——例如對抗議照片的數位操縱,或對領導人帶有諷刺意味但充滿政治色彩的描繪——標誌著外交和民主穩定所需的共享現實正在惡化。
這些工具的部署速度令人震驚。與傳統宣傳不同,後者需要大量人力資源來製作和傳播,而 生成式 AI 允許即時創建超現實的影片和音訊。這種能力使行為者能夠在資訊生態系統中充斥「雜音」,使普通公民越來越難以區分合法的新聞事件與合成的虛假內容。
深偽技術帶來的挑戰不僅限於技術上的檢測難度;它直擊人類心理的核心。研究人員 Clark 和 Lewandowsky(2026)在《通訊心理學》(Communications Psychology)上發表的一項最新研究揭示了目前緩解策略的一個令人不安的局限性:僅靠透明度可能還不夠。
研究發現,接觸過深偽影片(例如公眾人物虛構的供詞或爭議性言論)的個人,即使在被明確告知該媒體是偽造的之後,仍會繼續受到內容的影響。這種現象表明,視覺媒體的直觀衝擊力繞過了理性的懷疑。一旦看過圖像或影片,情感印象就會保留下來,產生一種事實查核標籤難以抹去的「黏性」。
這一發現對主要寄希望於浮水印(Watermarking)和披露法的決策者提出了重大挑戰。如果僅僅接觸深偽技術就能有效地種下懷疑或偏見的種子,那麼「說謊者的紅利」(Liar's dividend)——即壞人僅通過製造混亂就能獲得的戰略利益——就變成了一種強大的武器。在這種環境下,真相無法充當重置按鈕;相反,影響力在揭露後依然存在。
各國政府正爭先恐後地適應這一現實,但技術進步的速度正超過立法能力。包括國家安全與情報顧問 Nathalie Drouin 在內的加拿大官員對 AI 對民主進程產生的「有害影響」表示深切擔憂。然而,監管之路充滿了複雜性。
加拿大外交部副部長 David Morrison 最近指出政府干預中固有的困難:「讓政府處於判斷何為真實、何為不真實的境地並非易事。」這種猶豫反映了一個更廣泛的民主困境——如何在不侵犯言論自由或建立「真理部」的情況下打擊謊言。
目前,職責主要落在社交媒體平台上以監管內容。然而,隨著 X(前身為 Twitter)和美資 TikTok 採用不同的審核標準,針對深偽技術的防禦仍然是零散的。一些平台不願執行嚴格的標籤化,加上此類標籤在心理上的無效性,創造了一個外國和國內行為者都渴望利用的漏洞。
為了理解這種轉變的規模,有必要將傳統虛假訊息活動的機制與新一波 AI 驅動的干擾進行比較。
表 1:傳統與 AI 虛假訊息的運作差異
| 特徵 | 傳統虛假訊息 | AI 驅動虛假訊息 |
|---|---|---|
| 生產成本 | 高(需要熟練勞動力/工作室) | 趨於零(自動生成) |
| 可擴展性 | 線性(受人力限制) | 指數級(無限複製) |
| 個性化 | 廣泛的人口統計 | 針對個人偏好的微定向 |
| 檢測 | 事實查核文本/來源 | 對像素/音訊波的取證分析 |
| 心理影響 | 認知性(需要閱讀/信任) | 直覺性(眼見/耳聽為實) |
| 緩解措施 | 修正/撤回 | 無效(揭穿後影響力依然存在) |
專家的共識是,反應性措施已不再足夠。DisinfoWatch 的 Marcus Kolga 認為,目前缺乏領導力,而且「在事情發生後才做出反應並不是很有幫助」。他主張對政治家及其工作人員進行強制性的年度培訓,以識別外國干預和深偽戰術。
此外,迫切需要開展廣泛的數位素養倡議。研究表明,超過 80% 的虛假訊息是由不知其虛假性的普通公民傳播的,大眾在無意中成為了這些活動的基礎設施。教育必須超越簡單的「事實查核」,擴展到對情感操縱和生成式 AI 技術能力的理解。
隨著我們步入 2026 年,保衛民主將不僅需要更好的檢測演算法。它還需要社會在消費媒體的方式上發生轉變,一個追究平台責任的強大監管框架,以及一種認識:在 AI 時代,眼見不應再等同於實。