
期限已過,矽谷安全導向的 AI 實驗室與美國軍方之間的裂痕已演變成深淵。截至週六上午,Claude AI 模型的開發商 Anthropic 已正式拒絕了**國防部長彼得·赫格塞斯(Pete Hegseth)**提出的最後通牒,該通牒要求授予軍方對其技術的不受限存取權。作為回應,五角大廈迅速採取行動,將該公司列為「供應鏈風險」,實際上終止了一項 2 億美元的合約,並為一場關於人工智慧(Artificial Intelligence)武器化且史無前例的法律與倫理對決拉開了序幕。
這次對抗標誌著 AI 工業的一個歷史性轉折點。這是有史以來第一次,一家主要的 AI 開發商冒著失去政府收入和商業地位的風險,在關於自主武器(autonomous weapons)與大規模監視的倫理「紅線」上堅守立場,直接挑戰了川普政府試圖移除其所謂對軍事技術「覺醒(woke)」約束的舉動。
這場危機在 2 月 27 日週五達到頂點,這是赫格塞斯部長為 Anthropic 屈服所設定的最後期限。本週早些時候,赫格塞斯曾召集 Anthropic 執行長**達里奧·阿莫代(Dario Amodei)**前往五角大廈,傳達了一個強硬的訊息:移除防止 Claude 被用於自主殺傷鏈(kill chains)和國內監視的「護欄」,否則將面臨聯邦政府的全面打壓。
根據接近談判的消息人士透露,五角大廈(Pentagon)要求「不受限制地存取」Claude 的功能,並辯稱在大國競爭時代,美國軍方不能被企業的倫理政策所束縛。曾誓言要清除武裝部隊中「覺醒文化」的赫格塞斯,特別針對 Anthropic 的「憲制 AI(Constitutional AI)」框架——這是一個旨在防止模型生成有害、非法或不道德內容的安全系統——稱其為國家安全的負擔。
在截止日期前不久發布的一份聲明中,阿莫代立場堅定。執行長寫道:「我們無法憑良心答應這些要求。」他重申,雖然 Anthropic 支持合法的防禦性軍事應用,但在兩個特定的用例上劃定了嚴格紅線:對美國公民的大規模國內監視,以及由 AI 在沒有人類干預的情況下做出致命決定的全自主瞄準系統。
拒絕的後果於週五深夜開始顯現。美國國防部(DoD)啟動了將 Anthropic 歸類為「供應鏈風險(supply chain risk)」的程序。這一指定比單純的合約取消更具破壞性;它實際上發揮了黑名單的功能。
「供應鏈風險」指定的影響:
對科技業而言,最令人震驚的或許是赫格塞斯威脅要引用**國防生產法(Defense Production Act, DPA)**。最初於韓戰期間頒布的《國防生產法》賦予總統廣泛的權力,以強迫私營公司優先處理政府合約並控制關鍵材料的分配。法律專家警告,使用《國防生產法》來徵收知識產權——特別是專有 AI 的模型權重——或強迫公司違背其安全協議修改代碼,將是行政權力的前所未有的擴張。
在導致截止日期的週二會議期間,雙方陣營之間的摩擦顯而易見。消息人士形容這次會面「禮貌但冷淡」,赫格塞斯指責 Anthropic 將抽象的矽谷倫理置於美國人的生命之上。
據報導,赫格塞斯將 Anthropic 的不合作與其他 AI 公司的配合進行了對比。他明確提到了 xAI,即埃隆·馬斯克(Elon Musk)的人工智慧公司,該公司已經同意了一項「合法使用」條款,該條款未對軍事應用設定具體的技術限制。國防部長的觀點將 AI 安全(AI safety)措施框架化為「意識形態約束」,認為這削弱了美國的作戰能力。
對於阿莫代來說,拒絕與 Anthropic 的創立使命是一致的。該公司是由前 OpenAI 研究人員專門為了避免他們認為困擾行業的安全捷徑而創建的。屈服於五角大廈對自主瞄準功能的要求,將是對公司核心「長期利益信託(Long-Term Benefit Trust)」結構的背叛。
這場爭端的焦點在於對 AI 效用和風險的兩種根本不同的看法。下表概述了導致合約終止的具體爭議點。
表 1:五角大廈的要求對比 Anthropic 的倫理底線
| 爭議焦點 | 五角大廈要求(赫格塞斯主義) | Anthropic 立場(憲制 AI) |
|---|---|---|
| 自主武器 | 將 AI 全面整合至「殺傷鏈」,以加速殺傷力和決策速度。 | 嚴格禁止 AI 在沒有實質性人類控制的情況下做出致命瞄準決定。 |
| 國內監視 | 使用 AI 分析海量數據,用於內部安全和威脅檢測。 | 拒絕允許模型用於對美國公民的大規模監控或異見追蹤。 |
| 安全協定 | 移除限制軍事效用的「意識形態」過濾器(標籤為「覺醒 AI」)。 | 維持安全護欄,以防止誤用、偏見和侵犯人權。 |
| 合約控制權 | 擁有不受限制的許可,可將模型用於由行政部門定義的「所有合法用途」。 | 服務條款中明確禁止特定的高風險類別,無論其合法性如何。 |
Anthropic 的抗命使其在與國防部門的關係中,於「四大」AI 實驗室中顯得孤立。
這種孤立帶來了嚴重的財務風險。失去 2 億美元的合約固然重大,但在政府部門的聲譽受損可能會導致未來數十億美元的收入損失。然而,在商業領域,此舉可能會鞏固 Anthropic 作為對政府過度擴權和數據隱私持謹慎態度的企業之「值得信賴」的 AI 替代品品牌。
法律戰可能才剛剛開始。如果五角大廈繼續推動《國防生產法》強制執行行動以徵收 Anthropic 的模型權重或強迫修改代碼,案件幾乎肯定會提交至最高法院。核心法律問題將是:代碼是否構成強迫言論(compelled speech),以及政府是否可以強迫私人實體違背其意願製造武器。
就目前而言,來自五角大廈的訊息很明確:在 AI 主導地位的競賽中,安全剎車被視為缺陷而非功能。而對於 Anthropic 來說,堅持原則的代價即將變得非常昂貴。
接下來的幾週將決定其他科技巨頭是否會屈從於赫格塞斯的「反覺醒」軍事學說,或者 Anthropic 的立場是否會激發 AI 研究人員之間更廣泛的抵制,因為他們擔心自己的創造物被軍事化的速度超過了受控的速度。