
在矽谷(Silicon Valley)與華盛頓(Washington)關係的關鍵時刻,Anthropic 執行長 Dario Amodei 正式拒絕了美國國防部(U.S. Department of Defense)的最後通牒。隨著 2026 年 2 月 27 日星期五截止日期剩不到 24 小時,這場衝突已升級為一場涉及國家安全、倫理人工智慧(Ethical AI)和一項 2 億美元政府合約的高風險對峙。
爭端的核心在於國防部長 Pete Hegseth 本週早些時候發布的一項指令,要求 Anthropic 向五角大廈提供其旗艦模型 Claude 的「無限制」版本。軍方正在尋求一種去除了安全護欄的大型語言模型(Large Language Model,LLM)變體,以協助戰術決策和機密後勤行動。Amodei 在週四公開發布的一封信中表達了拒絕,這為一場潛在的法律和監管攤牌拉開了序幕,這可能會重新定義私營 AI 公司與國防部門的合作方式。
在 Creati.ai,我們一直密切關注商業 AI 安全標準與軍事作戰需求之間的分歧。這項最新進展標誌著主要的 AI 實驗室首次在面臨被列入安全風險黑名單的威脅下,公開蔑視來自五角大廈(Pentagon)的直接作戰授權。
分歧的核心在於美國軍方的特定作戰需求與 Anthropic 產品的基礎架構。根據本週早些時候洩露的內部備忘錄,五角大廈認為標準商業版的 Claude 因其拒絕機制而「在作戰上不適合」高風險的國防情境。
軍方官員表示,旨在防止仇恨言論、化學武器生成或政治偏見的安全協定,阻礙了 AI 處理原始情報並生成可能涉及致命武力或激進網絡戰策略的戰術選項的能力。Hegseth 部長的最後通牒很明確:為軍用級別的 Claude 實例移除這些「平民約束」,否則將面臨立即終止合約。
該需求指定了一種模型的客製化部署,其中管理 AI 行為的原則集——「憲法(Constitution)」——被一個優先考慮任務成功而非減少傷害的任務特定框架所取代。五角大廈堅持認為,如果沒有這些修改,目前用於後勤優化和情報綜合的 2 億美元合約就是在浪費納稅人的錢。
Dario Amodei 的回應是毫不含糊的。在聲明中,這位執行長宣佈 Anthropic「不能違背良心接受那些從根本上損害我們所建立的安全架構的要求。」
Amodei 主張,答應五角大廈的要求不僅僅是政策上的改變,而是對公司「憲法 AI(Constitutional AI)」方法的技術性拆除。他強調,創建一個沒有安全過濾器的「流氓」版本 Claude 會帶來生存風險。如果這樣的模型洩露或被對手進行逆向工程,它可能會為自動化網絡攻擊或生物武器合成提供藍圖,而沒有目前保護公眾的固有拒絕機制。
從技術角度來看,Anthropic 斷言安全不是一個可以像電燈開關一樣關閉的附加功能。它是通過人類回饋強化學習(Reinforcement Learning from Human Feedback,RLHF)和遞迴獎勵建模(Recursive Reward Modeling)訓練到模型的權重中的。
「遵守國防部移除所有護欄的要求,實際上是要求一個完全不同的產品——一個我們既沒有建造也沒有測試過的產品,」Amodei 寫道。他進一步警告說,一個未對齊的 AI 即使在美國軍方手中,在衝突情境下也會帶來關於幻覺(Hallucination)和升級的不可預測風險。
財務和聲譽風險是巨大的。Hegseth 部長不僅威脅要取消現有合約,還要正式將 Anthropic 標記為「供應鏈風險(supply chain risk)」。
這種定性是政府合約中的「核選項」。它將有效禁止 Anthropic 競標所有機構(不僅僅是國防部)未來的聯邦合約。此外,這可能會冷卻與維持嚴格合規標準、要求政府核准供應商的企業客戶的關係。
下表概述了 Anthropic 目前的營運模式與五角大廈對週五截止日期的特定要求之間的重要分歧。
表:Anthropic 與五角大廈之間的衝突點
| 功能/政策 | Anthropic 的憲法 AI 標準 | 五角大廈的「無限制」要求 |
|---|---|---|
| 安全護欄 | 對致命/有害查詢的硬編碼拒絕 | 為任務數據移除所有拒絕機制 |
| 模型對齊 | 對齊廣泛的人類價值觀和安全 | 嚴格對齊任務目標和指揮系統 |
| 部署環境 | 帶有監控的受控沙箱 | 物理隔離但功能自主的能力 |
| 責任立場 | 開發者保留對輸出安全的責任 | 政府承擔責任;要求原始能力 |
這場對峙的結果可能會成為整個 AI 行業的風向標。競爭對手如 OpenAI 和 Google DeepMind 正密切關注。如果五角大廈成功迫使 Anthropic 屈服,或因其拒絕而對其進行嚴厲懲罰,這將確立一個先例,即「國家安全」優先於私營安全承諾。
相反,如果 Anthropic 堅持立場並在政治衝擊中倖存下來,它將鞏固私營實驗室作為 AI 安全最終仲裁者的角色,獨立於國家的要求。這引發了關於主權和雙用途技術控制的複雜問題。到 2026 年,AI 已變得像 20 世紀的核子物理學一樣關鍵;然而,與曼哈頓計劃(Manhattan Project)不同,其開發很大程度上掌握在私人手中。
行業分析師建議,如果應用「供應鏈風險」標籤,Anthropic 可能被迫完全轉向商業領域,由於失去利潤豐厚的政府資金,可能會減緩其研究速度。或者,這可能會引發一場關於政府強迫私營實體發言(代碼生成)權力的法律戰,並一直打到最高法院。
隨著週五截止日期的臨近,位於舊金山的 Anthropic 總部保持沉默。拒絕信已擺在桌面上,現在球在五角大廈一方。
對於 Creati.ai 的讀者來說,這一事件突顯了 AI 安全的理論理想與地緣政治競爭的殘酷現實之間的摩擦。無論 Claude 是保持作為一個「有用、誠實且無害」的助手,還是成為國家的武器化工具,都可能在未來幾天內見分曉。2026 年 2 月 27 日做出的決定將不僅影響一家公司的利潤,還將定義未來十年軍事 AI 部署的倫理邊界。