
シリコンバレーとワシントンの関係を決定づける瞬間、AnthropicのCEOであるダリオ・アモデイ(Dario Amodei)は、米国国防総省からの最後通牒を正式に拒絶した。2026年2月27日金曜日の期限まで24時間を切る中、この紛争は国家安全保障、倫理的な人工知能(Artificial Intelligence)、そして2億ドルの政府契約を巻き込んだ、極めてリスクの高い対立へと発展している。
紛争の中心となっているのは、今週初めにピート・ヘグセス国防長官が出した指令である。この指令は、Anthropicに対し、同社の主力モデルであるClaudeの「無制限」バージョンをペンタゴンに提供するよう求めている。軍は、戦術的な意思決定や機密扱いのロジスティクス業務を支援するため、安全ガードレールが取り除かれた大規模言語モデル(Large Language Model: LLM)のバリアントを求めている。木曜日に公開された書簡の中で表明されたアモデイの拒絶は、民間AI企業と防衛部門との協力のあり方を再定義しかねない、法規制上の対決の舞台を整えることとなった。
Creati.aiでは、商用AIの安全基準と軍事的な運用要件の乖離を注視してきた。今回の進展は、主要なAIラボが、セキュリティリスクとしてブラックリストに載るという脅しを受けながら、Pentagon(ペンタゴン)からの直接的な運用命令に公然と逆らった初めての事例となる。
不一致の核心は、米軍の具体的な運用上のニーズと、Anthropic製品の基本アーキテクチャの間にある。今週初めにリークされた内部メモによると、ペンタゴンは、標準的な商用版のClaudeは、その拒絶メカニズムにより、リスクの高い防衛シナリオにおいて「運用上不適格」であると主張している。
軍関係者は、ヘイトスピーチ、化学兵器の生成、または政治的偏向を防ぐために設計された安全プロトコルが、生のインテリジェンスを処理し、致死的な力や攻撃的なサイバー戦戦略を伴う可能性のある戦術的選択肢を生成するAIの能力を妨げているとして、不満を表明している。ヘグセス長官の最後通牒は明確だった。軍用グレードのClaudeからこれらの「民間向け制約」を削除するか、即時の契約解除に応じるかである。
この要求は、AIの行動を支配する原則セットである「憲法」を、被害の軽減よりも任務の成功を優先する任務固有のフレームワークに置き換えた、モデルのカスタム展開を指定している。ペンタゴンは、これらの変更なしには、ロジスティクスの最適化とインテリジェンスの統合に関する現在の2億ドルの契約は税金の無駄遣いであると主張している。
Dario Amodeiの反応は明白だった。声明の中で、CEOはAnthropicが「私たちが構築してきた安全アーキテクチャを根本的に損なうような要求に、良心に従って同意することはできない」と宣言した。
アモデイは、ペンタゴンの要求を呑むことは、単なるポリシーの変更ではなく、同社の「憲法AI(Constitutional AI)」アプローチを技術的に解体することになると主張した。彼は、安全フィルターのない「ならず者(rogue)」バージョンのClaudeを作成することは、存亡に関わるリスクをもたらすと強調した。もしそのようなモデルが漏洩したり、敵対者によってリバースエンジニアリングされたりすれば、現在一般市民を保護している固有の拒絶なしに、自動化されたサイバー攻撃や生物兵器合成の青写真を提供することになりかねない。
技術的な観点から、Anthropicは、安全性は照明のスイッチのようにオン・オフを切り替えられる後付けの機能ではないと主張している。それは、人間からのフィードバックによる強化学習(RLHF)と再帰的報酬モデリング(Recursive Reward Modeling)を通じて、モデルの重みにトレーニングされているのである。
「すべてのガードレールを削除するという国防総省の要求に応じることは、事実上、私たちが構築もテストもしていない、まったく別の製品を要求することに等しい」とアモデイは記した。彼はさらに、調整(Alignment)されていないAIは、たとえ米軍の手中にあっても、紛争シナリオにおけるハルシネーション(Hallucination:幻覚)やエスカレーションに関して予測不可能なリスクをもたらすと警告した。
財務的および評判上の利害は計り知れない。ヘグセス長官は、既存の契約をキャンセルするだけでなく、Anthropicを公式に「サプライチェーン・リスク(supply chain risk)」としてラベル付けすると脅している。
この指定は、政府契約における「核の選択肢」である。これにより、Anthropicは国防総省だけでなく、すべての機関にわたる将来の連邦契約の競争から事実上排除されることになる。さらに、政府承認のベンダーを必要とする厳格なコンプライアンス基準を維持しているエンタープライズクライアントとの関係を冷え込ませる可能性もある。
以下の表は、Anthropicの現在の運用モデルと、金曜日の期限に向けたペンタゴンの具体的な要件との間の重大な乖離をまとめたものである。
表:Anthropicとペンタゴンの対立点
| 機能/ポリシー | Anthropicの憲法AI基準 | ペンタゴンの「無制限」要件 |
|---|---|---|
| 安全ガードレール | 致死的/有害なクエリに対するハードコードされた拒絶 | 任務データに対するすべての拒絶メカニズムの削除 |
| モデルの調整(Alignment) | 幅広い人間の価値観と安全性に調整 | 任務の目的と指揮系統に厳格に調整 |
| 展開環境 | 監視付きの制御されたサンドボックス | エアギャップされているが機能的に自律的な能力 |
| 責任の所在 | 開発者が出力の安全性に対する責任を保持 | 政府が責任を負う。生の能力を要求 |
この対立の結果は、AI業界全体にとっての指針(Bellwether)となる可能性が高い。OpenAIやGoogle DeepMindなどの競合他社は、事態を注視している。もしペンタゴンがAnthropicを降伏させることに成功するか、あるいは拒絶したことで厳しく罰することになれば、「国家安全保障」が民間の安全へのコミットメントに優先するという前例が確立される。
逆に、もしAnthropicがその姿勢を維持し、政治的な余波を乗り切れば、国家の要求から独立した、AIの安全性の最終的な裁定者としての民間ラボの役割が確固たるものとなる。これは、主権とデュアルユース(軍民両用)技術の制御に関する複雑な問題を提起する。2026年までに、AIは20世紀における核物理学と同じくらい重要なものとなったが、マンハッタン計画とは異なり、その開発は主に民間の手に委ねられたままである。
業界のアナリストは、サプライチェーン・リスクのラベルが適用された場合、Anthropicは完全に商業部門へのピボットを余儀なくされ、多額の政府資金の喪失により研究速度が低下する可能性があると示唆している。あるいは、民間企業からの言論(コード生成)を強制する政府の権限に関して、最高裁判所にまで及ぶ法廷闘争を引き起こす可能性もある。
金曜日の期限が近づく中、サンフランシスコのAnthropic本社は沈黙に包まれている。拒絶は突きつけられており、ボールは今、ペンタゴンの側にある。
Creati.aiの読者にとって、この出来事はAIの安全性の理論的な理想と、地政学的な競争という過酷な現実との間の摩擦を浮き彫りにしている。Claudeが「役立ち、正直で、無害な」アシスタントであり続けるか、あるいは国家の兵器化されたツールになるかは、おそらく数日中に決定されるだろう。2026年2月27日に下される決断は、単一企業の収益に影響を与えるだけでなく、今後10年間の軍事用AI配備の倫理的境界線を定義することになる。