
期限は過ぎ、シリコンバレーの安全重視型AIラボと米軍との間の溝は、今や埋めがたい深淵へと変わりました。土曜日の朝の時点で、AIモデル「Claude(クロード)」の開発元であるAnthropicは、軍に対して自社技術への無制限のアクセスを認めるというピート・ヘグセス(Pete Hegseth)国防長官からの最後通告を正式に拒否しました。これに対し、国防総省は迅速に同社を「サプライチェーン・リスク(supply chain risk)」に指定する動きを見せ、2億ドル(約300億円)規模の契約を事実上打ち切り、人工知能の兵器化を巡る前代未聞の法的・倫理的対決の舞台を整えました。
この対立は、AI業界にとって歴史的な転換点となります。主要なAI開発者が、自律型兵器(autonomous weapons)や大量監視に関する倫理的な「レッドライン(譲れない一線)」を維持するために、政府からの収益や商業的地位を危険にさらしたのは初めてのことであり、軍事技術における「woke(目覚めた/ポリコレ)」な制約と称されるものを取り除こうとするトランプ政権の推進力に真っ向から挑戦しています。
危機は2月27日金曜日、ヘグセス長官がAnthropicに降伏を迫った期限にピークを迎えました。今週初め、ヘグセス長官はAnthropicのCEOである**ダリオ・アモデイ(Dario Amodei)**を国防総省に召喚し、厳しいメッセージを伝えました。それは、Claudeが自律型キルチェーン(殺傷連鎖)や国内監視に使用されるのを防いでいる「ガードレール(guardrails)」を撤去するか、さもなければ連邦政府の全圧力を受けることになるか、というものでした。
交渉に近い関係者によると、国防総省(Pentagon)はClaudeの能力への「制限のないアクセス」を要求し、大国間競争の時代において、米軍が企業の倫理規定によって身動きを封じられることはあってはならないと主張しました。軍隊から「woke文化」を一掃すると誓っているヘグセス長官は、モデルが有害、違法、または非倫理的なコンテンツを生成するのを防ぐために設計された安全システムであるAnthropicの「憲法的AI(Constitutional AI)」フレームワークを、国家安全保障上の負債として具体的に標的にしました。
期限直前に発表された声明の中で、アモデイCEOは断固とした態度を崩しませんでした。「良心に照らして、これらの要求に応じることはできません」とCEOは記しました。彼は、Anthropicが正当な防御的軍事利用をサポートする一方で、2つの具体的なユースケース、すなわち米市民に対する大規模な国内監視と、人間が介在せずにAIが致命的な決定を下す完全自律型標的システムについては、厳格な一線を画すと重ねて強調しました。
この拒否の結果は、金曜日の深夜から具体化し始めました。国防総省(DoD)は、Anthropicを「サプライチェーン・リスク(supply chain risk)」として分類する手続きを開始しました。この指定は単なる契約解除よりもはるかに損害が大きく、事実上のブラックリストとして機能します。
「サプライチェーン・リスク」指定の影響:
テック業界にとっておそらく最も衝撃的だったのは、ヘグセス長官が**国防生産法(Defense Production Act: DPA)**の発動をちらつかせたことです。元々は朝鮮戦争中に制定されたDPAは、民間企業に政府契約を優先させ、重要物資の流通を制御するための広範な権限を大統領に与えるものです。法的な専門家は、知的財産、特に独自のAIのモデル重みを差し押さえたり、安全プロトコルに反してコードを改変するよう企業に強制したりするためにDPAを使用することは、執行権の空前の拡大になると警告しています。
両陣営の摩擦は、最後通告に至る火曜日の会談中も明白でした。関係者はこの会談を「丁寧だが冷ややか」だったと表現し、ヘグセス長官はAnthropicがアメリカ人の命よりも抽象的なシリコンバレーの倫理を優先していると非難したといいます。
報道によると、ヘグセス長官はAnthropicの抵抗を、他のAI企業の協力姿勢と比較しました。彼は、すでに「合法的な使用」条項に合意し、軍事利用に関する具体的な技術的制限を設けていないイーロン・マスクの人工知能企業、xAIについて明確に言及しました。国防長官の主張は、AI安全性(AI safety)対策を慎重さではなく、米軍兵士を弱体化させる「イデオロギー的な制約」として位置づけています。
アモデイCEOにとって、この拒否はAnthropicの設立使命に沿ったものです。同社は、業界を蝕んでいると信じていた安全性の手抜きを避けるために、元OpenAIの研究者らによって設立されました。自律型標的機能という国防総省の要求に屈することは、同社の中核である「長期利益信託(Long-Term Benefit Trust)」構造への裏切りを意味することになります。
この紛争の中心にあるのは、AIの有用性とリスクに関する2つの根本的に異なる見解です。以下の表は、契約解除に至った具体的な争点をまとめたものです。
表1:国防総省の要求 vs. Anthropicの倫理的境界線
| 争点 | 国防総省の要求(ヘグセス・ドクトリン) | Anthropicの立場(憲法的AI) |
|---|---|---|
| 自律型兵器 | 殺傷能力と意思決定速度を加速させるため、AIを「キルチェーン」に完全統合する。 | 意味のある人間による制御なしに、AIが致命的な標的決定を下すことを厳格に禁止する。 |
| 国内監視 | 内部安全保障や脅威検知のため、大規模なデータ分析にAIを使用する。 | 米市民の大規模な監視や、反体制派の追跡にモデルを使用することを拒否する。 |
| 安全プロトコル | 軍事的な実用性を制限する「イデオロギー的」なフィルター(「woke AI」と呼称)を撤去する。 | 悪用、偏見、人権侵害を防ぐための安全ガードレールを維持する。 |
| 契約上の制御 | 行政府によって定義される「あらゆる合法的な目的」のためにモデルを使用する無制限のライセンス。 | 合法性にかかわらず、特定の高リスクカテゴリーを明示的に禁止するサービス利用規約。 |
Anthropicの抵抗により、防衛部門との関係において、同社はAI業界の「ビッグ4」の中で孤立することになります。
この孤立は、深刻な財務的リスクをもたらします。2億ドルの契約喪失は大きいですが、政府部門における評判の低下は、将来的に数十億ドルの収益減を招く可能性があります。しかし、民間部門では、この動きは政府の行き過ぎやデータのプライバシーを警戒する企業にとって、Anthropicの「信頼できる」AIというブランドを強固にする可能性があります。
法的な戦いはまだ始まったばかりのようです。もし国防総省がAnthropicのモデル重みを差し押さえたり、コード変更を強制したりするためにDPAの執行措置に踏み切れば、このケースはほぼ確実に最高裁判所まで持ち込まれるでしょう。核となる法的な問いは、コードが「強制された言論(compelled speech)」に該当するかどうか、そして政府が民間団体に対し、その意志に反して兵器を構築することを強制できるかどうかです。
現時点での国防総省からのメッセージは明確です。AI覇権争いにおいて、安全ブレーキは機能ではなく「欠陥」とみなされます。そしてAnthropicにとって、その原則を貫く代償は、非常に高価なものになろうとしています。
今後数週間のうちに、他のテック大手がヘグセス長官の「反woke(anti-woke)」軍事ドクトリンに従うのか、それともAnthropicの立場が、自分たちの創造物が制御できる速さを超えて軍事化されることを恐れるAI研究者の間で広範な抵抗を呼び起こすのかが明らかになるでしょう。