
Verteidigungsminister (Defense Secretary) Pete Hegseth hat Anthropic-CEO Dario Amodei heute zu einer kritischen Konfrontation ins Pentagon gerufen, was einen potenziellen Bruchpunkt in der Beziehung zwischen dem US-Militär und dem auf KI-Sicherheit ausgerichteten Labor markiert. Informierte Kreise beschreiben das geplante Treffen als „angespannte Konfrontation“ und einen „Alles-oder-Nichts-Moment“ hinsichtlich der militärischen Nutzung von Anthropics Flaggschiff-KI-Modell Claude.
Die Vorladung folgt auf Monate eskalierender Spannungen zwischen dem Verteidigungsministerium (Department of Defense, DoD) und Anthropic wegen dessen Weigerung, bestimmte Sicherheitsvorkehrungen (Safety Guardrails) aufzuheben. Während das Pentagon massiv darauf drängt, modernste KI in seine „AI-first-Streitmacht“ zu integrieren, bleibt Anthropic standhaft beim Verbot, seine Technologie für die Massenüberwachung von Amerikanern und die Entwicklung vollautonomer tödlicher Waffen einzusetzen.
Hochrangige Verteidigungsbeamte haben Berichten zufolge die Geduld mit dem verloren, was sie als Unternehmensideologie betrachten, die die nationale Sicherheit behindert. Ein Beamter, der unter der Bedingung der Anonymität sprach, charakterisierte das Treffen gegenüber Axios als „kein freundliches Treffen“ und fügte hinzu: „Dies ist ein ‚Friss-oder-stirb‘-Treffen.“ Das DoD droht damit, eine „nukleare Option“ bei Regierungsverträgen zu ziehen: Anthropic als ein „Lieferkettenrisiko (Supply Chain Risk)“ einzustufen.
Der Kern des Streits liegt in der Drohung des Pentagons, Anthropic offiziell als Lieferkettenrisiko (Supply Chain Risk) einzustufen. Diese Bezeichnung ist weit schädlicher als die bloße Kündigung eines einzelnen Vertrags. Falls sie umgesetzt wird, würde sie eine obligatorische Säuberung von Anthropics Technologie in der gesamten Verteidigungsindustrie auslösen.
Derzeit ist Claude das einzige Spitzenmodell (Frontier Model), das in bestimmten geheimen Netzwerken eingesetzt wird, tief integriert über Drittpartner wie Palantir und Amazon Web Services (AWS). Eine Kennzeichnung als „Lieferkettenrisiko“ würde diese Hauptauftragnehmer rechtlich zwingen, die Verbindungen zu Anthropic zu trennen, um ihren eigenen Status bei der Bundesregierung zu wahren.
„Es wird ein enormer Aufwand sein, das zu entflechten, und wir werden sicherstellen, dass sie einen Preis dafür zahlen, dass sie uns so die Hand gezwungen haben“, erklärte ein hochrangiger Pentagon-Beamter. Ein solcher Schritt würde Anthropic effektiv vom öffentlichen Sektor ausschließen, seinen 200-Millionen-Dollar-Pilotvertrag gefährden und den lukrativen Regierungsmarkt verschließen, während Konkurrenten wie OpenAI, Google und xAI sich bereitmachen, die Lücke zu füllen.
Die Spannungen kochten Berichten zufolge nach der Militäroperation in Venezuela am 3. Januar 2026 über, die zur Gefangennahme des ehemaligen Präsidenten Nicolás Maduro führte. Berichte deuten darauf hin, dass Claude während der Operation über die Gotham-Plattform von Palantir zur Analyse von Echtzeit-Geheimdienstinformationen genutzt wurde.
Nach der Razzia forderte Anthropic angeblich Details von Palantir darüber an, wie sein Modell genutzt wurde, unter Berufung auf Konformitätsprüfungen seiner Nutzungsrichtlinien (Usage Policy). Diese Anfrage erzürnte die Pentagon-Führung, die dies als Versuch eines Privatunternehmens betrachtete, eine geheime Militäroperation zu auditieren.
Als Reaktion darauf gab Minister Hegseth am 9. Januar ein Memo heraus, in dem er alle KI-Anbieter aufforderte, „unübliche Einschränkungen“ aus ihren Nutzungsbedingungen zu entfernen, und verlangte, dass Modelle für „alle rechtmäßigen Zwecke“ zur Verfügung gestellt werden. Während Anthropic argumentiert, seine Richtlinien seien wesentliche ethische Leitplanken, betrachtet das DoD sie als „undemokratische“ Hindernisse für rechtmäßige Befehle des Oberbefehlshabers.
Unterstaatssekretär Emil Michael kritisierte Anthropics Haltung Anfang dieser Woche öffentlich und argumentierte, dass Technologieunternehmen bei politischen Entscheidungen nicht über der gewählten Regierung stehen sollten. „Der Kongress verfasst Gesetze, der Präsident unterzeichnet sie, Behörden erstellen Vorschriften, und die Menschen halten sich daran“, sagte Michael vor Reportern. „Was wir nicht tun werden, ist, ein einzelnes Unternehmen über neue Richtlinien entscheiden zu lassen, die über das hinausgehen, was der Kongress verabschiedet hat.“
Der Showdown verdeutlicht eine tiefer werdende Kluft im Silicon Valley. Während Anthropic an seinen Sicherheitslimits der „Constitutional AI“ festhält, passen sich die Wettbewerber rasch dem neuen Standard des Pentagons für „alle rechtmäßigen Nutzungen“ an. Berichte legen nahe, dass xAI und Google kurz vor Vereinbarungen stehen, die dem Militär den geforderten uneingeschränkten Zugang gewähren würden, was Amodei unter immensen Druck setzt, nachzugeben oder die Isolation zu riskieren.
Die folgende Tabelle skizziert die aktuelle Haltung der großen KI-Labore zur militärischen Integration:
KI-Labor-Haltung zur militärischen Integration
| Labor-Name | Primäres Modell | Militärpolitische Haltung | Aktueller DoD-Status |
|---|---|---|---|
| Anthropic | Claude | Restriktiv: Verbietet autonome Waffen (autonomous weapons) & Inlandsüberwachung. | In Prüfung: Drohende Einstufung als „Lieferkettenrisiko“. |
| OpenAI | GPT-4/5 | Moderat: Verbot für „Militär und Kriegsführung“ aufgehoben; erlaubt Nutzung für „nationale Sicherheit“. | Aktiv: Auf der Plattform GenAI.mil eingesetzt. |
| xAI | Grok | Permissiv: Offen für „alle rechtmäßigen Zwecke“ ohne ideologische Einschränkungen. | Verhandelt: Erste Vereinbarungen mit dem DoD unterzeichnet. |
| Gemini | Permissiv: Ausrichtung auf die „AI Acceleration Strategy“ des DoD. | Expandierend: Vertiefung der Integration über Cloud-Verträge. |
Für Dario Amodei hat die Entscheidung existenzielle Bedeutung für die Mission von Anthropic. Das Unternehmen wurde auf der Prämisse von KI-Sicherheit und Interpretierbarkeit gegründet, mit einer „Verfassung“ (Constitution), die Missbrauch verhindern soll. Den Forderungen des Pentagons nachzugeben, die Entwicklung autonomer Waffen zuzulassen, würde grundlegend gegen die Gründungscharta des Unternehmens verstoßen und potenziell seine auf Sicherheit fokussierte Belegschaft entfremden.
Die Alternative jedoch – von dem weltweit größten Kunden auf die schwarze Liste gesetzt und als Sicherheitsrisiko eingestuft zu werden – könnte den Umsatz und den Einfluss des Unternehmens massiv beeinträchtigen. Das Pentagon hat klargestellt: Sie brauchen Werkzeuge, die Befehlen folgen, nicht Werkzeuge, die moralische Fragen stellen.
Während Amodei heute das Pentagon betritt, steht er vor einem Ultimatum, das die Zukunft der militärischen KI definieren wird. Wird Anthropic seine Ethik für das Überleben opfern, oder wird es das erste Opfer der neuen harten KI-Strategie des Pentagons? Die Branche hält den Atem an.