
In einem entscheidenden Moment für die Beziehung zwischen dem Silicon Valley und Washington hat Anthropic-CEO Dario Amodei offiziell ein Ultimatum des US-Verteidigungsministeriums (U.S. Department of Defense) abgelehnt. Weniger als 24 Stunden vor Ablauf der Frist am Freitag, dem 27. Februar 2026, ist der Konflikt zu einer hochriskanten Pattsituation eskaliert, in der es um nationale Sicherheit, ethische Künstliche Intelligenz (Artificial Intelligence) und einen Regierungsauftrag in Höhe von 200 Millionen Dollar geht.
Der Streit dreht sich um eine Richtlinie, die Verteidigungsminister Pete Hegseth Anfang dieser Woche erlassen hat und die von Anthropic verlangt, dem Pentagon eine „uneingeschränkte“ Version seines Flaggschiff-Modells Claude zur Verfügung zu stellen. Das Militär strebt eine Variante des Großen Sprachmodells (Large Language Model, LLM) an, die von ihren Sicherheitsvorkehrungen befreit ist, um bei taktischen Entscheidungen und geheimen logistischen Operationen zu helfen. Amodeis Ablehnung, die in einem am Donnerstag öffentlich veröffentlichten Brief formuliert wurde, bereitet die Bühne für einen potenziellen rechtlichen und regulatorischen Showdown, der die Art und Weise, wie private KI-Unternehmen mit dem Verteidigungssektor zusammenarbeiten, neu definieren könnte.
Bei Creati.ai haben wir die Divergenz zwischen kommerziellen KI-Sicherheitsstandards und militärischen operativen Anforderungen genau beobachtet. Diese neueste Entwicklung markiert das erste Mal, dass ein bedeutendes KI-Labor offen einem direkten operativen Mandat des Pentagon unter der Drohung widersprochen hat, als Sicherheitsrisiko auf die schwarze Liste gesetzt zu werden.
Der Kern der Uneinigkeit liegt in den spezifischen operativen Bedürfnissen des US-Militärs gegenüber der grundlegenden Architektur der Produkte von Anthropic. Laut internen Memos, die Anfang dieser Woche durchgesickert sind, argumentiert das Pentagon, dass die standardmäßige kommerzielle Version von Claude aufgrund ihrer Verweigerungsmechanismen für hochriskante Verteidigungsszenarien „operativ ungeeignet“ sei.
Militärvertreter äußerten ihre Frustration darüber, dass Sicherheitsprotokolle, die Hassrede, die Erzeugung chemischer Waffen oder politische Voreingenommenheit verhindern sollen, die Fähigkeit der KI behindern, Rohdaten zu verarbeiten und taktische Optionen zu generieren, die tödliche Gewalt oder aggressive Strategien der Cyber-Kriegsführung beinhalten können. Das Ultimatum von Minister Hegseth war klar: Entfernen Sie diese „zivilen Beschränkungen“ für die militärische Instanz von Claude, oder es droht die sofortige Kündigung des Vertrags.
Die Forderung spezifiziert einen maßgeschneiderten Einsatz des Modells, bei dem die „Verfassung“ (Constitution) – die Gesamtheit der Prinzipien, die das Verhalten der KI steuern – durch einen missionsspezifischen Rahmen ersetzt wird, der den Missionserfolg über die Schadensbegrenzung stellt. Das Pentagon besteht darauf, dass ohne diese Modifikationen der aktuelle 200-Millionen-Dollar-Vertrag für logistische Optimierung und Intelligenzsynthese eine Verschwendung von Steuergeldern sei.
Die Antwort von Dario Amodei war eindeutig. In seiner Erklärung erklärte der CEO, dass Anthropic „Forderungen, die die von uns aufgebaute Sicherheitsarchitektur grundlegend gefährden, nicht mit gutem Gewissen zustimmen kann“.
Amodei argumentierte, dass die Zustimmung zur Anfrage des Pentagons nicht bloß eine Richtlinienänderung, sondern ein technischer Rückbau des Ansatzes der „Konstitutionellen KI (Constitutional AI)“ des Unternehmens wäre. Er betonte, dass die Erstellung einer „unkontrollierten“ Version von Claude ohne Sicherheitsfilter ein existenzielles Risiko darstellt. Falls ein solches Modell durchsickern oder von Gegnern mittels Reverse Engineering analysiert werden sollte, könnte es eine Blaupause für automatisierte Cyberangriffe oder die Synthese biologischer Waffen liefern, ohne die inhärenten Verweigerungen, die derzeit die Öffentlichkeit schützen.
Aus technischer Sicht behauptet Anthropic, dass Sicherheit kein Zusatzfeature ist, das wie ein Lichtschalter ausgeschaltet werden kann. Sie ist über Reinforcement Learning from Human Feedback (RLHF) und rekursive Belohnungsmodellierung (Recursive Reward Modeling) in die Gewichte des Modells eintrainiert.
„Der Aufforderung des Verteidigungsministeriums nachzukommen, alle Schutzvorkehrungen zu entfernen, bedeutet effektiv, ein völlig anderes Produkt anzufordern – eines, das wir weder gebaut noch getestet haben“, schrieb Amodei. Er warnte weiter, dass eine nicht ausgerichtete (unaligned) KI, selbst in den Händen des US-Militärs, unvorhersehbare Risiken hinsichtlich Halluzinationen und Eskalation in Konfliktszenarien birgt.
Die finanziellen und reputationsbezogenen Einsätze sind immens. Minister Hegseth hat gedroht, nicht nur den bestehenden Vertrag zu kündigen, sondern Anthropic offiziell als „Lieferkettenrisiko (supply chain risk)“ einzustufen.
Diese Einstufung ist eine „nukleare Option“ im öffentlichen Auftragswesen. Sie würde Anthropic faktisch davon ausschließen, sich um künftige Bundesaufträge aller Behörden zu bewerben, nicht nur des Verteidigungsministeriums. Darüber hinaus könnte dies die Beziehungen zu Unternehmenskunden belasten, die strenge Compliance-Standards einhalten müssen und von der Regierung zugelassene Anbieter verlangen.
Die folgende Tabelle skizziert die entscheidenden Divergenzen zwischen dem aktuellen Betriebsmodell von Anthropic und den spezifischen Anforderungen des Pentagons für die Frist am Freitag.
Tabelle: Konfliktpunkte zwischen Anthropic und dem Pentagon
| Merkmal/Richtlinie | Anthropics Constitutional AI Standard | Die „uneingeschränkte“ Anforderung des Pentagons |
|---|---|---|
| Sicherheitsvorkehrungen | Fest codierte Verweigerungen für tödliche/schädliche Anfragen | Entfernung aller Verweigerungsmechanismen für Missionsdaten |
| Modell-Alignment | Ausgerichtet an breiten menschlichen Werten und Sicherheit | Strikt an Missionszielen und der Befehlskette ausgerichtet |
| Bereitstellungsumgebung | Kontrollierte Sandbox mit Überwachung | Air-Gapped (vom Internet getrennt), aber funktional autonome Fähigkeit |
| Haftungsposition | Entwickler behält Verantwortung für die Sicherheit der Ergebnisse | Regierung übernimmt Haftung; fordert ungefilterte Leistungsfähigkeit |
Der Ausgang dieser Kraftprobe wird wahrscheinlich als Wegweiser für die gesamte KI-Branche dienen. Wettbewerber wie OpenAI und Google DeepMind beobachten die Situation genau. Falls das Pentagon Anthropic erfolgreich zur Kapitulation zwingt oder sie für die Ablehnung hart bestraft, etabliert dies einen Präzedenzfall, wonach die „Nationale Sicherheit“ private Sicherheitsverpflichtungen außer Kraft setzt.
Umgekehrt, wenn Anthropic standhaft bleibt und die politischen Folgen übersteht, festigt dies die Rolle privater Labore als ultimative Schiedsrichter über die KI-Sicherheit, unabhängig von staatlichen Forderungen. Dies wirft komplexe Fragen zur Souveränität und zur Kontrolle von Dual-Use-Technologien (doppelt verwendbaren Technologien) auf. Bis zum Jahr 2026 ist KI so entscheidend geworden wie die Kernphysik im 20. Jahrhundert; im Gegensatz zum Manhattan-Projekt bleibt die Entwicklung jedoch weitgehend in privater Hand.
Branchenanalysten vermuten, dass Anthropic im Falle einer Einstufung als „Lieferkettenrisiko“ gezwungen sein könnte, sich vollständig auf den kommerziellen Sektor zu konzentrieren, was die Forschungsgeschwindigkeit aufgrund des Verlusts lukrativer Regierungsgelder potenziell verlangsamen würde. Alternativ könnte dies einen Rechtsstreit auslösen, der bis vor den Obersten Gerichtshof (Supreme Court) reicht und die Befugnis der Regierung betrifft, private Unternehmen zur Rede (Code-Generierung) zu zwingen.
Während die Frist am Freitag näher rückt, herrscht im Hauptquartier von Anthropic in San Francisco Schweigen. Die Ablehnung liegt auf dem Tisch, und der Ball liegt nun im Spielfeld des Pentagons.
Für die Leser von Creati.ai unterstreicht dieses Ereignis die Reibung zwischen den theoretischen Idealen der KI-Sicherheit und den brutalen Realitäten des geopolitischen Wettbewerbs. Ob Claude ein „hilfreicher, ehrlicher und harmloser“ Assistent bleibt oder zu einem bewaffneten Werkzeug des Staates wird, wird sich wahrscheinlich in den kommenden Tagen entscheiden. Die am 27. Februar 2026 getroffene Entscheidung wird nicht nur das Ergebnis eines einzelnen Unternehmens beeinflussen, sondern die ethischen Grenzen des militärischen KI-Einsatzes für das kommende Jahrzehnt definieren.