
Die Frist ist abgelaufen, und die Kluft zwischen dem auf Sicherheit fokussierten KI-Labor (AI lab) im Silicon Valley und dem US-Militär hat sich zu einem Abgrund ausgeweitet. Seit Samstagmorgen hat Anthropic—der Hersteller der Claude-KI-Modelle—ein Ultimatum von Verteidigungsminister (Defense Secretary) Pete Hegseth offiziell abgelehnt, dem Militär uneingeschränkten Zugang zu seiner Technologie zu gewähren. Als Reaktion darauf hat das Pentagon rasch gehandelt und das Unternehmen als „Lieferkettenrisiko“ (Supply Chain Risk) eingestuft, wodurch ein 200-Millionen-Dollar-Vertrag effektiv aufgelöst wurde. Dies bereitet die Bühne für einen beispiellosen rechtlichen und ethischen Machtkampf über die Militarisierung künstlicher Intelligenz (Artificial Intelligence, AI).
Diese Konfrontation markiert einen historischen Wendepunkt für die KI-Branche. Zum ersten Mal hat ein bedeutender KI-Entwickler seine Regierungseinnahmen und seine kommerzielle Stellung aufs Spiel gesetzt, um ethische „rote Linien“ in Bezug auf autonome Waffen (autonomous weapons) und Massenüberwachung aufrechtzuerhalten, und fordert damit direkt das Bestreben der Trump-Administration heraus, die sogenannten „woken“ Beschränkungen für Militärtechnologie aufzuheben.
Die Krise spitzte sich am Freitag, dem 27. Februar, zu – der von Minister Hegseth gesetzten Frist für Anthropic, einzulenken. Anfang der Woche hatte Hegseth den Anthropic-CEO Dario Amodei ins Pentagon gerufen und eine klare Botschaft übermittelt: Entfernen Sie die „Leitplanken“ (Guardrails), die verhindern, dass Claude für autonome Tötungsketten und inländische Überwachung eingesetzt wird, oder spüren Sie die volle Härte der Bundesregierung.
Laut Quellen, die den Verhandlungen nahestehen, forderte das Pentagon einen „ungehinderten Zugang“ zu den Fähigkeiten von Claude und argumentierte, dass das US-Militär in einer Ära des Großmachtwettbewerbs nicht durch ethische Richtlinien von Unternehmen behindert werden dürfe. Hegseth, der geschworen hat, die „woke Kultur“ aus den Streitkräften zu verbannen, nahm speziell das „Constitutional AI“-Framework von Anthropic ins Visier – ein Sicherheitssystem, das verhindern soll, dass das Modell schädliche, illegale oder unethische Inhalte generiert – und bezeichnete es als Risiko für die nationale Sicherheit.
In einer kurz vor Ablauf der Frist veröffentlichten Erklärung blieb Amodei standhaft. „Wir können diesen Forderungen nicht guten Gewissens nachgeben“, schrieb der CEO. Er bekräftigte, dass Anthropic zwar legitime defensive militärische Anwendungen unterstütze, aber bei zwei spezifischen Anwendungsfällen eine klare Grenze ziehe: Massenüberwachung von US-Bürgern im Inland und vollständig autonome Zielsysteme, bei denen die KI tödliche Entscheidungen ohne menschliches Eingreifen trifft.
Die Folgen dieser Weigerung begannen sich am späten Freitagabend abzuzeichnen. Das Verteidigungsministerium (Department of Defense, DoD) leitete ein Verfahren ein, um Anthropic als „Lieferkettenrisiko (supply chain risk)“ einzustufen. Diese Bezeichnung ist weitaus schädlicher als eine einfache Vertragskündigung; sie fungiert faktisch als schwarze Liste.
Auswirkungen der Einstufung als „Lieferkettenrisiko“:
Vielleicht am alarmierendsten für die Tech-Branche war Hegseths Drohung, das Gesetz zur Verteidigungsproduktion (Defense Production Act, DPA) anzuwenden. Das ursprünglich während des Koreakriegs verabschiedete DPA gewährt dem Präsidenten weitreichende Befugnisse, um private Unternehmen zu zwingen, Regierungsaufträge vorrangig zu behandeln und die Verteilung kritischer Materialien zu kontrollieren. Rechtsexperten warnen, dass die Nutzung des DPA zur Beschlagnahmung geistigen Eigentums – insbesondere der Modellgewichte einer proprietären KI – oder um ein Unternehmen zu zwingen, seinen Code gegen seine Sicherheitsprotokolle zu ändern, eine beispiellose Ausweitung der exekutiven Macht wäre.
Die Reibung zwischen den beiden Lagern war während des Treffens am Dienstag, das dem Ultimatum vorausging, deutlich spürbar. Quellen beschrieben die Begegnung als „höflich, aber kühl“, wobei Hegseth Anthropic vorwarf, abstrakte Ethik aus dem Silicon Valley über amerikanische Leben zu stellen.
Hegseth stellte Berichten zufolge die Widerspenstigkeit von Anthropic der Kooperation anderer KI-Firmen gegenüber. Er erwähnte explizit xAI, Elon Musks Unternehmen für künstliche Intelligenz, das bereits einer Klausel zur „rechtmäßigen Nutzung“ zugestimmt hat, die keine spezifischen technischen Einschränkungen für militärische Anwendungen vorsieht. Das Argument des Verteidigungsministers stellt KI-Sicherheit (AI safety) nicht als Vorsicht dar, sondern als „ideologische Einschränkungen“, die den US-Kämpfer schwächen.
Für Amodei steht die Ablehnung im Einklang mit der Gründungsmission von Anthropic. Das Unternehmen wurde von ehemaligen OpenAI-Forschern speziell gegründet, um Sicherheitsabkürzungen zu vermeiden, von denen sie glaubten, dass sie die Branche plagen. Den Forderungen des Pentagons nach autonomen Zielfähigkeiten nachzugeben, wäre ein Verrat an der Kernstruktur des Unternehmens, dem „Long-Term Benefit Trust“, gewesen.
Der Streit dreht sich um zwei grundlegend unterschiedliche Ansichten über den Nutzen und die Risiken von KI. Die folgende Tabelle skizziert die spezifischen Streitpunkte, die zur Kündigung des Vertrags führten.
Tabelle 1: Die Forderungen des Pentagons vs. die ethischen Grenzen von Anthropic
| Streitpunkt | Forderung des Pentagons (Hegseth-Doktrin) | Haltung von Anthropic (Constitutional AI) |
|---|---|---|
| Autonome Waffen | Vollständige Integration von KI in „Tötungsketten“, um die Letalität und Entscheidungsgeschwindigkeit zu erhöhen. | Striktes Verbot für KI, tödliche Zielentscheidungen ohne maßgebliche menschliche Kontrolle zu treffen. |
| Inländische Überwachung | Einsatz von KI zur Analyse von Massendaten für die interne Sicherheit und Bedrohungserkennung. | Weigerung, Modelle für die Massenüberwachung von US-Bürgern oder die Verfolgung von Andersdenkenden zuzulassen. |
| Sicherheitsprotokolle | Entfernung „ideologischer“ Filter (bezeichnet als „woke KI“), die den militärischen Nutzen einschränken. | Aufrechterhaltung von Sicherheits-Leitplanken, um Missbrauch, Voreingenommenheit und Menschenrechtsverletzungen zu verhindern. |
| Vertragliche Kontrolle | Uneingeschränkte Lizenz zur Nutzung des Modells für „alle rechtmäßigen Zwecke“, wie sie von der Exekutive definiert werden. | Dienstleistungsbedingungen, die bestimmte Hochrisikokategorien ungeachtet der Rechtmäßigkeit explizit verbieten. |
Der Widerstand von Anthropic lässt das Unternehmen unter den „Big Four“ der KI-Labore in seiner Beziehung zum Verteidigungssektor isoliert zurück.
Diese Isolation stellt ein erhebliches finanzielles Risiko dar. Der Verlust des 200-Millionen-Dollar-Vertrags ist bedeutend, aber der Reputationsschaden im Regierungssektor könnte Milliarden an zukünftigen Einnahmen kosten. Im kommerziellen Sektor könnte dieser Schritt jedoch die Marke von Anthropic als „vertrauenswürdige“ KI-Alternative für Unternehmen festigen, die gegenüber staatlichen Übergriffen und Datenschutzbedenken misstrauisch sind.
Der Rechtsstreit steht wahrscheinlich erst am Anfang. Wenn das Pentagon mit einer DPA-Vollstreckungsmaßnahme fortfährt, um die Modellgewichte von Anthropic zu beschlagnahmen oder Codeänderungen zu erzwingen, wird der Fall fast sicher vor dem Obersten Gerichtshof (Supreme Court) landen. Die zentrale Rechtsfrage wird sein, ob Code als erzwungene Rede (compelled speech) gilt und ob die Regierung eine private Einheit zwingen kann, gegen ihren Willen eine Waffe zu bauen.
Vorerst ist die Botschaft des Pentagons klar: Im Rennen um die KI-Dominanz werden Sicherheitsbremsen als Defekt und nicht als Feature betrachtet. Und für Anthropic wird der Preis seiner Prinzipien in Kürze sehr hoch werden.
Die kommenden Wochen werden zeigen, ob andere Tech-Giganten sich Hegseths „Anti-Woke“-Militärdoktrin anschließen werden oder ob der Widerstand von Anthropic einen breiteren Widerstand unter KI-Forschern auslösen wird, die fürchten, dass ihre Schöpfungen schneller militarisiert werden, als sie kontrolliert werden können.