
L'échéance est passée, et le fossé entre le laboratoire d'IA (intelligence artificielle) de la Silicon Valley axé sur la sécurité et l'armée américaine s'est transformé en gouffre. Depuis samedi matin, Anthropic — le créateur des modèles d'IA Claude — a officiellement rejeté un ultimatum du secrétaire à la Défense Pete Hegseth visant à accorder à l'armée un accès sans restriction à sa technologie. En réponse, le Pentagone a agi rapidement pour désigner l'entreprise comme un « risque pour la chaîne d'approvisionnement (supply chain risk) », rompant de fait un contrat de 200 millions de dollars et ouvrant la voie à une confrontation juridique et éthique sans précédent sur la militarisation de l'intelligence artificielle.
Cette confrontation marque un tournant historique pour l'industrie de l'IA. Pour la première fois, un développeur majeur d'IA a risqué ses revenus gouvernementaux et son statut commercial pour maintenir des « lignes rouges » éthiques concernant les armes autonomes (autonomous weapons) et la surveillance de masse, défiant directement la pression de l'administration Trump pour supprimer ce qu'elle appelle les contraintes « woke » sur la technologie militaire.
La crise a atteint son paroxysme le vendredi 27 février, date limite fixée par le secrétaire Hegseth pour qu'Anthropic capitule. Plus tôt dans la semaine, Hegseth avait convoqué le PDG d'Anthropic, Dario Amodei, au Pentagone, délivrant un message sans détour : supprimez les « garde-fous » qui empêchent Claude d'être utilisé pour des chaînes de destruction autonomes et la surveillance intérieure, ou faites face à tout le poids du gouvernement fédéral.
Selon des sources proches des négociations, le Pentagone a exigé un « accès sans entrave » aux capacités de Claude, arguant que dans une ère de compétition entre grandes puissances, l'armée américaine ne peut être entravée par les politiques éthiques des entreprises. Hegseth, qui a juré de purger la « culture woke » des forces armées, a spécifiquement ciblé le cadre d'« IA constitutionnelle (Constitutional AI) » d'Anthropic — un système de sécurité conçu pour empêcher le modèle de générer du contenu nocif, illégal ou contraire à l'éthique — comme un handicap pour la sécurité nationale.
Dans une déclaration publiée peu avant l'échéance, Amodei est resté ferme. « Nous ne pouvons pas, en toute conscience, accéder à ces demandes », a écrit le PDG. Il a réitéré que si Anthropic soutient les applications militaires défensives légitimes, elle trace une ligne infranchissable sur deux cas d'utilisation spécifiques : la surveillance intérieure de masse des citoyens américains et les systèmes de ciblage entièrement autonomes où l'IA prend des décisions mortelles sans intervention humaine.
Les conséquences de ce refus ont commencé à se matérialiser tard vendredi soir. Le département de la Défense (DoD) a entamé des procédures pour classer Anthropic comme un « risque pour la chaîne d'approvisionnement ». Cette désignation est bien plus dommageable qu'une simple annulation de contrat ; elle fonctionne de fait comme une mise sur liste noire.
Implications de la désignation « Risque pour la chaîne d'approvisionnement » :
Le plus alarmant pour l'industrie technologique a sans doute été la menace de Hegseth d'invoquer la loi sur la production de défense (Defense Production Act - DPA). Promulguée à l'origine pendant la guerre de Corée, la DPA accorde au président des pouvoirs étendus pour forcer les entreprises privées à donner la priorité aux contrats gouvernementaux et à contrôler la distribution des matériaux critiques. Les experts juridiques préviennent que l'utilisation de la DPA pour saisir la propriété intellectuelle — spécifiquement les poids du modèle d'une IA propriétaire — ou pour forcer une entreprise à modifier son code contre ses protocoles de sécurité constituerait une expansion sans précédent du pouvoir exécutif.
La friction entre les deux camps était palpable lors de la réunion de mardi qui a précipité l'échéance. Des sources ont décrit la rencontre comme « cordiale mais froide », Hegseth accusant Anthropic de donner la priorité à l'éthique abstraite de la Silicon Valley plutôt qu'aux vies américaines.
Hegseth aurait juxtaposé la réticence d'Anthropic à la coopération d'autres firmes d'IA. Il a explicitement mentionné xAI, la société d'intelligence artificielle d'Elon Musk, qui a déjà accepté une clause d'« utilisation licite » ne prévoyant aucune restriction technique spécifique sur les applications militaires. L'argument du secrétaire à la Défense présente les mesures de sécurité de l'IA (AI safety) non pas comme de la prudence, mais comme des « contraintes idéologiques » qui affaiblissent le combattant américain.
Pour Amodei, le refus est cohérent avec la mission fondatrice d'Anthropic. L'entreprise a été créée par d'anciens chercheurs d'OpenAI spécifiquement pour éviter les raccourcis en matière de sécurité qui, selon eux, affligeaient l'industrie. Capituler devant la demande du Pentagone pour une capacité de ciblage autonome aurait été une trahison de la structure centrale de l'entreprise, le « Long-Term Benefit Trust ».
Le différend porte sur deux visions fondamentalement différentes de l'utilité et du risque de l'IA. Le tableau ci-dessous expose les points de contention spécifiques qui ont conduit à la résiliation du contrat.
Tableau 1 : Les exigences du Pentagone contre les limites éthiques d'Anthropic
| Point de discorde | Exigence du Pentagone (Doctrine Hegseth) | Position d'Anthropic (IA constitutionnelle) |
|---|---|---|
| Armes autonomes | Intégration complète de l'IA dans les « chaînes de destruction » pour accélérer la létalité et la vitesse de prise de décision. | Interdiction stricte de laisser l'IA prendre des décisions de ciblage mortelles sans un contrôle humain significatif. |
| Surveillance intérieure | Utilisation de l'IA pour analyser des masses de données pour la sécurité intérieure et la détection des menaces. | Refus de permettre que les modèles soient utilisés pour la surveillance de masse des citoyens américains ou le suivi de la dissidence. |
| Protocoles de sécurité | Suppression des filtres « idéologiques » (étiquetés « IA woke ») qui limitent l'utilité militaire. | Maintien des garde-fous de sécurité pour prévenir les abus, les biais et la violation des droits de l'homme. |
| Contrôle contractuel | Licence sans restriction pour utiliser le modèle à « toutes fins licites » définies par le pouvoir exécutif. | Conditions de service qui interdisent explicitement des catégories spécifiques à haut risque, indépendamment de la légalité. |
Le défi d'Anthropic la laisse isolée parmi les « quatre grands » laboratoires d'IA dans sa relation avec le secteur de la défense.
Cet isolement pose un risque financier sévère. La perte du contrat de 200 millions de dollars est significative, mais les dommages réputationnels dans le secteur gouvernemental pourraient coûter des milliards en revenus futurs. Cependant, dans le secteur commercial, cette initiative pourrait consolider la marque d'Anthropic en tant qu'alternative d'IA « digne de confiance » pour les entreprises méfiantes vis-à-vis des abus gouvernementaux et de la confidentialité des données.
La bataille juridique ne fait probablement que commencer. Si le Pentagone va de l'avant avec une action d'exécution de la DPA pour saisir les poids du modèle d'Anthropic ou forcer des modifications de code, l'affaire finira presque certainement devant la Cour suprême. La question juridique centrale sera de savoir si le code constitue un discours contraint et si le gouvernement peut forcer une entité privée à construire une arme contre sa volonté.
Pour l'instant, le message du Pentagone est clair : dans la course à la dominance de l'IA, les freins de sécurité sont considérés comme un défaut, pas comme une fonctionnalité. Et pour Anthropic, le prix de ses principes est sur le point de devenir très élevé.
Les semaines à venir détermineront si d'autres géants de la technologie s'aligneront sur la doctrine militaire « anti-woke » de Hegseth ou si la position d'Anthropic galvanisera une résistance plus large parmi les chercheurs en IA qui craignent que leurs créations ne soient militarisées plus rapidement qu'elles ne peuvent être contrôlées.