
Dans un moment décisif pour les relations entre la Silicon Valley et Washington, le PDG d'Anthropic, Dario Amodei, a officiellement rejeté un ultimatum du Département de la Défense des États-Unis. À moins de 24 heures de la date limite du vendredi 27 février 2026, le conflit s'est transformé en un affrontement à enjeux élevés impliquant la sécurité nationale, l'intelligence artificielle éthique (ethical AI) et un contrat gouvernemental de 200 millions de dollars.
Le différend porte sur une directive émise par le secrétaire à la Défense Pete Hegseth plus tôt cette semaine, exigeant qu'Anthropic fournisse au Pentagone une version « sans restriction » de son modèle phare, Claude. L'armée recherche une variante du modèle de langage de grande taille (Large Language Model - LLM) dépourvue de ses garde-fous de sécurité (safety guardrails) pour faciliter la prise de décision tactique et les opérations logistiques classifiées. Le refus d'Amodei, articulé dans une lettre publiée jeudi, ouvre la voie à une potentielle confrontation juridique et réglementaire qui pourrait redéfinir la manière dont les entreprises d'IA privées collaborent avec le secteur de la défense.
Chez Creati.ai, nous suivons de près la divergence entre les normes de sécurité de l'IA commerciale et les exigences opérationnelles militaires. Ce dernier développement marque la première fois qu'un laboratoire d'IA majeur défie ouvertement un mandat opérationnel direct du Pentagone sous la menace d'être inscrit sur liste noire en tant que risque pour la sécurité.
Le cœur du désaccord réside dans les besoins opérationnels spécifiques de l'armée américaine par rapport à l'architecture fondamentale des produits d'Anthropic. Selon des mémos internes divulgués plus tôt cette semaine, le Pentagone soutient que la version commerciale standard de Claude est « opérationnellement inapte » pour des scénarios de défense à enjeux élevés en raison de ses mécanismes de refus (refusal mechanisms).
Les responsables militaires ont exprimé leur frustration quant au fait que les protocoles de sécurité conçus pour prévenir les discours de haine, la génération d'armes chimiques ou les biais politiques entravent la capacité de l'IA à traiter le renseignement brut et à générer des options tactiques pouvant impliquer la force létale ou des stratégies de cyberguerre agressives. L'ultimatum du secrétaire Hegseth était clair : supprimez ces « contraintes civiles » pour l'instance de Claude de qualité militaire, ou faites face à une résiliation immédiate du contrat.
La demande spécifie un déploiement personnalisé du modèle où la « Constitution » — l'ensemble des principes régissant le comportement de l'IA — est remplacée par un cadre spécifique à la mission qui donne la priorité au succès de la mission plutôt qu'à la réduction des dommages. Le Pentagone insiste sur le fait que sans ces modifications, le contrat actuel de 200 millions de dollars pour l'optimisation logistique et la synthèse du renseignement est un gaspillage de l'argent des contribuables.
Dario Amodei a répondu de manière sans équivoque. Dans sa déclaration, le PDG a déclaré qu'Anthropic « ne peut en bonne conscience accéder à des demandes qui compromettent fondamentalement l'architecture de sécurité que nous avons construite ».
Amodei a soutenu qu'accéder à la demande du Pentagone ne serait pas simplement un changement de politique, mais un démantèlement technique de l'approche d'« IA constitutionnelle (Constitutional AI) » de l'entreprise. Il a souligné que la création d'une version « dissidente » de Claude sans filtres de sécurité présente un risque existentiel. Si un tel modèle fuyait ou était rétro-conçu par des adversaires, il pourrait fournir un plan pour des cyberattaques automatisées ou la synthèse d'armes biologiques sans les refus inhérents qui protègent actuellement le public.
D'un point de vue technique, Anthropic affirme que la sécurité n'est pas une fonctionnalité additionnelle qui peut être désactivée comme un interrupteur. Elle est intégrée dans les poids du modèle via l'apprentissage par renforcement à partir de rétroactions humaines (Reinforcement Learning from Human Feedback - RLHF) et la modélisation récursive des récompenses (Recursive Reward Modeling).
« Se conformer à la demande du Département de la Défense de supprimer tous les garde-fous revient effectivement à demander un produit entièrement différent — un produit que nous n'avons ni construit ni testé », a écrit Amodei. Il a en outre averti qu'une IA non alignée, même entre les mains de l'armée américaine, pose des risques imprévisibles concernant l'hallucination et l'escalade dans des scénarios de conflit.
Les enjeux financiers et réputationnels sont immenses. Le secrétaire Hegseth a menacé non seulement d'annuler le contrat existant, mais aussi de désigner officiellement Anthropic comme un « risque pour la chaîne d'approvisionnement (supply chain risk) ».
Cette désignation est l'option nucléaire dans les contrats gouvernementaux. Elle interdirait de fait à Anthropic de concourir pour de futurs contrats fédéraux auprès de toutes les agences, pas seulement le Département de la Défense. De plus, cela pourrait refroidir les relations avec les clients d'entreprise qui maintiennent des normes de conformité strictes exigeant des fournisseurs approuvés par le gouvernement.
Le tableau ci-dessous présente les divergences critiques entre le modèle opérationnel actuel d'Anthropic et les exigences spécifiques du Pentagone pour la date limite de vendredi.
Tableau : Points de conflit entre Anthropic et le Pentagone
| Caractéristique/Politique | Norme d'IA constitutionnelle d'Anthropic | Exigence « sans restriction » du Pentagone |
|---|---|---|
| Garde-fous de sécurité | Refus codés en dur pour les requêtes létales/dangereuses | Suppression de tous les mécanismes de refus pour les données de mission |
| Alignement du modèle | Aligné sur des valeurs humaines larges et la sécurité | Aligné strictement sur les objectifs de mission et la chaîne de commandement |
| Environnement de déploiement | Bac à sable contrôlé avec surveillance | Capacité isolée (air-gapped) mais fonctionnellement autonome |
| Position sur la responsabilité | Le développeur conserve la responsabilité de la sécurité des sorties | Le gouvernement assume la responsabilité ; exige une capacité brute |
L'issue de cet affrontement servira probablement de baromètre pour l'ensemble de l'industrie de l'IA. Des concurrents comme OpenAI et Google DeepMind observent de près. Si le Pentagone réussit à forcer Anthropic à capituler ou à les punir sévèrement pour leur refus, cela établit un précédent selon lequel la « sécurité nationale » l'emporte sur les engagements privés en matière de sécurité.
À l'inverse, si Anthropic maintient sa position et survit aux retombées politiques, cela consolide le rôle des laboratoires privés en tant qu'arbitres ultimes de la sécurité de l'IA, indépendamment des exigences de l'État. Cela soulève des questions complexes concernant la souveraineté et le contrôle des technologies à double usage. En 2026, l'IA est devenue aussi critique que la physique nucléaire l'était au XXe siècle ; cependant, contrairement au Projet Manhattan, le développement reste largement entre des mains privées.
Les analystes du secteur suggèrent que si le label de « risque pour la chaîne d'approvisionnement » est appliqué, Anthropic pourrait être contrainte de se tourner entièrement vers le secteur commercial, ralentissant potentiellement sa vitesse de recherche en raison de la perte de financements gouvernementaux lucratifs. Alternativement, cela pourrait déclencher une bataille juridique atteignant la Cour suprême concernant le pouvoir du gouvernement de contraindre à l'expression (génération de code) des entités privées.
À l'approche de la date limite de vendredi, le silence règne au siège d'Anthropic à San Francisco. Le refus est sur la table, et la balle est désormais dans le camp du Pentagone.
Pour les lecteurs de Creati.ai, cet événement souligne la friction entre les idéaux théoriques de la sécurité de l'IA et les réalités brutales de la concurrence géopolitique. La question de savoir si Claude restera un assistant « utile, honnête et inoffensif » (Helpful, Honest, and Harmless) ou deviendra un outil militarisé de l'État sera probablement tranchée dans les jours à venir. La décision prise le 27 février 2026 n'affectera pas seulement les résultats d'une seule entreprise, mais définira les frontières éthiques du déploiement de l'IA militaire pour la décennie à venir.