
Le secrétaire à la Défense Pete Hegseth a convoqué le PDG d'Anthropic, Dario Amodei, au Pentagone pour une confrontation critique aujourd'hui, marquant un point de rupture potentiel dans la relation entre l'armée américaine et le laboratoire axé sur la sécurité de l'IA (Intelligence Artificielle). Des sources proches du dossier décrivent la réunion prévue comme une « confrontation tendue » et un « moment décisif » concernant l'utilisation par l'armée du modèle d'IA phare d'Anthropic, Claude.
Cette convocation fait suite à des mois de frictions croissantes entre le Département de la Défense (DoD) et Anthropic concernant le refus de ce dernier de lever certaines barrières de sécurité spécifiques. Alors que le Pentagone pousse agressivement à intégrer l'IA de pointe (Frontier AI) dans sa « force de combat axée sur l'IA », Anthropic est resté ferme dans l'interdiction d'utiliser sa technologie pour la surveillance de masse des Américains et le développement d'armes létales entièrement autonomes.
De hauts responsables de la Défense auraient perdu patience face à ce qu'ils considèrent comme une idéologie d'entreprise entravant la sécurité nationale. Un responsable, s'exprimant sous couvert d'anonymat, a caractérisé la réunion auprès d'Axios comme n'étant « pas une réunion amicale », ajoutant : « C'est une réunion du type "soit on agit, soit on dégage" ». Le DoD menace de déployer une « option nucléaire » dans les contrats gouvernementaux : étiqueter Anthropic comme un « risque pour la chaîne d'approvisionnement (Supply Chain Risk) ».
Le cœur du différend réside dans la menace du Pentagone de désigner formellement Anthropic comme un risque pour la chaîne d'approvisionnement. Cette désignation est bien plus préjudiciable que l'annulation pure et simple d'un seul contrat. Si elle était mise en œuvre, elle déclencherait une purge obligatoire de la technologie d'Anthropic dans l'ensemble de la base industrielle de défense.
Actuellement, Claude est le seul modèle de pointe déployé au sein de certains réseaux classifiés, profondément intégré via des partenaires tiers comme Palantir et Amazon Web Services (AWS). Une étiquette de « risque pour la chaîne d'approvisionnement » contraindrait légalement ces principaux contractants à rompre leurs liens avec Anthropic pour maintenir leur propre position auprès du gouvernement fédéral.
« Ce sera un calvaire énorme à démêler, et nous allons nous assurer qu'ils paient le prix fort pour nous avoir ainsi forcé la main », a déclaré un haut responsable du Pentagone. Une telle mesure exclurait de fait Anthropic du secteur public, compromettant son contrat pilote de 200 millions de dollars et fermant le lucratif marché gouvernemental, tandis que des concurrents comme OpenAI, Google et xAI s'apprêtent à combler le vide.
Les tensions auraient débordé à la suite de l'opération militaire du 3 janvier 2026 au Venezuela, qui a abouti à la capture de l'ancien président Nicolás Maduro. Des rapports indiquent que Claude a été utilisé pendant l'opération via la plateforme Gotham de Palantir pour analyser des renseignements en temps réel.
À la suite du raid, Anthropic aurait demandé des détails à Palantir sur la manière dont son modèle a été utilisé, invoquant ses vérifications de conformité à la politique d'utilisation. Cette demande a exaspéré la direction du Pentagone, qui y a vu une tentative d'une entreprise privée d'auditer une opération militaire classifiée.
En réponse, le secrétaire Hegseth a publié un mémo le 9 janvier exhortant tous les fournisseurs d'IA à supprimer les « restrictions non standard » de leurs conditions de service, exigeant que les modèles soient mis à disposition pour « toutes les fins licites ». Tandis qu'Anthropic soutient que ses politiques sont des garde-fous éthiques essentiels, le DoD les considère comme des obstructions « non démocratiques » à des ordres légaux émis par le commandant en chef.
Le sous-secrétaire Emil Michael a publiquement critiqué la position d'Anthropic plus tôt cette semaine, affirmant que les entreprises technologiques ne devraient pas se substituer au gouvernement élu pour les décisions politiques. « Le Congrès rédige des projets de loi, le président les signe, les agences rédigent des règlements et les gens s'y conforment », a déclaré Michael aux journalistes. « Ce que nous n'allons pas faire, c'est laisser une entreprise dicter un nouvel ensemble de politiques au-delà de ce que le Congrès a adopté. »
Cette épreuve de force met en lumière une fracture croissante dans la Silicon Valley. Tandis qu'Anthropic s'accroche aux limites de sécurité de son « IA constitutionnelle » (Constitutional AI), ses concurrents s'alignent rapidement sur la nouvelle norme du Pentagone de « toutes les utilisations licites ». Des rapports suggèrent que xAI et Google sont sur le point de conclure des accords qui accorderaient à l'armée l'accès sans restriction qu'elle exige, exerçant une pression immense sur Amodei pour qu'il capitule ou fasse face à l'isolement.
Le tableau suivant présente la position actuelle des principaux laboratoires d'IA concernant l'intégration militaire :
Position des laboratoires d'IA sur l'intégration militaire
| Nom du labo | Modèle principal | Position de la politique militaire | Statut actuel du DoD |
|---|---|---|---|
| Anthropic | Claude | Restrictif : Interdit les armes autonomes et la surveillance domestique. | En cours d'examen : Risque d'étiquetage « Risque pour la chaîne d'approvisionnement ». |
| OpenAI | GPT-4/5 | Modéré : Suppression de l'interdiction « militaire et guerre » ; autorise l'usage pour la « sécurité nationale ». | Actif : Déployé sur la plateforme GenAI.mil. |
| xAI | Grok | Permissif : Ouvert à « toutes les fins licites » sans restrictions idéologiques. | En négociation : Signature d'accords initiaux avec le DoD. |
| Gemini | Permissif : Alignement sur la « Stratégie d'accélération de l'IA » du DoD. | En expansion : Approfondissement de l'intégration via des contrats cloud. |
Pour Dario Amodei, la décision revêt un poids existentiel pour la mission d'Anthropic. L'entreprise a été fondée sur le principe de la sécurité et de l'interprétabilité de l'IA, avec une « Constitution » conçue pour prévenir les abus. Capituler devant l'exigence du Pentagone d'autoriser le développement d'armements autonomes violerait fondamentalement la charte fondatrice de l'entreprise et pourrait potentiellement s'aliéner son personnel axé sur la sécurité.
Cependant, l'alternative — être mis sur liste noire par le plus gros client au monde et être étiqueté comme un risque pour la sécurité — pourrait gravement entraver les revenus et l'influence de l'entreprise. Le Pentagone a été clair : il a besoin d'outils qui suivent les ordres, pas d'outils qui posent des questions morales.
Alors qu'Amodei entre au Pentagone aujourd'hui, il fait face à un ultimatum qui définira l'avenir de l'IA militaire. Anthropic compromettra-t-elle son éthique pour sa survie, ou deviendra-t-elle la première victime de la nouvelle stratégie de ligne dure du Pentagone en matière d'IA ? L'industrie retient son souffle.