
Par l'équipe éditoriale de Creati.ai
Dans une démarche qui a provoqué une onde de choc au sein de la communauté de l'IA open-source, Google a suspendu les comptes de nombreux développeurs utilisant sa plateforme Antigravity conjointement avec le framework d'agent autonome populaire, OpenClaw. La répression, qui a commencé tard dans la soirée du dimanche 23 février 2026, cible les utilisateurs ayant intégré l'outil d'agent open-source au backend de l'IDE alimenté par l'IA de Google, invoquant un « usage malveillant » et une surcharge sévère de l'infrastructure.
L'incident met en évidence une fracture croissante dans l'écosystème de l'IA : la collision entre les demandes de ressources effrénées des agents autonomes et les réalités économiques des fournisseurs de modèles centralisés. Avec des rapports signalant que des utilisateurs perdent l'accès non seulement à leurs environnements de développement mais potentiellement à l'ensemble des services Google, l'événement a ravivé les craintes concernant le verrouillage par le fournisseur (vendor lock-in) et la fragilité de construire sur des plateformes fermées.
La controverse a éclaté lorsque les utilisateurs d'Antigravity — l'IDE axé sur les agents (agent-first IDE) lancé par Google en novembre 2025 — ont commencé à recevoir des avis de suspension de compte immédiats. Le dénominateur commun parmi les utilisateurs concernés était l'intégration d'OpenClaw (anciennement Moltbot), un framework open-source créé par Peter Steinberger qui permet aux développeurs d'exécuter des agents autonomes localement tout en acheminant les tâches d'inférence (inference) vers de puissants modèles cloud.
Varun Mohan, responsable de l'ingénierie pour Google Antigravity et ancien PDG de Windsurf, a abordé les interdictions dans une déclaration sur X (anciennement Twitter). Mohan a défendu la décision, affirmant que l'entreprise avait détecté une « augmentation massive de l'usage malveillant » ciblant le backend d'Antigravity.
« Nous devions trouver un moyen de couper rapidement l'accès à ces utilisateurs qui n'utilisent pas le produit comme prévu », a déclaré Mohan. « Cet usage a considérablement dégradé la qualité de service pour nos utilisateurs réels. »
Mohan a précisé que les interdictions étaient censées être limitées au service Antigravity lui-même, bien qu'il ait reconnu que certains utilisateurs auraient pu ignorer qu'ils violaient les conditions d'utilisation (ToS). Cependant, il a souligné que le backend d'Antigravity n'avait jamais été conçu pour servir de proxy à haut débit pour des essaims d'agents tiers comme OpenClaw, qui peuvent générer des milliers d'appels d'inférence en quelques minutes.
La définition de « malveillant » est devenue le point central de la discorde. Contrairement aux attaques DDoS traditionnelles ou au bourrage d'identifiants (credential stuffing), les utilisateurs bannis soutiennent qu'ils étaient des abonnés légitimes et payants au niveau Gemini AI Ultra de Google ou aux forfaits pro d'Antigravity.
La frustration principale provient de l'absence d'avertissement. Les développeurs soutiennent que l'utilisation de quotas d'API payants via une interface tierce — même une interface à haut volume comme OpenClaw — devrait faire l'objet d'une limitation de débit (throttling), et non d'un bannissement.
« Ce n'est pas du piratage malveillant ; c'est l'utilisation du produit que vous nous avez vendu », a écrit un développeur concerné sur le forum des développeurs Google AI. « Si je paie pour un quota, pourquoi est-ce important si je l'utilise via l'IDE Antigravity ou via OpenClaw agissant comme mon IDE ? Si l'infrastructure ne peut pas supporter la charge, implémentez des limites de débit. Ne bannissez pas mon compte. »
La confusion s'est encore aggravée en raison de rapports contradictoires concernant la portée des interdictions. Alors que Mohan affirmait que les restrictions étaient isolées à Antigravity, les réseaux sociaux ont été inondés de rapports d'utilisateurs affirmant que leur accès complet à Google Workspace — y compris Gmail et Drive — avait été temporairement verrouillé, un scénario qui représente un risque commercial catastrophique pour les développeurs indépendants.
Peter Steinberger, le créateur d'OpenClaw qui a récemment rejoint OpenAI pour diriger leur division d'agents personnels, n'a pas mâché ses mots concernant les tactiques d'application de Google.
« Assez draconien de la part de Google », a commenté Steinberger. « Soyez prudents si vous utilisez Antigravity. Je suppose que je vais supprimer le support. »
Steinberger a comparé l'approche « bannir d'abord » de Google à celle de concurrents comme Anthropic. Bien qu'Anthropic ait également récemment mis à jour ses conditions d'utilisation pour interdire l'« arbitrage de jetons » (l'utilisation de jetons d'abonnement grand public pour des charges de travail d'API commerciales), Steinberger a noté qu'ils communiquaient généralement avec les développeurs ou émettaient des avertissements plutôt que de procéder à des suspensions immédiates.
Le conflit place OpenClaw dans une position précaire. En tant qu'outil qui donne du pouvoir aux agents IA « souverains » s'exécutant localement, il dépend de la capacité à se connecter aux modèles les plus intelligents disponibles. Si des fournisseurs majeurs comme Google et Anthropic commencent à bloquer systématiquement ces connexions de type « wrapper » pour protéger leurs marges et leur infrastructure, l'utilité des agents open-source pourrait être sévèrement limitée.
L'incident révèle la tension économique cachée de l'ère des agents IA. Les agents autonomes comme OpenClaw sont fondamentalement différents des utilisateurs humains. Un développeur humain pourrait effectuer 50 appels d'inférence par heure ; un agent chargé de « refactoriser cette base de code » pourrait en effectuer 5 000.
Lorsque ces agents se connectent via des abonnements grand public (comme Gemini Advanced ou Claude Pro) plutôt que via des API d'entreprise facturées à l'usage, ils brisent de fait l'économie unitaire du fournisseur de modèles. Cette pratique, souvent appelée « arbitrage d'API » (API Arbitrage), permet aux utilisateurs d'extraire une puissance de calcul de niveau entreprise pour un forfait mensuel fixe.
Le tableau ci-dessous expose le décalage entre la vision des plateformes sur ces abonnements et la manière dont les développeurs d'agents tentent de les utiliser.
Tableau : Le décalage – Intention de la plateforme vs réalité des agents
| Vue de la plateforme (Google/Anthropic) | Vue du développeur (utilisateurs d'OpenClaw) | Le point de friction |
|---|---|---|
| Modèle de tarification Forfait mensuel fixe destiné à une interaction à vitesse humaine. |
Modèle de tarification Buffet à volonté pour une exécution à vitesse d'agent. |
Coût par utilisateur Les agents transforment les utilisateurs rentables en centres de coûts importants. |
| Limites d'utilisation Plafonds souples basés sur l'« usage équitable » et les cycles de sommeil humains. |
Limites d'utilisation Exécution d'agents 24h/24 et 7j/7 pour maximiser le ROI. |
Infrastructure Les requêtes par rafales et à haute concurrence ressemblent à des attaques DDoS. |
| Intégration IDEs propriétaires (Antigravity) ou interfaces web. |
Intégration Connectivité sans tête (headless) via des scripts locaux et des wrappers. |
Contrôle Les plateformes perdent la visibilité des données et le verrouillage de l'interface utilisateur (UI). |
Ce bannissement signale une maturation — et un durcissement — de l'infrastructure de l'IA. L'ère du « Far West », où les outils expérimentaux pouvaient librement siphonner la puissance de calcul des niveaux grand public, semble toucher à sa fin.
Pour les développeurs, la leçon est brutale : construire des flux de travail critiques sur des abonnements opaques à tarif fixe est un risque. Comme Varun Mohan l'a laissé entendre, Google donne la priorité aux « utilisateurs réels » — probablement définis comme ceux utilisant les outils dans les environnements prévus et contrôlés — par rapport aux utilisateurs avancés (power users) poussant l'infrastructure dans ses retranchements.
Les retombées pourraient accélérer une migration vers de véritables API facturées à l'usage, où les développeurs paient par jeton et sont à l'abri de l'ambiguïté de l'« usage équitable ». Cependant, pour la communauté open-source, le rêve d'un agent puissant, hébergé localement et fonctionnant à bas prix grâce aux modèles des Big Tech, vient de devenir nettement plus coûteux — et risqué.
Alors que la poussière retombe, la question reste de savoir si Google rétablira l'accès aux comptes bannis ou si cela marque un changement permanent de paradigme, où les « droits des agents » au calcul sont strictement régulés par les conditions d'utilisation. Pour l'instant, Creati.ai recommande aux utilisateurs d'OpenClaw d'utiliser strictement des clés d'API facturées à l'usage plutôt que des jetons OAuth basés sur l'abonnement afin de garantir la sécurité de leur compte.