
Pela Equipe Editorial da Creati.ai
Em uma medida que abalou a comunidade de IA de código aberto (open-source), o Google suspendeu as contas de inúmeros desenvolvedores que utilizavam sua plataforma Antigravity em conjunto com o popular framework de agentes autônomos, OpenClaw. A repressão, que começou no final de domingo, 23 de fevereiro de 2026, visa usuários que integraram a ferramenta de agente de código aberto com o backend do IDE movido a IA do Google, citando "uso malicioso" e grave sobrecarga na infraestrutura.
O incidente destaca uma fratura crescente no ecossistema de IA: a colisão entre as demandas desenfreadas de recursos de agentes autônomos (autonomous agents) e as realidades econômicas de provedores de modelos centralizados. Com relatos surgindo de usuários perdendo acesso não apenas aos seus ambientes de desenvolvimento, mas potencialmente a serviços mais amplos do Google, o evento reacendeu temores em relação ao aprisionamento tecnológico (vendor lock-in) e à fragilidade de construir sobre plataformas fechadas.
A controvérsia explodiu quando usuários do Antigravity—o IDE focado em agentes do Google lançado em novembro de 2025—começaram a receber avisos imediatos de suspensão de conta. O denominador comum entre os usuários afetados foi a integração do OpenClaw (anteriormente Moltbot), um framework de código aberto criado por Peter Steinberger que permite aos desenvolvedores executar agentes autônomos localmente enquanto roteiam tarefas de inferência (inference) para modelos de nuvem poderosos.
Varun Mohan, o líder de engenharia do Google Antigravity e ex-CEO da Windsurf, abordou os banimentos em um comunicado no X (antigo Twitter). Mohan defendeu a decisão, afirmando que a empresa detectou um "aumento massivo no uso malicioso" visando o backend do Antigravity.
"Precisávamos encontrar um caminho para encerrar rapidamente o acesso a esses usuários que não estão usando o produto conforme pretendido", afirmou Mohan. "Esse uso degradou tremendamente a qualidade do serviço para nossos usuários reais."
Mohan esclareceu que os banimentos deveriam ser limitados ao próprio serviço Antigravity, embora tenha reconhecido que alguns usuários podem não saber que estavam violando os Termos de Serviço (Terms of Service - ToS). No entanto, ele enfatizou que o backend do Antigravity nunca foi projetado para servir como um proxy de alto rendimento para enxames de agentes de terceiros como o OpenClaw, que podem gerar milhares de chamadas de inferência em minutos.
A definição de "malicioso" tornou-se o ponto central da discórdia. Ao contrário dos ataques DDoS tradicionais ou preenchimento de credenciais (credential stuffing), os usuários banidos argumentam que eram assinantes legítimos e pagantes do nível Gemini AI Ultra do Google ou dos planos pro do Antigravity.
A principal frustração decorre da falta de aviso. Os desenvolvedores argumentam que utilizar cotas de API pagas por meio de uma interface de terceiros—mesmo uma de alto volume como o OpenClaw—deveria ser limitado (throttled), não banido.
"Isso não é hacking malicioso; isso é usar o produto que você nos vendeu", escreveu um desenvolvedor afetado no Fórum de Desenvolvedores de IA do Google. "Se eu pago por uma cota, por que importa se eu a uso através do IDE Antigravity ou através do OpenClaw atuando como meu IDE? Se a infraestrutura não consegue aguentar a carga, implemente limites de taxa (rate limits). Não bana minha conta."
A confusão aumentou ainda mais devido a relatos conflitantes sobre o escopo dos banimentos. Enquanto Mohan afirmou que as restrições estavam isoladas ao Antigravity, as redes sociais foram inundadas com relatos de usuários alegando que todo o seu acesso ao Google Workspace—incluindo Gmail e Drive—havia sido temporariamente bloqueado, um cenário que representa um risco comercial catastrófico para desenvolvedores freelancers.
Peter Steinberger, o criador do OpenClaw que recentemente se juntou à OpenAI para liderar sua divisão de agentes pessoais, não poupou palavras sobre as táticas de fiscalização do Google.
"Muito draconiano por parte do Google", comentou Steinberger. "Cuidado por aí se você usa o Antigravity. Acho que vou remover o suporte."
Steinberger contrastou a abordagem de "banir primeiro" do Google com concorrentes como a Anthropic. Embora a Anthropic também tenha atualizado recentemente seus ToS para proibir a "arbitragem de tokens" (token arbitrage) — o uso de tokens de assinatura de consumidor para cargas de trabalho de API comerciais —, Steinberger observou que eles normalmente se comunicavam com os desenvolvedores ou emitiam avisos em vez de decretar suspensões imediatas.
O conflito coloca o OpenClaw em uma posição precária. Como uma ferramenta que capacita agentes de IA "soberanos" em execução local, ele depende da capacidade de se conectar aos modelos mais inteligentes disponíveis. Se grandes provedores como o Google e a Anthropic começarem a bloquear sistematicamente essas conexões de "wrapper" para proteger suas margens e infraestrutura, a utilidade dos agentes de código aberto poderá ser severamente limitada.
O incidente revela a tensão econômica oculta da era dos agentes de IA. Agentes autônomos como o OpenClaw são fundamentalmente diferentes dos usuários humanos. Um desenvolvedor humano pode fazer 50 chamadas de inferência por hora; um agente encarregado de "refatorar esta base de código" pode fazer 5.000.
Quando esses agentes se conectam via assinaturas de nível de consumidor (como Gemini Advanced ou Claude Pro) em vez de APIs empresariais medidas, eles efetivamente quebram a economia unitária do provedor do modelo. Essa prática, frequentemente chamada de "Arbitragem de API" (API Arbitrage), permite que os usuários extraiam computação de nível empresarial por uma taxa mensal fixa.
A tabela abaixo descreve a desconexão entre como as plataformas veem essas assinaturas e como os desenvolvedores de agentes estão tentando usá-las.
Tabela: A Desconexão – Intenção da Plataforma vs. Realidade do Agente
| Visão da Plataforma (Google/Anthropic) | Visão do Desenvolvedor (Usuários do OpenClaw) | O Ponto de Fricção |
|---|---|---|
| Modelo de Preços Taxa mensal fixa destinada à interação em velocidade humana. |
Modelo de Preços Buffet ilimitado para execução em velocidade de agente. |
Custo por Usuário Agentes transformam usuários lucrativos em centros de custos pesados. |
| Limites de Uso Limites flexíveis baseados em "uso justo" e ciclos de sono humanos. |
Limites de Uso Executar agentes 24/7 para maximizar o ROI. |
Infraestrutura Solicitações intermitentes e de alta simultaneidade parecem ataques DDoS. |
| Integração IDEs proprietários (Antigravity) ou interfaces web. |
Integração Conectividade sem interface (headless) via scripts locais e wrappers. |
Controle As plataformas perdem a visibilidade dos dados e o aprisionamento à interface do usuário (UI lock-in). |
Este banimento sinaliza um amadurecimento — e endurecimento — da infraestrutura de IA. A era do "Velho Oeste", onde ferramentas experimentais podiam sugar livremente a computação de camadas de consumidor, parece estar chegando ao fim.
Para os desenvolvedores, a lição é dura: construir fluxos de trabalho críticos sobre assinaturas de taxa fixa e opacas é um risco. Como Varun Mohan sugeriu, o Google está priorizando "usuários reais" — provavelmente definidos como aqueles que usam as ferramentas dentro dos ambientes pretendidos e controlados — em detrimento de usuários avançados que levam a infraestrutura ao limite.
As consequências podem acelerar uma migração para APIs verdadeiramente medidas, onde os desenvolvedores pagam por token e são imunes à ambiguidade do "uso justo". No entanto, para a comunidade de código aberto, o sonho de um agente poderoso, hospedado localmente e executado de forma barata sobre os modelos das Big Techs, acaba de ficar significativamente mais caro — e arriscado.
À medida que a poeira baixa, a questão permanece se o Google restaurará o acesso às contas banidas ou se isso marca uma mudança permanente na guarda, onde os "Direitos dos Agentes" à computação são estritamente regulados pelos termos de serviço. Por enquanto, a Creati.ai recomenda que os usuários do OpenClaw utilizem estritamente chaves de API medidas em vez de tokens OAuth baseados em assinatura para garantir a segurança da conta.