
Por el equipo editorial de Creati.ai
En un movimiento que ha causado conmoción en la comunidad de IA de código abierto, Google ha suspendido las cuentas de numerosos desarrolladores que utilizaban su plataforma Antigravity en conjunto con el popular marco de agentes autónomos (autonomous agent framework), OpenClaw. La medida, que comenzó a finales del domingo 23 de febrero de 2026, se dirige a los usuarios que integraron la herramienta de agentes de código abierto con el backend del Entorno de Desarrollo Integrado (IDE) (IDE backend) impulsado por IA de Google, alegando un "uso malicioso" y una grave sobrecarga en la infraestructura.
El incidente pone de relieve una fractura creciente en el ecosistema de la IA: la colisión entre las demandas desenfrenadas de recursos de los agentes autónomos y las realidades económicas de los proveedores de modelos centralizados. Con informes que surgen sobre usuarios que pierden el acceso no solo a sus entornos de desarrollo sino potencialmente a servicios de Google más amplios, el evento ha reavivado los temores respecto a la dependencia del proveedor (vendor lock-in) y la fragilidad de construir sobre plataformas cerradas.
La controversia estalló cuando los usuarios de Antigravity —el IDE centrado en agentes (agent-first IDE) de Google lanzado en noviembre de 2025— comenzaron a recibir avisos de suspensión inmediata de sus cuentas. El denominador común entre los usuarios afectados fue la integración de OpenClaw (anteriormente Moltbot), un marco de código abierto creado por Peter Steinberger que permite a los desarrolladores ejecutar agentes autónomos localmente mientras dirigen las tareas de inferencia (inference tasks) a potentes modelos en la nube.
Varun Mohan, el líder de ingeniería de Google Antigravity y ex CEO de Windsurf, abordó las prohibiciones en un comunicado en X (anteriormente Twitter). Mohan defendió la decisión, afirmando que la compañía había detectado un "aumento masivo en el uso malicioso" dirigido al backend de Antigravity.
"Necesitábamos encontrar una vía para cerrar rápidamente el acceso a estos usuarios que no están utilizando el producto según lo previsto", declaró Mohan. "Este uso ha degradado tremendamente la calidad del servicio para nuestros usuarios reales".
Mohan aclaró que las prohibiciones debían limitarse al servicio Antigravity en sí, aunque reconoció que algunos usuarios podrían no haber sido conscientes de que estaban violando los Términos de Servicio (ToS). Sin embargo, enfatizó que el backend de Antigravity nunca fue diseñado para servir como un proxy de alto rendimiento (high-throughput proxy) para enjambres de agentes de terceros (third-party agent swarms) como OpenClaw, que pueden generar miles de llamadas de inferencia en minutos.
La definición de "malicioso" se ha convertido en el punto central de la disputa. A diferencia de los ataques DDoS tradicionales o el relleno de credenciales (credential stuffing), los usuarios prohibidos argumentan que eran suscriptores legítimos que pagaban el nivel Gemini AI Ultra de Google o los planes pro de Antigravity.
La frustración principal surge de la falta de advertencia. Los desarrolladores argumentan que utilizar cuotas de API pagadas a través de una interfaz de terceros —incluso una de alto volumen como OpenClaw— debería ser limitado (throttled), no prohibido.
"Esto no es hacking malicioso; esto es usar el producto que nos vendieron", escribió un desarrollador afectado en el Google AI Developer Forum. "Si pago por una cuota, ¿por qué importa si la uso a través del IDE de Antigravity o a través de OpenClaw actuando como mi IDE? Si la infraestructura no puede soportar la carga, implementen límites de tasa (rate limits). No bloqueen mi cuenta".
La confusión aumentó debido a informes contradictorios sobre el alcance de las prohibiciones. Mientras Mohan afirmó que las restricciones estaban aisladas a Antigravity, las redes sociales se inundaron de informes de usuarios que afirmaban que todo su acceso a Google Workspace —incluyendo Gmail y Drive— había sido bloqueado temporalmente, un escenario que representa un riesgo empresarial catastrófico para los desarrolladores freelance.
Peter Steinberger, el creador de OpenClaw que recientemente se unió a OpenAI para liderar su división de agentes personales, no se anduvo con rodeos respecto a las tácticas de aplicación de Google.
"Bastante draconiano por parte de Google", comentó Steinberger. "Tengan cuidado por ahí si usan Antigravity. Supongo que eliminaré el soporte".
Steinberger contrastó el enfoque de "prohibir primero" de Google con competidores como Anthropic. Aunque Anthropic también actualizó recientemente sus ToS para prohibir el arbitraje de tokens (token arbitrage) (usar tokens de suscripción de consumidor para cargas de trabajo de API comerciales), Steinberger señaló que normalmente se comunicaban con los desarrolladores o emitían advertencias en lugar de ejecutar suspensiones inmediatas.
El conflicto coloca a OpenClaw en una posición precaria. Como una herramienta que potencia a los agentes de IA "soberanos" que se ejecutan localmente, depende de la capacidad de conectarse a los modelos más inteligentes disponibles. Si los principales proveedores como Google y Anthropic comienzan a bloquear sistemáticamente estas conexiones "wrapper" para proteger sus márgenes e infraestructura, la utilidad de los agentes de código abierto podría verse severamente limitada.
El incidente revela la tensión económica oculta de la era de los agentes de IA. Los agentes autónomos como OpenClaw son fundamentalmente diferentes de los usuarios humanos. Un desarrollador humano podría realizar 50 llamadas de inferencia por hora; un agente encargado de "refactorizar esta base de código" podría realizar 5,000.
Cuando estos agentes se conectan a través de suscripciones de nivel de consumidor (como Gemini Advanced o Claude Pro) en lugar de API empresariales medidas (metered enterprise APIs), rompen efectivamente la economía unitaria (unit economics) del proveedor del modelo. Esta práctica, a menudo llamada "Arbitraje de API (API Arbitrage)", permite a los usuarios extraer cómputo de nivel empresarial por una tarifa mensual fija.
La tabla a continuación describe la desconexión entre cómo las plataformas ven estas suscripciones y cómo los desarrolladores de agentes intentan utilizarlas.
Tabla: La desconexión – Intención de la plataforma frente a la realidad de los agentes
| Vista de la plataforma (Google/Anthropic) | Vista del desarrollador (Usuarios de OpenClaw) | El punto de fricción |
|---|---|---|
| Modelo de precios Cuota mensual fija destinada a la interacción a velocidad humana. |
Modelo de precios Buffet libre para ejecución a velocidad de agente. |
Coste por usuario Los agentes convierten a los usuarios rentables en centros de costes pesados. |
| Límites de uso Topes flexibles basados en el "uso justo" y los ciclos de sueño humanos. |
Límites de uso Ejecución de agentes 24/7 para maximizar el ROI. |
Infraestructura Las solicitudes en ráfagas y de alta concurrencia parecen ataques DDoS. |
| Integración IDEs propietarios (Antigravity) o interfaces web. |
Integración Conectividad sin interfaz (headless) a través de scripts locales y wrappers. |
Control Las plataformas pierden visibilidad de datos y dependencia de la interfaz de usuario (UI lock-in). |
Esta prohibición señala una maduración —y endurecimiento— de la infraestructura de IA. La era del "Lejano Oeste", donde las herramientas experimentales podían absorber libremente cómputo de los niveles de consumidor, parece estar llegando a su fin.
Para los desarrolladores, la lección es cruda: construir flujos de trabajo críticos sobre suscripciones opacas de tarifa plana es un riesgo. Como insinuó Varun Mohan, Google está priorizando a los "usuarios reales" —probablemente definidos como aquellos que usan las herramientas dentro de los entornos previstos y controlados— sobre los usuarios avanzados que estiran la infraestructura hasta sus límites.
Las consecuencias pueden acelerar una migración hacia API medidas reales, donde los desarrolladores pagan por token y son inmunes a la ambigüedad del "uso justo". Sin embargo, para la comunidad de código abierto, el sueño de un agente potente, alojado localmente y que se ejecute a bajo coste sobre los modelos de las Big Tech, acaba de volverse significativamente más caro y arriesgado.
Mientras el polvo se asienta, queda la duda de si Google restaurará el acceso a las cuentas prohibidas o si esto marca un cambio permanente en la guardia, donde los "derechos de agente" al cómputo están estrictamente regulados por los términos de servicio. Por ahora, Creati.ai recomienda a los usuarios de OpenClaw utilizar estrictamente claves de API medidas en lugar de tokens OAuth basados en suscripción para garantizar la seguridad de la cuenta.