
Vom Creati.ai Redaktionsteam
In einem Schritt, der Schockwellen durch die Open-Source-KI-Community ausgelöst hat, hat Google die Konten zahlreicher Entwickler gesperrt, die seine Antigravity-Plattform in Verbindung mit dem beliebten Framework für autonome Agenten (Autonomous Agents), OpenClaw, nutzen. Das Durchgreifen, das am späten Sonntag, dem 23. Februar 2026, begann, richtet sich gegen Nutzer, die das Open-Source-Agenten-Tool in das KI-gestützte IDE-Backend von Google integriert haben, wobei „böswillige Nutzung“ und eine massive Überlastung der Infrastruktur angeführt wurden.
Der Vorfall verdeutlicht einen wachsenden Riss im KI-Ökosystem: die Kollision zwischen den ungezügelten Ressourcenanforderungen autonomer Agenten und den wirtschaftlichen Realitäten zentralisierter Modellanbieter. Da Berichte auftauchen, wonach Nutzer den Zugriff nicht nur auf ihre Entwicklungsumgebungen, sondern potenziell auf breitere Google-Dienste verlieren, hat das Ereignis die Ängste hinsichtlich einer Anbieterbindung (Vendor Lock-in) und der Fragilität des Aufbaus auf geschlossenen Plattformen neu entfacht.
Die Kontoverse brach aus, als Nutzer von Antigravity – Googles im November 2025 eingeführter Agent-First-IDE – begannen, sofortige Mitteilungen über Kontosperrungen zu erhalten. Der gemeinsame Nenner unter den betroffenen Nutzern war die Integration von OpenClaw (ehemals Moltbot), einem von Peter Steinberger entwickelten Open-Source-Framework, das es Entwicklern ermöglicht, autonome Agenten lokal auszuführen, während Inferenzaufgaben (Inference Tasks) an leistungsstarke Cloud-Modelle weitergeleitet werden.
Varun Mohan, der technische Leiter für Google Antigravity und ehemalige CEO von Windsurf, äußerte sich in einer Erklärung auf X (ehemals Twitter) zu den Sperren. Mohan verteidigte die Entscheidung und behauptete, das Unternehmen habe einen „massiven Anstieg der böswilligen Nutzung“ festgestellt, die auf das Antigravity-Backend abzielt.
„Wir mussten einen Weg finden, den Zugang für diese Nutzer schnell abzuschalten, die das Produkt nicht wie beabsichtigt verwenden“, erklärte Mohan. „Diese Nutzung hat die Servicequalität für unsere tatsächlichen Nutzer massiv verschlechtert.“
Mohan stellte klar, dass die Sperren auf den Antigravity-Dienst selbst beschränkt sein sollten, räumte jedoch ein, dass sich einige Nutzer möglicherweise nicht bewusst waren, dass sie gegen die Nutzungsbedingungen (Terms of Service, ToS) verstießen. Er betonte jedoch, dass das Antigravity-Backend nie dafür ausgelegt war, als Proxy mit hohem Durchsatz für Drittanbieter-Agentenschwärme wie OpenClaw zu dienen, die in wenigen Minuten Tausende von Inferenzaufrufen generieren können.
Die Definition von „böswillig“ ist zum zentralen Streitpunkt geworden. Im Gegensatz zu herkömmlichen DDoS-Angriffen oder Credential Stuffing argumentieren die gesperrten Nutzer, dass sie legitime, zahlende Abonnenten der Stufe Gemini AI Ultra von Google oder der Pro-Pläne von Antigravity waren.
Die Hauptfrustration resultiert aus der fehlenden Vorwarnung. Entwickler argumentieren, dass die Nutzung bezahlter API-Kontingente über eine Schnittstelle eines Drittanbieters – selbst eine mit hohem Volumen wie OpenClaw – gedrosselt und nicht gesperrt werden sollte.
„Dies ist kein böswilliges Hacking; dies ist die Nutzung des Produkts, das Sie uns verkauft haben“, schrieb ein betroffener Entwickler im Google AI Developer Forum. „Wenn ich für ein Kontingent bezahle, warum spielt es eine Rolle, ob ich es über die Antigravity-IDE oder über OpenClaw als meine IDE nutze? Wenn die Infrastruktur die Last nicht bewältigen kann, implementieren Sie Ratenbegrenzungen (Rate Limits). Sperren Sie nicht mein Konto.“
Die Verwirrung eskalierte weiter aufgrund widersprüchlicher Berichte über den Umfang der Sperren. Während Mohan erklärte, die Einschränkungen seien auf Antigravity beschränkt, wurde Social Media von Berichten von Nutzern überschwemmt, die behaupteten, ihr gesamter Google Workspace-Zugang – einschließlich Gmail und Drive – sei vorübergehend gesperrt worden, ein Szenario, das ein katastrophales Geschäftsrisiko für freiberufliche Entwickler darstellt.
Peter Steinberger, der Schöpfer von OpenClaw, der vor Kurzem zu OpenAI wechselte, um dort die Abteilung für persönliche Agenten zu leiten, nahm kein Blatt vor den Mund bezüglich Googles Durchsetzungstaktiken.
„Ziemlich drakonisch von Google“, kommentierte Steinberger. „Seid vorsichtig da draußen, wenn ihr Antigravity nutzt. Ich schätze, ich werde die Unterstützung entfernen.“
Steinberger stellte den „Sperren-zuerst“-Ansatz von Google den Wettbewerbern wie Anthropic gegenüber. Obwohl Anthropic vor Kurzem ebenfalls seine Nutzungsbedingungen aktualisiert hat, um „Token-Arbitrage“ (die Nutzung von Abonnenten-Token für Endverbraucher für kommerzielle API-Workloads) zu verbieten, stellte Steinberger fest, dass diese normalerweise mit Entwicklern kommunizieren oder Warnungen aussprechen, anstatt sofortige Sperrungen zu veranlassen.
Der Konflikt bringt OpenClaw in eine prekäre Lage. Als Tool, das „souveräne“ KI-Agenten, die lokal laufen, stärkt, ist es darauf angewiesen, sich mit den intelligentesten verfügbaren Modellen zu verbinden. Wenn große Anbieter wie Google und Anthropic beginnen, diese „Wrapper“-Verbindungen systematisch zu blockieren, um ihre Margen und Infrastruktur zu schützen, könnte der Nutzen von Open-Source-Agenten stark eingeschränkt werden.
Der Vorfall offenbart die verborgenen wirtschaftlichen Spannungen der Ära der KI-Agenten. Autonome Agenten wie OpenClaw unterscheiden sich grundlegend von menschlichen Nutzern. Ein menschlicher Entwickler tätigt vielleicht 50 Inferenzaufrufe pro Stunde; ein Agent, der mit dem „Refactoring dieser Codebasis“ beauftragt ist, tätigt vielleicht 5.000.
Wenn sich diese Agenten über Abonnements für Endverbraucher (wie Gemini Advanced oder Claude Pro) anstelle von abgerechneten Enterprise-APIs verbinden, brechen sie effektiv die Wirtschaftlichkeit pro Einheit (Unit Economics) des Modellanbieters. Diese Praxis, die oft als „API-Arbitrage“ bezeichnet wird, ermöglicht es Nutzern, Rechenleistung auf Unternehmensniveau für eine pauschale monatliche Gebühr zu erhalten.
Die folgende Tabelle skizziert die Diskrepanz zwischen der Sichtweise der Plattformen auf diese Abonnements und der Art und Weise, wie Agenten-Entwickler versuchen, sie zu nutzen.
Tabelle: Die Diskrepanz – Plattform-Intention vs. Agenten-Realität
| Plattform-Sicht (Google/Anthropic) | Entwickler-Sicht (OpenClaw-Nutzer) | Der Reibungspunkt |
|---|---|---|
| Preismodell Pauschale monatliche Gebühr für Interaktion in menschlicher Geschwindigkeit. |
Preismodell Unbegrenztes Buffet für Ausführung in Agenten-Geschwindigkeit. |
Kosten pro Nutzer Agenten verwandeln profitable Nutzer in hohe Kostenstellen. |
| Nutzungsbeschränkungen Weiche Obergrenzen basierend auf „Fair Use“ und menschlichen Schlafzyklen. |
Nutzungsbeschränkungen Agenten laufen rund um die Uhr, um den ROI zu maximieren. |
Infrastruktur Stoßartige Anfragen mit hoher Parallelität wirken wie DDoS-Angriffe. |
| Integration Proprietäre IDEs (Antigravity) oder Webschnittstellen. |
Integration Headless-Konnektivität über lokale Skripte und Wrapper. |
Kontrolle Plattformen verlieren Datensichtbarkeit und UI-Bindung. |
Diese Sperre signalisiert eine Reifung – und Verhärtung – der KI-Infrastruktur. Die Ära des „Wilden Westens“, in der experimentelle Tools frei Rechenleistung aus Endverbraucher-Stufen abziehen konnten, scheint zu enden.
Für Entwickler ist die Lektion hart: Der Aufbau kritischer Workflows auf undurchsichtigen Pauschal-Abonnements ist ein Risiko. Wie Varun Mohan andeutete, priorisiert Google „tatsächliche Nutzer“ – wahrscheinlich definiert als diejenigen, die die Tools innerhalb der beabsichtigten, kontrollierten Umgebungen nutzen – gegenüber Power-Usern, die die Infrastruktur an ihre Grenzen bringen.
Die Folgen könnten eine Migration hin zu echten abgerechneten APIs beschleunigen, bei denen Entwickler pro Token bezahlen und immun gegen die Mehrdeutigkeit des „Fair Use“ sind. Für die Open-Source-Community ist der Traum von einem leistungsstarken, lokal gehosteten Agenten, der kostengünstig auf den Modellen der Tech-Giganten läuft, jedoch gerade erheblich teurer – und riskanter – geworden.
Während sich der Staub legt, bleibt die Frage, ob Google den Zugriff auf die gesperrten Konten wiederherstellen wird oder ob dies eine dauerhafte Verschiebung markiert, bei der „Agentenrechte“ auf Rechenleistung streng durch die Nutzungsbedingungen geregelt werden. Vorerst empfiehlt Creati.ai OpenClaw-Nutzern dringend, abgerechnete API-Schlüssel anstelle von abonnementbasierten OAuth-Token zu verwenden, um die Kontosicherheit zu gewährleisten.