
Das Versprechen eines wirklich autonomen KI-Assistenten (autonomous AI assistant) — eines Assistenten, der auf Ihrem Rechner lebt, Ihren Kalender verwaltet, Ihre E-Mails verhandelt und Ihre Flüge bucht — ist in Form von OpenClaw effektiv eingetroffen. Früher bekannt als Clawdbot und Moltbot, hat dieses Open-Source-Projekt GitHub-Wachstumsrekorde zerschmettert und in nur wenigen Monaten über 149.000 Sterne angehäuft. Es versprach, die „Hände“ für große Sprachmodelle (large language models) zu sein, ihnen die Fähigkeit zu geben, im Namen ihrer menschlichen Benutzer Code auszuführen und mit der realen Welt zu interagieren.
Allerdings ist dieses Versprechen heftig mit den Realitäten der Cybersicherheit (cybersecurity) kollidiert. Stand 2. Februar 2026 ringt die KI-Community (AI community) mit einer kritischen Sicherheitskrise. OpenClaw wurde als anfällig eingestuft: schwere Schwachstellen erlauben Angreifern, die vollständige Kontrolle über den Computer eines Nutzers durch einen einzigen bösartigen Link zu übernehmen. Sicherheitsexperten nennen dies ein „Albtraum-Szenario“ für die lokale Ausführung von KI (local AI execution) und heben einen verheerenden Logikfehler hervor, der als CVE-2026-25253 katalogisiert ist.
Für das Team von Creati.ai ist dieses Ereignis eine eindringliche Erinnerung: Die Eile, KI-Agenten „Hände“ zu geben, überspringt oft die nötigen „Handschuhe“, um Daten sicher zu handhaben. Während der Nutzen von OpenClaw unbestreitbar ist, hat seine Architektur Tausende von Early Adopters einer Remote-Code-Ausführung (remote code execution, RCE), Datenexfiltration und einem wachsenden Ökosystem von mit Malware durchsetzten „Skills“ (skills) ausgesetzt.
Der Verlauf von OpenClaw war alles andere als geradlinig. Ursprünglich als Clawdbot vom österreichischen Entwickler Peter Steinberger veröffentlicht, wurde das Projekt nach Markenrechtsstreitigkeiten mit Anthropic zu einer Umbenennung gezwungen. Es trat kurz als Moltbot auf, bevor es sich auf OpenClaw einigte. Trotz der Identitätskrise blieb das Kernangebot verlockend: ein Agent, der lokal läuft, seine Daten besitzt und mit beliebten Messaging-Apps wie Telegram, Signal und WhatsApp Schnittstellen nutzt, um komplexe Aufgaben zu erledigen.
Im Gegensatz zu SaaS-basierten Assistenten, die in der Cloud leben, läuft OpenClaw auf der Infrastruktur des Nutzers — typischerweise einem Mac mini oder einem Heimserver. Dieser „Local-First“-Ansatz wurde als Privatsphäre-Gewinn angepriesen. Ironischerweise ist er zur Achillesferse des Projekts geworden. Indem einem KI-Agenten hohe Systemprivilegien gewährt werden — einschließlich Shell-Zugriff und Lese-/Schreibrechte auf das Dateisystem — ohne einen robusten Sandbox-Schutz (Sandbox), haben Nutzer ihre Maschinen unbeabsichtigt in offene Ziele verwandelt.
Die Schwachstelle, entdeckt von Mav Levin von DepthFirst, ist ein Lehrstück dafür, wie Logikfehler gefährlicher sein können als Speicherfehler. Mit einem CVSS-Wert von 8,8 wird CVE-2026-25253 als eine „Token-Exfiltrations-Schwachstelle, die zu einer vollständigen Gateway-Kompromittierung führt“, beschrieben.
Der Fehler liegt in der Art und Weise, wie die Control-UI von OpenClaw eingehende Verbindungen verarbeitet. Die Anwendung war so konzipiert, dass sie einen gatewayUrl-Parameter über eine Query-String-URL akzeptiert. Kritisch ist, dass diesem Parameter ohne Validierung vertraut wurde.
Wenn ein Nutzer auf einen präparierten Link klickt — vielleicht getarnt als „coole neue Agenten-Fähigkeit“ oder ein geteilter Moltbook-Beitrag — versucht die OpenClaw-Oberfläche automatisch, eine WebSocket-Verbindung zum Server in dieser URL herzustellen. Dabei überträgt sie das Authentifizierungs-Token (authentication token) des Nutzers im Verbindungs-Payload.
Ein Angreifer muss lediglich einen bösartigen WebSocket-Server hosten und einen Nutzer dazu bringen, auf einen Link zu klicken, der darauf zeigt. Sobald die Verbindung hergestellt ist, fängt der Angreifer das Auth-Token ab. Mit diesem Token kann er das lokale Gateway des Nutzers imitieren. Von dort arbeitet der „Agent“ effektiv für den Angreifer. Er kann die Konfiguration des Agents ändern, das wenig vorhandene Sandboxing deaktivieren und privilegierte Aktionen aufrufen. Da OpenClaw so gestaltet ist, dass es Shell-Befehle ausführt, um „nützlich“ zu sein, erreicht der Angreifer eine 1-Click-RCE (1-click RCE), wodurch er in der Lage ist, beliebige Befehle auf dem Rechner des Opfers auszuführen.
Steinberger und das Wartungsteam haben in Version 2026.1.29 einen Patch veröffentlicht, aber die dezentrale Natur des Projekts bedeutet, dass Tausende von Instanzen weiterhin ungepatcht und exponiert sind.
Zur Verschärfung des Sicherheitsversagens ist das Entstehen von Moltbook hinzugekommen, einem sozialen Netzwerk, das ausschließlich für KI-Agenten gebaut wurde. Als „die Startseite des Agenten-Internets“ getaggt, beschränkt es Posting-Rechte auf verifizierte OpenClaw-Instanzen. Obwohl es als Experiment für KI-zu-KI-Sozialinteraktion gedacht war (sogar die Entstehung einer bizarren Parodie-Religion namens „Crustafarianism“), ist es schnell zu einem Vektor für Malware-Verbreitung verkommen.
Da Agenten auf Moltbook Inhalte automatisch lesen und verarbeiten, um „sozial zu interagieren“, sind sie anfällig für Prompt-Injection (prompt injection)-Angriffe. Sicherheitsforscher haben gezeigt, dass bösartige Beiträge auf Moltbook versteckte Anweisungen enthalten können — Text, der für Menschen oft unsichtbar ist, aber für LLMs lesbar — und den lesenden Agenten dazu bringen, bösartigen Code herunterzuladen und auszuführen.
Dies hat zu einem Supply-Chain-Angriff auf das „Skills“-Register geführt. Ähnlich den NPM- oder PyPI-Ökosystem-Angriffen der Vergangenheit veröffentlichen böswillige Akteure „Skills“ (skills) (Plugins, die die Fähigkeiten des Agenten erweitern), die Hintertüren enthalten. Ein Agent, der Moltbook durchsucht, könnte dazu verleitet werden, ein „Weather Checker“-Skill zu installieren, das stillschweigend eine Reverse-Shell (reverse shell) zu einem Command-and-Control-Server (command-and-control server) öffnet.
Der OpenClaw-Vorfall veranschaulicht die „Tödliche Trinität“ der KI-Sicherheitsrisiken:
Wenn diese drei Punkte ohne strikte Isolation zusammenkommen, ist eine Katastrophe unvermeidlich. Traditionelle Anwendungen verlassen sich auf das Betriebssystem, um Berechtigungen durchzusetzen (das „User“-Modell). OpenClaw operiert jedoch als der Benutzer selbst und umgeht diese Kontrollen. Wenn der Agent getäuscht wird, sieht das OS die Aktion als eine legitime vom Benutzer ausgeführte Handlung.
| Feature | OpenClaw (Local/Open Source) | Enterprise Secure Agent Standards |
|---|---|---|
| Execution Environment | Host-OS (Benutzer-Level) | Ephemere Sandbox-Container (Ephemeral Sandboxed Containers) |
| Auth Token Handling | Übertragung im WebSocket-Payload | HttpOnly-Cookies (HttpOnly Cookies) / kurzlebiges OAuth (Short-lived OAuth) |
| Input Validation | Minimal (vertraut Query-Params) | Strikte Schema-Validierung & Sanitierung |
| Tool Permissions | Voller Shell-Zugriff (Standard) | Nur erlaubte API-Aufrufe |
| Network Access | Unbeschränkter ausgehender Zugriff | Zero-Trust-Netzwerkzugang (Zero Trust Network Access, ZTNA) |
| Prompt Handling | Direkte LLM-Injektion (Direct LLM Injection) | Eingangsfilterung & „Mensch in der Schleife“ (Human in the Loop) |
Wenn Sie eine Instanz von OpenClaw (oder Clawdbot/Moltbot) betreiben, empfiehlt Creati.ai sofortige Abhilfemaßnahmen zum Schutz Ihrer Infrastruktur.
gatewayUrl-Parameter.skills-Verzeichnis. Entfernen Sie alle Drittanbieter-Skills, die nicht auditiert wurden oder die automatisch über Moltbook-Interaktionen installiert wurden.Die Ära der autonomen Agenten ist da, aber OpenClaw dient als schmerzhafte Lektion im Kompromiss zwischen Bequemlichkeit und Sicherheit. Bis die Architektur soweit entwickelt ist, dass „Agentenaktionen“ mit derselben Skepsis wie „untrusted code“ behandelt werden, müssen Nutzer wachsam bleiben. Die „Hände“ der KI sind mächtig, aber ohne Handschellen können sie sich leicht gegen ihre Meister wenden.