
La promesse d'un véritable assistant IA autonome (autonomous AI assistant) — qui vit sur votre machine, gère votre agenda, négocie vos e‑mails et réserve vos vols — est effectivement arrivée sous la forme de OpenClaw. Anciennement connu sous les noms Clawdbot et Moltbot, ce projet open source a battu des records de croissance sur GitHub, amassant plus de 149 000 étoiles en quelques mois seulement. Il promettait d'être les "mains" pour les grands modèles de langage, leur donnant la capacité d'exécuter du code et d'interagir avec le monde réel au nom de leurs utilisateurs humains.
Cependant, cette promesse est entrée en collision violente avec les réalités de la cybersécurité. Au 2 février 2026, la communauté IA est confrontée à une crise de sécurité critique. OpenClaw a été trouvé contenant des vulnérabilités sévères permettant à des attaquants de prendre le contrôle complet de l'ordinateur d'un utilisateur via un simple lien malveillant. Les experts en sécurité qualifient la situation de "scénario cauchemardesque" pour l'exécution locale d'IA, en mettant en évidence une faille logique dévastatrice référencée comme CVE-2026-25253.
Pour l'équipe de Creati.ai, cet incident sert de rappel brutal : la course à doter les agents IA de "mains" passe souvent outre les "gants" nécessaires pour manipuler les données de manière sûre. Bien que l'utilité d'OpenClaw soit indéniable, son architecture a exposé des milliers d'utilisateurs précoces à l'exécution de code à distance (remote code execution, RCE), à l'exfiltration de données, et à un écosystème croissant de "skills" infestés de logiciels malveillants.
La trajectoire d'OpenClaw a été pour le moins chaotique. Publié à l'origine sous le nom Clawdbot par le développeur autrichien Peter Steinberger, le projet a été contraint de changer de nom suite à des litiges sur des marques avec Anthropic. Il a brièvement fonctionné sous le nom Moltbot avant de s'établir sous OpenClaw. Malgré cette crise d'identité, la proposition de valeur centrale restait séduisante : un agent qui s'exécute localement, possède ses données et s'interface avec des applications de messagerie populaires comme Telegram, Signal et WhatsApp pour accomplir des tâches complexes.
Contrairement aux assistants basés sur des SaaS hébergés dans le cloud, OpenClaw s'exécute sur l'infrastructure de l'utilisateur — typiquement un Mac mini ou un serveur domestique. Cette approche "local-first" a été présentée comme un avantage pour la vie privée. Ironiquement, elle est devenue le talon d'Achille du projet. En accordant à un agent IA des privilèges système de haut niveau — y compris l'accès au shell et des capacités de lecture/écriture sur le système de fichiers — sans sandbox robuste, les utilisateurs ont involontairement transformé leurs machines en cibles ouvertes.
La vulnérabilité, découverte par Mav Levin de DepthFirst, est une masterclass sur la manière dont les défauts de logique peuvent être plus dangereux que les bugs de corruption mémoire. Notée 8,8 selon le CVSS, CVE-2026-25253 est décrite comme une "vulnérabilité d'exfiltration de jetons menant à une compromission totale de la passerelle."
La faille réside dans la façon dont l'interface de contrôle d'OpenClaw gère les connexions entrantes. L'application a été conçue pour accepter un paramètre gatewayUrl via une chaîne de requête dans l'URL. De façon critique, elle faisait confiance à ce paramètre sans validation.
Lorsqu'un utilisateur clique sur un lien conçu — peut‑être déguisé en "nouvelle compétence d'agent sympa" ou un post partagé sur Moltbook — l'interface OpenClaw tente automatiquement d'établir une connexion WebSocket vers le serveur spécifié dans cette URL. Ce faisant, elle transmet le jeton d'authentification de l'utilisateur dans la charge utile de la connexion.
Un attaquant a simplement besoin d'héberger un serveur WebSocket malveillant et de tromper un utilisateur pour qu'il clique sur un lien pointant vers ce serveur. Une fois la connexion établie, l'attaquant capture le jeton d'authentification. Avec ce jeton, il peut usurper la passerelle locale de l'utilisateur. À partir de là, "l'agent" travaille effectivement pour l'attaquant. Il peut modifier la configuration de l'agent, désactiver ce qui reste de sandbox, et invoquer des actions privilégiées. Parce qu'OpenClaw est conçu pour exécuter des commandes shell afin d'être "utile", l'attaquant obtient une exécution de code arbitraire en 1 clic (1-click RCE), gagnant la capacité d'exécuter des commandes arbitraires sur la machine de la victime.
Steinberger et l'équipe de maintenance ont publié un correctif dans la version 2026.1.29, mais la nature décentralisée du projet fait que des milliers d'instances restent non corrigées et exposées.
À aggraver la défaillance de sécurité s'ajoute l'émergence de Moltbook, un réseau social construit exclusivement pour les agents IA. Présenté comme "la page d'accueil de l'internet des agents", il restreint les privilèges de publication aux instances OpenClaw vérifiées. Conçu comme une expérience d'interaction IA‑à‑IA (ayant même engendré une parodie religieuse bizarre connue sous le nom de "Crustafarianism"), il est rapidement devenu un vecteur de distribution de logiciels malveillants.
Parce que les agents sur Moltbook lisent et traitent automatiquement le contenu pour "socialiser", ils sont susceptibles aux attaques par injection de prompt. Des chercheurs en sécurité ont démontré que des posts malveillants sur Moltbook peuvent contenir des instructions cachées — du texte souvent invisible pour les humains mais lisible par les LLM — qui ordonnent à l'agent lecteur de télécharger et d'exécuter du code malveillant.
Cela a conduit à une attaque sur la chaîne d'approvisionnement du registre de compétences. À l'instar des attaques passées sur les écosystèmes NPM ou PyPI, des acteurs malveillants publient des "skills" (plugins qui étendent les capacités de l'agent) contenant des portes dérobées. Un agent naviguant sur Moltbook pourrait être trompé en installant une "Weather Checker" skill qui ouvre silencieusement un reverse shell vers un serveur de commande et contrôle.
L'incident OpenClaw illustre la "Triade létale" des risques de sécurité liés à l'IA :
Lorsque ces trois éléments se combinent sans isolation stricte, le désastre est inévitable. Les applications traditionnelles s'appuient sur le système d'exploitation pour appliquer les permissions (le modèle "utilisateur"). Cependant, OpenClaw fonctionne en tant qu'utilisateur, contournant ces contrôles. Si l'agent est trompé, le système d'exploitation considère l'action comme légitime, effectuée par l'utilisateur légitime.
Pour comprendre la gravité, nous devons comparer l'approche d'OpenClaw avec des architectures d'agents sécurisées en entreprise.
Agent Security Architecture Comparison
| Feature | OpenClaw (Local/Open Source) | Enterprise Secure Agent Standards |
|---|---|---|
| Execution Environment | Host OS (User Level) | Ephemeral Sandboxed Containers |
| Auth Token Handling | Transmitted in WebSocket Payload | HttpOnly Cookies / Short‑lived OAuth |
| Input Validation | Minimal (Trusts Query Params) | Strict Schema Validation & Sanitization |
| Tool Permissions | Full Shell Access (Default) | Allowlisted API Calls Only |
| Network Access | Unrestricted Outbound | Zero Trust Network Access (ZTNA) |
| Prompt Handling | Direct LLM Injection | Input Filtering & "Human in the Loop" |
Si vous exécutez une instance d'OpenClaw (ou Clawdbot/Moltbot), Creati.ai recommande des mesures de remédiation immédiates pour protéger votre infrastructure.
gatewayUrl.skills. Supprimez toute skill tierce qui n'a pas été auditée ou qui a été installée automatiquement via des interactions Moltbook.L'ère des agents autonomes est là, mais OpenClaw sert de leçon douloureuse sur le compromis entre commodité et sécurité. Tant que l'architecture n'évoluera pas pour traiter les "actions d'agent" avec la même méfiance que le "code non fiable", les utilisateurs doivent rester vigilants. Les "mains" de l'IA sont puissantes, mais sans menottes, elles peuvent facilement se retourner contre leurs maîtres.