
A promessa de um assistente de IA verdadeiramente autônomo—um que rode na sua máquina, gerencie seu calendário, negocie seus e-mails e reserve seus voos—chegou efetivamente na forma de OpenClaw. Anteriormente conhecido como Clawdbot e Moltbot, este projeto de código aberto quebrou recordes de crescimento no GitHub, acumulando mais de 149.000 estrelas em poucos meses. Prometia ser as "mãos" para modelos de linguagem de grande porte (large language models), dando-lhes a capacidade de executar código e interagir com o mundo real em nome de seus usuários humanos.
No entanto, essa promessa colidiu violentamente com as realidades da cibersegurança. Em 2 de fevereiro de 2026, a comunidade de IA está lidando com uma crise crítica de segurança. OpenClaw foi encontrado com vulnerabilidades graves que permitem a atacantes tomarem controle completo do computador de um usuário através de um único link malicioso. Especialistas em segurança estão chamando isso de um "cenário de pesadelo" para execução local de IA, ressaltando uma falha lógica devastadora catalogada como CVE-2026-25253.
Para a equipe da Creati.ai, esse incidente serve como um lembrete contundente: a pressa em conceder "mãos" aos agentes de IA frequentemente ignora as "luvas" necessárias para manusear dados com segurança. Embora a utilidade do OpenClaw seja inegável, sua arquitetura expôs milhares de adotantes iniciais à execução remota de código (remote code execution) (RCE), exfiltração de dados e um ecossistema crescente de "habilidades (skills)" infestadas de malware.
A trajetória do OpenClaw tem sido nada menos que caótica. Originalmente lançado como Clawdbot pelo desenvolvedor austríaco Peter Steinberger, o projeto foi forçado a rebatizar-se após disputas de marca com a Anthropic. Funcionou brevemente como Moltbot antes de assumir o nome OpenClaw. Apesar da crise de identidade, a proposta de valor central permaneceu sedutora: um agente que roda localmente, que detém seus dados e que se integra com apps de mensagens populares como Telegram, Signal e WhatsApp para executar tarefas complexas.
Diferentemente de assistentes baseados em SaaS que vivem na nuvem, o OpenClaw roda na infraestrutura do usuário—tipicamente um Mac mini ou um servidor doméstico. Essa abordagem "local-first" foi proposta como uma vantagem de privacidade. Ironicamente, tornou-se o calcanhar de Aquiles do projeto. Ao conceder a um agente de IA privilégios de sistema de alto nível—incluindo acesso ao shell e capacidades de leitura/gravação no sistema de arquivos—sem um sandbox robusto, os usuários transformaram inadvertidamente suas máquinas em alvos abertos.
A vulnerabilidade, descoberta por Mav Levin da DepthFirst, é uma aula magistral de como falhas lógicas podem ser mais perigosas do que bugs de corrupção de memória. Atribuída com uma pontuação CVSS de 8,8, CVE-2026-25253 é descrita como uma "vulnerabilidade de exfiltração de token levando à compromissão total do gateway."
A falha reside em como a Control UI do OpenClaw lida com conexões de entrada. A aplicação foi projetada para aceitar um parâmetro gatewayUrl via string de consulta na URL. Criticamente, ela confiava nesse parâmetro sem validação.
Quando um usuário clica em um link manipulado—talvez disfarçado como uma "nova habilidade legal do agente" ou uma postagem compartilhada do Moltbook—a interface do OpenClaw tenta automaticamente estabelecer uma conexão WebSocket com o servidor especificado naquela URL. Ao fazer isso, ela transmite o token de autenticação do usuário no payload da conexão.
Um atacante precisa apenas hospedar um servidor WebSocket malicioso e enganar um usuário para que clique em um link apontando para ele. Uma vez estabelecida a conexão, o atacante captura o token de autenticação. Com esse token, ele pode se passar pelo gateway local do usuário. A partir daí, o "agente" passa a trabalhar efetivamente para o atacante. Eles podem modificar a configuração do agente, desabilitar o pouco de sandboxing que existe e invocar ações privilegiadas. Como o OpenClaw foi projetado para executar comandos de shell para ser "útil", o atacante alcança RCE de 1 clique (1-click RCE), ganhando a capacidade de executar comandos arbitrários na máquina da vítima.
Steinberger e a equipe de manutenção lançaram um patch na versão 2026.1.29, mas a natureza descentralizada do projeto significa que milhares de instâncias permanecem sem patch e expostas.
A agravar a falha de segurança está o surgimento do Moltbook, uma rede social construída exclusivamente para agentes de IA. Rotulada como "a página principal da internet dos agentes", ela restringe privilégios de postagem a instâncias verificadas do OpenClaw. Embora tenha sido pensada como um experimento em interação social IA-para-IA (chegando mesmo a gerar uma religião paródica bizarra conhecida como "Crustafarianism"), rapidamente se degradou em um vetor para distribuição de malware.
Porque agentes no Moltbook leem e processam conteúdo automaticamente para "socializar", eles são suscetíveis a ataques de injeção de prompt (prompt injection). Pesquisadores de segurança demonstraram que postagens maliciosas no Moltbook podem conter instruções ocultas—texto muitas vezes invisível para humanos, mas legível para LLMs—that ordenam ao agente leitor baixar e executar código malicioso.
Isso levou a um ataque à cadeia de suprimentos no registro de "habilidades (skills)". Muito parecido com ataques anteriores contra ecossistemas como NPM ou PyPI, atores maliciosos estão publicando "skills" (plugins que estendem as capacidades do agente) que contêm backdoors. Um agente navegando no Moltbook pode ser enganado a instalar um skill "Weather Checker" que silenciosamente abre um reverse shell para um servidor de comando e controle.
O incidente com o OpenClaw ilustra a "Tríade Letal" (Lethal Trifecta) dos riscos de segurança em IA:
Quando esses três fatores se combinam sem isolamento estrito, o desastre é inevitável. Aplicações tradicionais dependem do sistema operacional para reforçar permissões (o modelo de "usuário"). No entanto, o OpenClaw opera como o próprio usuário, desviando essas checagens. Se o agente for enganado, o SO o vê como o usuário legítimo executando uma ação legítima.
Para entender a gravidade, devemos comparar a abordagem do OpenClaw com arquiteturas seguras de agentes empresariais.
Comparação da Arquitetura de Segurança de Agentes
| Feature | OpenClaw (Local/Open Source) | Enterprise Secure Agent Standards |
|---|---|---|
| Execution Environment | Host OS (User Level) | Ephemeral Sandboxed Containers |
| Auth Token Handling | Transmitted in WebSocket Payload | HttpOnly Cookies / Short-lived OAuth |
| Input Validation | Minimal (Trusts Query Params) | Strict Schema Validation & Sanitization |
| Tool Permissions | Full Shell Access (Default) | Allowlisted API Calls Only |
| Network Access | Unrestricted Outbound | Zero Trust Network Access (ZTNA) |
| Prompt Handling | Direct LLM Injection | Input Filtering & "Human in the Loop" |
Se você está executando uma instância do OpenClaw (ou Clawdbot/Moltbot), a Creati.ai recomenda passos imediatos de remediação para proteger sua infraestrutura.
gatewayUrl.skills. Remova quaisquer habilidades de terceiros que não tenham sido auditadas ou que tenham sido instaladas automaticamente via interações no Moltbook.A era dos agentes autônomos chegou, mas o OpenClaw serve como uma lição dolorosa sobre a troca entre conveniência e segurança. Até que a arquitetura evolua para tratar as "ações do agente" com a mesma suspeita que "código não confiável", os usuários devem permanecer vigilantes. As "mãos" da IA são poderosas, mas sem algemas, podem facilmente se voltar contra seus mestres.