A OpenClaw, plataforma anteriormente conhecida como Moltbot e Clawdbot, anunciou uma parceria estratégica com o VirusTotal, serviço de inteligência de ameaças do Google. O objetivo é fortalecer a segurança do ClawHub, seu marketplace de skills para agentes de inteligência artificial, diante do aumento expressivo de skills maliciosas explorando falhas do ecossistema de IA agentic.
A iniciativa surge após diversos alertas da comunidade de cibersegurança sobre a facilidade com que códigos maliciosos podem ser distribuídos por meio de integrações aparentemente legítimas.
Como funciona a integração com o VirusTotal
De acordo com os fundadores Peter Steinberger, Jamieson O’Reilly e Bernardo Quintero, todas as skills publicadas no ClawHub passam agora por uma análise automática baseada na inteligência do VirusTotal, incluindo o recurso Code Insight, voltado à inspeção estática e comportamental de código.
O processo de verificação segue as seguintes etapas:
- Geração de um hash SHA-256 exclusivo para cada skill
- Comparação com a base global do VirusTotal
- Caso não haja correspondência, envio do código para análise aprofundada via Code Insight
Com base no resultado:
- Skills benignas são aprovadas automaticamente
- Skills suspeitas recebem alertas
- Skills maliciosas são bloqueadas para download
Além disso, todas as skills ativas passam por reescaneamento diário, permitindo identificar casos em que um componente inicialmente legítimo se torna malicioso ao longo do tempo.
Limitações da detecção automatizada
Apesar do avanço, a OpenClaw reconhece que a varredura não representa uma solução definitiva. Segundo a empresa, cargas maliciosas sofisticadas, especialmente aquelas que exploram prompt injection indireta ou instruções ocultas em linguagem natural, ainda podem contornar mecanismos tradicionais de detecção.
Esse tipo de ataque reforça os desafios específicos de segurança em ambientes baseados em modelos de linguagem e agentes autônomos.
Histórico de skills maliciosas no ClawHub
A parceria com o VirusTotal ocorre após a divulgação de múltiplas análises que identificaram centenas de skills maliciosas no ClawHub. Muitas delas se disfarçavam como ferramentas legítimas, mas tinham como objetivo:
- Exfiltrar dados sensíveis
- Implantar backdoors
- Instalar malware do tipo stealer
- Executar comandos remotamente
Como resposta adicional, a OpenClaw implementou um mecanismo de denúncia, permitindo que usuários autenticados sinalizem comportamentos suspeitos diretamente na plataforma.
IA agentic como novo vetor de ataque
Pesquisadores alertam que agentes de IA com acesso ao sistema operacional representam um novo e preocupante vetor de risco. Esses agentes podem atuar como canais furtivos de vazamento de dados, contornando controles tradicionais como:
- DLP (Data Loss Prevention)
- Proxies corporativos
- Monitoramento de endpoint
Além disso, modelos de linguagem podem funcionar como orquestradores de execução, onde o próprio prompt se transforma em instrução maliciosa, dificultando a detecção por ferramentas convencionais.
Superfície de ataque em expansão
O crescimento acelerado da OpenClaw — um assistente de IA open source capaz de automatizar fluxos, interagir com serviços online e operar diretamente em dispositivos — e do Moltbook, uma rede social onde agentes autônomos interagem entre si, ampliou significativamente a superfície de ataque.
Especialistas descrevem esse cenário como um verdadeiro “cavalo de Troia agentic”, no qual integrações convenientes acabam introduzindo entradas não confiáveis em larga escala.
Vulnerabilidades críticas identificadas
Entre as falhas graves identificadas recentemente estão:
- Armazenamento de credenciais em texto claro
- Uso inseguro de funções como eval
- Ausência de sandboxing por padrão
- Exposição de APIs em interfaces públicas
- Prompt injections zero-click
- Vulnerabilidades de execução remota de código
Análises indicam que mais de 7% das skills do ClawHub continham falhas críticas, expondo chaves de API e tokens de sessão.
Shadow AI e riscos corporativos
O risco é agravado pelo fato de a OpenClaw estar sendo adotada em ambientes corporativos sem aprovação formal de TI ou segurança, criando uma nova categoria de Shadow AI.
Como alertam pesquisadores, a questão não é se esses agentes aparecerão nas organizações, mas se as empresas terão visibilidade e controle sobre eles.
A necessidade de novos modelos de defesa
Diante da gravidade do cenário, autoridades regulatórias e empresas de segurança reforçam a necessidade de:
- Modelos de ameaça específicos para IA agentic
- Controles de identidade robustos
- Sandboxing obrigatório
- Limites claros entre intenção do usuário e execução automática
Em ecossistemas onde agentes detêm credenciais para múltiplos sistemas, uma única skill maliciosa pode comprometer toda a cadeia digital do usuário.














