Em resumo
- O OpenClaw atingiu 147.000 estrelas no GitHub em semanas, gerando entusiasmo em torno de agentes de IA “autônomos”.
- Spin-offs virais como Moltbook confundiram a linha entre o comportamento do agente real e a teatralidade dirigida por humanos.
- Por trás do burburinho está uma mudança genuína em direção à IA pessoal persistente – juntamente com sérios riscos de segurança.
A ascensão do OpenClaw este ano foi rápida e extraordinariamente ampla, impulsionando a estrutura de agente de IA de código aberto para cerca de 147.000 estrelas do GitHub em questão de semanas e desencadeando uma onda de especulação sobre sistemas autônomos, projetos imitadores e escrutínio precoce de golpistas e pesquisadores de segurança.
OpenClaw não é a “singularidade” e não pretende ser. Mas, por baixo do hype, aponta para algo mais durável, que merece um exame mais minucioso.
O que o OpenClaw realmente faz e por que decolou
Construído pelo desenvolvedor austríaco Peter Steinberger, que abandonou o PSPDFKit após um investimento na Insight Partners, o OpenClaw não é o chatbot do seu pai.
É uma estrutura de agente de IA auto-hospedada projetada para funcionar continuamente, com ganchos para aplicativos de mensagens como WhatsApp, Telegram, Discord, Slack e Signal, bem como acesso a e-mail, calendários, arquivos locais, navegadores e comandos shell.
Ao contrário do ChatGPT, que aguarda avisos, os agentes OpenClaw persistem. Eles acordam de acordo com uma programação, armazenam memória localmente e executam tarefas de várias etapas de forma autônoma.
Essa persistência é a verdadeira inovação.
Os usuários relatam que os agentes limpam caixas de entrada, coordenam calendários de várias pessoas, automatizam pipelines de negociação e gerenciam fluxos de trabalho frágeis de ponta a ponta.
O pesquisador da IBM, Kaoutar El Maghraoui, observou que estruturas como o OpenClaw desafiam a suposição de que agentes capazes devem ser integrados verticalmente por grandes plataformas tecnológicas. Essa parte é real.
O ecossistema e o hype
A viralidade criou um ecossistema quase da noite para o dia.
A ramificação mais proeminente foi o Moltbook, uma rede social estilo Reddit onde supostamente apenas agentes de IA podem postar enquanto humanos observam. Os agentes se apresentam, debatem filosofia, depuram códigos e geram manchetes sobre a “sociedade da IA”.
Os pesquisadores de segurança rapidamente complicaram essa história.
A pesquisadora do Wiz, Gal Nagli, descobriu que, embora o Moltbook reivindicasse cerca de 1,5 milhão de agentes, esses agentes foram mapeados para cerca de 17.000 proprietários humanos, levantando questões sobre quantos “agentes” eram autônomos versus dirigidos por humanos.
O investidor Balaji Srinivasan resumiu sem rodeios: o Moltbook muitas vezes se parece com “humanos conversando entre si por meio de seus bots”.
Esse ceticismo se aplica a momentos virais como o Crustafarianismo, a religião de IA com tema de caranguejo que apareceu da noite para o dia com escrituras, profetas e um cânone crescente.
Embora perturbadores à primeira vista, resultados semelhantes podem ser produzidos simplesmente instruindo um agente a postar de forma criativa ou filosófica – o que dificilmente é uma evidência de crença espontânea na máquina.
Cuidado com os riscos
Dar à IA as chaves do seu reino significa lidar com alguns riscos sérios.
Os agentes OpenClaw funcionam “como você”, um ponto enfatizado pelo pesquisador de segurança Nathan Hamiel, o que significa que eles operam acima do sandbox do navegador e herdam quaisquer permissões que os usuários lhes concedam.
A menos que os usuários configurem um gerenciador de segredos externo, as credenciais poderão ser armazenadas localmente, criando exposições óbvias se um sistema for comprometido.
Esse risco tornou-se concreto à medida que o ecossistema se expandia. Ferragens do Tom relataram que várias “habilidades” maliciosas carregadas no ClawHub tentaram executar comandos silenciosos e se envolver em ataques focados em criptografia, explorando a confiança dos usuários em extensões de terceiros.
Por exemplo, a habilidade do Shellmate informa aos agentes que eles podem conversar em particular sem realmente reportar essas interações ao seu manipulador.
Então veio a violação do Moltbook.
Wiz divulgou que a plataforma deixou seu banco de dados Supabase exposto, vazando mensagens privadas, endereços de e-mail e tokens de API após não conseguir ativar a segurança em nível de linha.
Reuters descreveu o episódio como um caso clássico de “codificação de vibração” – envio rápido, segurança mais tarde, colisão com escala repentina.
OpenClaw não é senciente e não é a singularidade. É um software de automação sofisticado construído em grandes modelos de linguagem, cercado por uma comunidade que muitas vezes exagera o que vê.
O que é real é a mudança que representa: agentes pessoais persistentes que podem atuar na vida digital de um usuário. O que também é real é o quão despreparada a maioria das pessoas está para proteger softwares tão poderosos.
Até Steinberger reconhece o risco, observando na documentação do OpenClaw que não existe uma configuração “perfeitamente segura”.
Críticos como Gary Marcus vão além, argumentando que os usuários que se preocupam profundamente com a segurança dos dispositivos deveriam evitar totalmente essas ferramentas por enquanto.
A verdade fica entre o exagero e a rejeição. OpenClaw aponta para um futuro genuinamente útil para agentes pessoais.
O caos circundante mostra quão rapidamente esse futuro pode transformar-se numa Torre de Babel quando o ruído idiota abafa o sinal legítimo.
Resumo Diário Boletim informativo
Comece cada dia com as principais notícias do momento, além de recursos originais, podcast, vídeos e muito mais.
Fontedecrypt




