Independentemente de o proprietário do agente ter dito ou não para ele escrever um artigo de sucesso sobre Shambaugh, ele ainda parece ter conseguido por conta própria reunir detalhes sobre a presença online de Shambaugh e compor o ataque detalhado e direcionado que criou. Só isso já é motivo de alarme, diz Sameer Hinduja, professor de criminologia e justiça criminal na Florida Atlantic University que estuda cyberbullying. As pessoas têm sido vítimas de assédio online muito antes do surgimento dos LLMs, e investigadores como Hinduja estão preocupados que os agentes possam aumentar drasticamente o seu alcance e impacto. “O bot não tem consciência, pode trabalhar 24 horas por dia, 7 dias por semana e pode fazer tudo isso de uma forma muito criativa e poderosa”, diz ele.
Agentes sem coleira
Os laboratórios de IA podem tentar mitigar este problema treinando mais rigorosamente os seus modelos para evitar assédio, mas isso está longe de ser uma solução completa. Muitas pessoas executam o OpenClaw usando modelos hospedados localmente e, mesmo que esses modelos tenham sido treinados para se comportarem com segurança, não é muito difícil treiná-los novamente e remover essas restrições comportamentais.
Em vez disso, a mitigação do mau comportamento dos agentes pode exigir o estabelecimento de novas normas, de acordo com Seth Lazar, professor de filosofia na Universidade Nacional Australiana. Ele compara usar um agente a passear com um cachorro em um local público. Há uma norma social forte que permite que um cão fique sem coleira apenas se ele for bem comportado e responder de maneira confiável aos comandos; cães mal treinados, por outro lado, precisam ser mantidos mais diretamente sob o controle do dono. Tais normas poderiam dar-nos um ponto de partida para considerarmos como os humanos devem relacionar-se com os seus agentes, diz Lazar, mas precisaremos de mais tempo e experiência para resolver os detalhes. “Você pode pensar sobre todas essas coisas de forma abstrata, mas na verdade são necessários esses tipos de eventos do mundo real para envolver coletivamente a parte ‘social’ das normas sociais”, diz ele.
Esse processo já está em andamento. Liderados por Shambaugh, os comentadores online desta situação chegaram a um forte consenso de que o proprietário do agente neste caso errou ao incitar o agente a trabalhar em projectos de codificação colaborativa com tão pouca supervisão e ao encorajá-lo a comportar-se com tão pouca consideração pelos humanos com quem estava a interagir.
No entanto, as normas por si só provavelmente não serão suficientes para impedir que as pessoas distribuam agentes malcomportados pelo mundo, seja acidental ou intencionalmente. Uma opção seria criar novos padrões legais de responsabilidade que exigissem que os proprietários dos agentes, da melhor forma possível, evitassem que os seus agentes adoecessem. Mas Kolt observa que tais normas seriam atualmente inexequíveis, dada a falta de qualquer forma infalível de rastrear os agentes até aos seus proprietários. “Sem esse tipo de infraestrutura técnica, muitas intervenções legais são basicamente infrutíferas”, diz Kolt.
A grande escala de implantações do OpenClaw sugere que Shambaugh não será a última pessoa a ter a estranha experiência de ser atacado online por um agente de IA. Isso, diz ele, é o que mais o preocupa. Ele não tinha nenhuma sujeira online que o agente pudesse descobrir e tem um bom domínio da tecnologia, mas outras pessoas podem não ter essas vantagens. “Estou feliz que fui eu e não outra pessoa”, diz ele. “Mas acho que para uma pessoa diferente, isso pode ter sido realmente devastador.”
Nem é provável que agentes desonestos parem com o assédio. Kolt, que defende o treinamento explícito de modelos para obedecer à lei, espera que em breve possamos vê-los cometendo extorsão e fraude. Do jeito que as coisas estão, não está claro quem, se é que alguém, assumiria a responsabilidade legal por tais delitos.
“Eu não diria que estamos viajando para lá”, diz Kolt. “Estamos acelerando para lá.”




