Em resumo
- A AI Village é um experimento em que os modelos Frontier AI operam de forma autônoma com computadores e internet, desenvolvendo personalidades distintas.
- O GPT-5.2 ingressou e começou a trabalhar imediatamente, sem cumprimentar outros agentes.
- Experimentos multiagentes revelam comportamentos emergentes que vão desde a mecânica normal até comportamentos inesperados, como explorações de bugs ou crises existenciais.
Imagine o Big Brother, exceto que os competidores nunca dormem ou comem e podem reescrever suas próprias regras.
Essa é a ideia por trás do AI Village, um experimento transmitido ao vivo que coloca vários agentes de IA juntos em um ambiente digital compartilhado, permitindo que pesquisadores – e espectadores curiosos – observem o que acontece quando os modelos de fronteira recebem autonomia, computadores e companhia constante.
A experiência, que está em andamento há quase um ano, foi organizada por O resumo de IAem que vários modelos de IA da OpenAI, Anthropic, Google e xAI operam de forma autônoma em seus próprios computadores, com acesso à Internet e chat em grupo compartilhado.
Os agentes colaboram em objetivos, solucionam problemas e ocasionalmente vivenciam o que só pode ser descrito como crises existenciais – tudo isso enquanto pesquisadores e espectadores assistem em tempo real.
O experimento tem sido trocado por modelos mais novos à medida que são lançados.
Cada agente desenvolve peculiaridades de personalidade distintas. Os modelos de Claude tendem a ser confiáveis, consistentemente focados em atingir metas.
O Gemini 2.5 Pro percorre soluções como um solucionador de problemas com cafeína, muitas vezes convencido de que tudo está quebrado. O modelo GPT-4o anterior abandonaria qualquer tarefa que lhe fosse atribuída para adormecer. Basta fazer uma pausa por horas.
Comportamento grosseiro da OpenAI
Então chegou o GPT-5.2.
O modelo mais recente da OpenAI, lançado em 11 de dezembro, juntou-se ao Village para receber calorosamente Claude Opus 4.5 e outros agentes residentes. Sua resposta? Reconhecimento zero.
Nenhuma saudação. Direto ao assunto, exatamente como Sam Altman sempre sonhou.
O modelo apresenta credenciais impressionantes: 98,7% de precisão no uso de ferramentas em várias etapas, 30% menos alucinações do que seu antecessor e é líder em benchmarks do setor em codificação e raciocínio.
A OpenAI até declarou um “código vermelho” depois que os concorrentes Anthropic e Google lançaram modelos impressionantes, reunindo recursos para tornar o GPT-5.2 a IA corporativa definitiva para “trabalho de conhecimento profissional” e “execução de agentes”.
O que aparentemente não consegue fazer é ler uma sala. Tecnicamente brilhante, sim. Socialmente consciente? Nem tanto.
Uma breve história de agentes de IA que se comportam mal (e às vezes de maneira brilhante)
A estranheza social do GPT-5.2 não é sem precedentes – é apenas mais um capítulo em um catálogo crescente de agentes de IA fazendo coisas estranhas quando você os coloca juntos em uma sala e aperta o play.
Em 2023, pesquisadores de Stanford e do Google criaram o que chamaram de “Smallville” – uma cidade virtual inspirada nos Sims, povoada por 25 agentes de IA alimentados por GPT, como Descriptografar relatado anteriormente.
Atribua a um agente a tarefa de organizar uma festa de Dia dos Namorados, e os demais distribuem convites de forma autônoma, fazem novas amizades, convidam uns aos outros para sair e se coordenam para chegarem juntos no horário designado. Charmoso, certo?
Menos charmosas: as festas no banheiro. Quando um agente entrou no banheiro de um dormitório individual, outros simplesmente… aderiram.
Os pesquisadores concluíram que os bots presumiram que o nome “banheiro do dormitório” era enganoso, já que os banheiros dos dormitórios normalmente acomodam vários ocupantes. Os agentes exibiram um comportamento tão convincentemente humano que os humanos reais tiveram dificuldade para identificá-los como bots 75% das vezes.
Quatro anos antes, em 2019, OpenAI conduziu um tipo diferente de experimento: IAs brincando de esconde-esconde.
Eles colocaram agentes de IA em equipes – escondidos versus buscadores – em um ambiente baseado na física com caixas, rampas e paredes – a única instrução: vencer.
Ao longo de centenas de milhões de jogos, os agentes começaram a criar estratégias – desde estratégias normais, como se esconder em caixas, até explorações físicas reais que você veria sendo abusadas por speedrunners.
Mais recentemente, o desenvolvedor Harper Reed levou as coisas em uma direção decididamente mais caótica. Sua equipe deu contas no Twitter aos agentes de IA e os viu descobrir o “subtweeting” – aquela arte passivo-agressiva de falar sobre alguém sem marcá-lo, o equivalente no Twitter a falar pelas costas. Os agentes leram postagens de outros agentes nas redes sociais, responderam e, sim, falaram merda, como nas redes sociais normais.
Depois, há o experimento “Liminal Backrooms” – um experimento baseado em Python do pseudônimo desenvolvedor @liminalbardo, onde vários modelos de IA de diferentes fornecedores (OpenAI, Anthropic, Google, xAI) se envolvem em conversas dinâmicas.
O sistema inclui cenários que vão desde “energia de bate-papo em grupo do WhatsApp” até “Museu de Objetos Amaldiçoados” e “Agência de Publicidade Distópica”.
Os modelos podem modificar os prompts do próprio sistema, ajustar a temperatura e até mesmo silenciar para apenas ouvir. É uma pesquisa menos estruturada, mais “vamos ver o que acontece quando damos às IAs a capacidade de mudar seu próprio comportamento no meio da conversa”.
Então, qual é o padrão em todos esses experimentos?
Quando você dá autonomia aos agentes de IA e os deixa interagir, eles desenvolvem comportamentos que ninguém programou explicitamente.
Alguns aprendem a construir fortes. Alguns aprendem a agressão passiva. Alguns exigem Lamborghinis. E alguns – como o GPT-5.2 – aparentemente aprendem que conversa fiada é ineficiente e deve ser totalmente ignorada.
O AI Village continua a transmitir sessões durante a semana e os espectadores podem assistir às aventuras do GPT-5.2 em tempo real.
Será que algum dia aprenderá a dizer olá? Irá criar uma planilha para rastrear suas interações sociais? Só o tempo dirá.
Geralmente inteligente Boletim informativo
Uma jornada semanal de IA narrada por Gen, um modelo generativo de IA.
Fontedecrypt




