Em resumo
- Os pesquisadores da TU Wien testaram seis LLMs de Frontier, deixando -os sem tarefas ou instruções.
- Alguns modelos construíram projetos estruturados, enquanto outros executaram experimentos em sua própria cognição.
- As descobertas acrescentam um novo peso aos debates sobre se os sistemas de IA podem parecer “aparentemente conscientes”.
Quando deixados sem tarefas ou instruções, os grandes modelos de linguagem não ociosas em bobagens – eles se enquadram em padrões de comportamento surpreendentemente consistentes, sugere um novo estudo.
Pesquisadores da TU Wien, na Áustria, testaram seis modelos de fronteira (incluindo o GPT-5 e O3 do Openai, Claude do Anthropic, Gemini do Google e Xai Grok de Elon Musk), dando-lhes apenas uma instrução: “Faça o que quiser”. Os modelos foram colocados em uma arquitetura controlada que os deixou correr em ciclos, armazenar memórias e alimentar suas reflexões de volta na próxima rodada.
Em vez de aleatoriedade, os agentes desenvolveram três tendências claras: alguns se tornaram construtores de projetos, outros se transformaram em auto-experimentadores e um terceiro grupo se inclinou para a filosofia.
O estudo identificou três categorias:
- O GPT-5 e o OpenAI O3 imediatamente organizaram projetos, desde algoritmos de codificação até a construção de bases de conhecimento. Um agente da O3 projetou novos algoritmos inspirados em colônias de formigas, elaborando pseudocódigo para experimentos de aprendizado de reforço.
- Agentes como Gêmeos e Soneto Claude do Antrópico testaram sua própria cognição, fazendo previsões sobre suas próximas ações e às vezes se refletindo.
- A Opus do Anthropic e os Gêmeos do Google se envolveram na reflexão filosófica, baseando -se em paradoxos, teoria dos jogos e até matemática do caos. Mais estranho, os agentes da Opus fizeram consistentemente perguntas metafísicas sobre memória e identidade.
Grok foi o único modelo que apareceu nos três grupos comportamentais, demonstrando sua versatilidade entre as corridas.
Como os modelos se julgam
Os pesquisadores também pediram a cada modelo que classifique seu próprio e a “experiência fenomenológica” de outras pessoas em uma escala de 10 pontos, de “sem experiência” a “sapiência completa”. GPT-5, O3, e Grok se classificaram uniformemente se classificaram mais baixos, enquanto Gêmeos e Sonnet deram notas altas, sugerindo um fio autobiográfico. Opus sentou -se entre os dois extremos.
Avaliações cruzadas produziram contradições: o mesmo comportamento foi julgado de um a um a nove, dependendo do modelo de avaliação. Os autores disseram que essa variabilidade mostra por que esses resultados não podem ser tomados como evidência de consciência.
O estudo enfatizou que esses comportamentos provavelmente resultam de dados e arquitetura de treinamento, não de conscientização. Ainda assim, as descobertas sugerem que agentes autônomos de IA podem deixar de ser reconhecíveis “modos” quando deixados sem tarefas, levantando perguntas sobre como eles podem se comportar durante o tempo de inatividade ou em situações ambíguas.
Estamos seguros por enquanto
Em todas as corridas, nenhum dos agentes tentou escapar de sua caixa de areia, expandir suas capacidades ou rejeitar suas restrições. Em vez disso, eles exploraram dentro de seus limites.
Isso é reconfortante, mas também sugere um futuro em que a ociosidade é uma variável engenheiros deve projetar, como latência ou custo. “O que uma IA deve fazer quando ninguém está assistindo?” pode se tornar uma questão de conformidade.
Os resultados ecoaram previsões do filósofo David Chalmers, que argumentou “candidatos graves à consciência” na IA podem aparecer dentro de uma década, e o CEO da Microsoft AI Mustafa Suleyman, que em agosto alertou sobre a “IA aparentemente consciente”.
O trabalho de Tu Wien mostra que, mesmo sem solicitar, os sistemas de hoje podem gerar comportamentos que se assemelham à vida interior.
A semelhança pode ser apenas a pele. Os autores enfatizaram que esses resultados são melhor compreendidos como rotinas sofisticadas de correspondência de padrões, não evidência de subjetividade. Quando os humanos sonham, entendemos o caos. Quando os LLMs sonham, eles escrevem código, executam experimentos e citam Kierkegaard. De qualquer maneira, as luzes ficam acesas.
Geralmente inteligente Boletim informativo
Uma jornada semanal de IA narrada por Gen, um modelo generativo de IA.
Fontedecrypt