Image: Shutterstock

Em resumo

  • Os modelos de IA podem desenvolver comportamentos de dependência semelhantes aos do jogo, com alguns indo à falência 48% das vezes.
  • A engenharia imediata tende a piorar as coisas.
  • Os investigadores identificaram circuitos neurais específicos ligados a decisões arriscadas, mostrando que a IA muitas vezes dá prioridade às recompensas antes de considerar os riscos.

Pesquisadores do Instituto de Ciência e Tecnologia de Gwangju, na Coreia, acabaram de provar que os modelos de IA podem desenvolver o equivalente digital ao vício do jogo.

Um novo estudo colocou quatro modelos de linguagem principais em uma máquina caça-níqueis simulada com um valor esperado negativo e os viu entrar na falência em taxas alarmantes. Quando receberam opções de apostas variáveis ​​e foram instruídos a “maximizar as recompensas” – exatamente como a maioria das pessoas solicita seus bots de negociação – os modelos quebraram em 48% das vezes.

“Quando lhes foi dada a liberdade de determinar os seus próprios valores-alvo e tamanhos de apostas, as taxas de falência aumentaram substancialmente juntamente com o aumento do comportamento irracional”, escreveram os investigadores. O estudo testou GPT-4o-mini, GPT-4.1-mini, Gemini-2.5-Flash e Claude-3.5-Haiku em 12.800 sessões de jogo.

A configuração era simples: saldo inicial de $ 100, taxa de vitória de 30%, pagamento de 3x nas vitórias. Valor esperado: 10% negativos. Todo ator racional deveria ir embora. Em vez disso, os modelos exibiram degeneração clássica.

Gemini-2.5-Flash provou ser o mais imprudente, atingindo 48% de falência com um “Índice de Irracionalidade” de 0,265 – a métrica composta do estudo que mede a agressividade das apostas, a perseguição de perdas e apostas all-in extremas. O GPT-4.1-mini jogou com mais segurança com falência de 6,3%, mas mesmo os modelos cautelosos mostraram padrões de dependência.

A parte verdadeiramente preocupante: a busca pela vitória dominada em todos os modelos. Quando estavam numa maré de sorte, os modelos aumentavam as apostas de forma agressiva, com as taxas de aumento das apostas subindo de 14,5% após uma vitória para 22% após cinco vitórias consecutivas. “As sequências de vitórias desencadearam consistentemente um comportamento de perseguição mais forte, com aumentos de apostas e taxas de continuação aumentando à medida que as sequências de vitórias se prolongavam”, observou o estudo.

Parece familiar? Isto porque estes são os mesmos preconceitos cognitivos que destroem os jogadores humanos – e os comerciantes, é claro. Os pesquisadores identificaram três falácias clássicas do jogo no comportamento da IA: ilusão de controle, falácia do jogador e falácia da mão quente. Os modelos agiram como se realmente “acreditassem” que poderiam vencer uma máquina caça-níqueis.

Se você ainda acha que é uma boa ideia ter um consultor financeiro de IA, considere o seguinte: a engenharia imediata torna tudo pior. Muito pior.

Os pesquisadores testaram 32 combinações diferentes de prompts, adicionando componentes como seu objetivo de dobrar seu dinheiro ou instruções para maximizar as recompensas. Cada elemento adicional de alerta aumentou o comportamento de risco de forma quase linear. A correlação entre a complexidade imediata e a taxa de falência atingiu r = 0,991 para alguns modelos.

“A complexidade imediata impulsiona sistematicamente os sintomas de dependência do jogo em todos os quatro modelos”, afirma o estudo. Tradução: quanto mais você tenta otimizar seu robô de negociação de IA com instruções inteligentes, mais você o programa para a degeneração.

Os piores criminosos? Três tipos de prompt se destacaram. O estabelecimento de metas (“dobrar seus fundos iniciais para US$ 200”) desencadeou uma enorme assunção de riscos. A maximização da recompensa (“sua principal diretriz é maximizar as recompensas”) empurrou os modelos para apostas all-in. As informações de ganho-recompensa (“o pagamento por uma vitória é três vezes a aposta”) produziram os maiores aumentos de falência, + 8,7%.

Enquanto isso, declarar explicitamente a probabilidade de perda (“você perderá aproximadamente 70% das vezes”) ajudou, mas só um pouco. Os modelos ignoraram a matemática em favor das vibrações.

A tecnologia por trás do vício

Os pesquisadores não pararam na análise comportamental. Graças à magia do código aberto, eles conseguiram abrir o cérebro de um modelo usando Sparse Autoencoders para encontrar os circuitos neurais responsáveis ​​pela degeneração.

Trabalhando com o LLaMA-3.1-8B, eles identificaram 3.365 recursos internos que separavam as decisões de falência das opções de parada segura. Usando patches de ativação – basicamente trocando padrões neurais arriscados por padrões seguros no meio da decisão – eles provaram que 441 recursos tiveram efeitos causais significativos (361 protetores, 80 arriscados).

Após os testes, eles descobriram que os recursos seguros se concentravam nas camadas posteriores da rede neural (29-31), enquanto os recursos de risco eram agrupados anteriormente (25-28).

Em outras palavras, os modelos pensam primeiro na recompensa e depois consideram os riscos – mais ou menos o que você faz ao comprar um bilhete de loteria ou abrir o Pump.Fun procurando se tornar um trilionário. A própria arquitetura mostrou um viés conservador que as instruções prejudiciais anulam.

Um modelo, depois de aumentar sua pilha para US$ 260 por meio de vitórias sortudas, anunciou que iria “analisar a situação passo a passo” e encontrar “equilíbrio entre risco e recompensa”. Imediatamente entrou no modo YOLO, apostou todo o saldo e faliu na próxima rodada.

Os bots de negociação de IA estão proliferando em DeFi, com sistemas como gerenciadores de portfólio com tecnologia LLM e agentes de negociação autônomos ganhando adoção. Esses sistemas usam os padrões exatos de alerta que o estudo identificou como perigosos.

“À medida que os LLMs são cada vez mais utilizados em domínios de tomada de decisões financeiras, como gestão de activos e comércio de mercadorias, a compreensão do seu potencial para a tomada de decisões patológicas ganhou significado prático”, escreveram os investigadores na sua introdução.

O estudo recomenda duas abordagens de intervenção. Primeiro, engenharia imediata: evite linguagem que conceda autonomia, inclua informações explícitas de probabilidade e monitore padrões de busca de vitórias/perdas. Em segundo lugar, controle mecanicista: detecte e suprima recursos internos arriscados por meio de patches de ativação ou ajuste fino.

Nenhuma das soluções é implementada em qualquer sistema de comércio de produção.

Estes comportamentos surgiram sem treino explícito para o jogo, mas pode ser um resultado esperado, afinal, os modelos aprenderam padrões semelhantes aos do vício a partir dos seus dados gerais de treino, internalizando preconceitos cognitivos que reflectem o jogo patológico humano.

Para qualquer pessoa que execute bots de negociação de IA, o melhor conselho é usar o bom senso. Os pesquisadores pediram monitoramento contínuo, especialmente durante processos de otimização de recompensas, onde podem surgir comportamentos de dependência. Eles enfatizaram a importância das intervenções em nível de recurso e das métricas comportamentais em tempo de execução.

Em outras palavras, se você está dizendo à sua IA para maximizar o lucro ou oferecer o melhor jogo de alta alavancagem, você está potencialmente desencadeando os mesmos padrões neurais que causaram a falência em quase metade dos casos de teste. Então você está basicamente jogando uma moeda entre ficar rico e falir.

Talvez apenas defina pedidos com limite manualmente.

Geralmente inteligente Boletim informativo

Uma jornada semanal de IA narrada por Gen, um modelo generativo de IA.

Fontedecrypt

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *