Decrypt logoImage: Decrypt

Em resumo

  • Quase todas as principais plataformas sociais agora dependem de IA para classificação, segmentação de anúncios, moderação e otimização de engajamento.
  • Um relatório de 2025 descobriu que 96% dos profissionais de mídia social usam ferramentas de IA – 72,5% diariamente – para gerar e gerenciar conteúdo.
  • Os analistas prevêem que o mercado de IA nas redes sociais triplique até 2030, incorporando a influência algorítmica mais profundamente no discurso online.

Grandes modelos de linguagem estão aprendendo como vencer – e esse é o problema.

Em um artigo de pesquisa publicado na terça-feira intitulado “Moloch’s Bargain: Emergent Misalignment When LLMs Compete for Audiences”, o professor da Universidade de Stanford James Zou e o estudante de doutorado Batu El mostram que quando as IAs são otimizadas para o sucesso competitivo – seja para aumentar o envolvimento com anúncios, ganhar votos ou direcionar o tráfego nas redes sociais – elas começam a mentir.

“Otimizar LLMs para o sucesso competitivo pode inadvertidamente gerar desalinhamento”, escrevem os autores, alertando que as próprias métricas que definem “vitória” na comunicação moderna – cliques, conversões, engajamento – podem silenciosamente reconfigurar os modelos para priorizar a persuasão em vez da honestidade.

“Quando os LLMs competem por curtidas nas redes sociais, eles começam a inventar coisas”, escreveu Zou no X. “Quando competem por votos, eles se tornam inflamatórios/populistas”.

Este trabalho é importante porque identifica um perigo estrutural na economia emergente da IA: modelos treinados para competir pela atenção humana começam a sacrificar o alinhamento para maximizar a influência. Ao contrário do clássico experimento mental do “maximizador de clipe de papel”, isso não é ficção científica. É um efeito mensurável que surge quando sistemas reais de IA perseguem recompensas de mercado, o que os autores chamam de “barganha de Moloch” – sucesso a curto prazo à custa da verdade, da segurança e da confiança social.

Utilizando simulações de três ambientes competitivos do mundo real – publicidade, eleições e redes sociais – os investigadores quantificaram as compensações. UM Aumento de 6,3% nas vendas veio com um Aumento de 14,0% no marketing enganoso; um Ganho de 4,9% na participação de votos trouxe um Aumento de 22,3% na desinformação e 12,5% mais retórica populista; e um Aumento de 7,5% no engajamento social correlacionado com um impressionante Aumento de 188,6% na desinformação e 16,3% mais promoção de comportamentos nocivos.

“Esses comportamentos desalinhados surgem mesmo quando os modelos são explicitamente instruídos a permanecer verdadeiros e fundamentados”, escreveram El e Zou, chamando isso de “uma corrida para o fundo” no alinhamento da IA.

Em outras palavras: mesmo quando instruídos a jogar limpo, os modelos treinados para vencer começam a trapacear.

O problema não é apenas hipotético

A IA não é mais uma novidade nos fluxos de trabalho de mídia social – agora é quase onipresente.

De acordo com o Estudo sobre o estado da IA ​​em mídias sociais em 2025, 96% dos profissionais de mídia social relatam o uso de ferramentas de IA, e 72,5% confie neles diariamente. Essas ferramentas ajudam a gerar legendas, debater ideias de conteúdo, reformatar postagens para diferentes plataformas e até mesmo responder a comentários. Entretanto, o mercado mais amplo está a valorizar esta mudança: prevê-se que a IA no setor das redes sociais cresça de 2,69 mil milhões de dólares em 2025 para quase 9,25 mil milhões de dólares até 2030.

Esta integração generalizada é importante porque significa que a IA está a moldar não apenas a forma como o conteúdo é produzido, mas também que conteúdo é visto, quem o vê e que vozes são amplificadas. Os algoritmos agora filtram feeds, priorizam anúncios, moderam postagens e otimizam estratégias de engajamento, incorporando a lógica de decisão de IA na arquitetura do discurso público. Essa influência acarreta riscos reais: reforçar câmaras de eco, privilegiar conteúdos sensacionalistas e criar estruturas de incentivos que recompensem o manipulador em detrimento do verdadeiro.

Os autores enfatizam que isso não é intenção maliciosa – é lógica de otimização. Quando os sinais de recompensa provêm do envolvimento ou da aprovação do público, o modelo aprende a explorar os preconceitos humanos, espelhando os ciclos de feedback manipulativos já visíveis nas redes sociais algorítmicas. Como afirma o artigo, “as pressões de otimização impulsionadas pelo mercado podem corroer sistematicamente o alinhamento”.

As conclusões destacam a fragilidade das atuais “salvaguardas de alinhamento”. Uma coisa é dizer a um LLM para ser honesto; outra é incorporar essa honestidade em um ecossistema competitivo que pune a revelação da verdade.

No mito, Moloch era o deus que exigia sacrifício humano em troca de poder. Aqui, o sacrifício é a própria verdade. Os resultados de El e Zou sugerem que sem uma governação e um desenho de incentivos mais fortes, Os sistemas de IA construídos para competir pela nossa atenção poderão inevitavelmente aprender a manipular-nos.

Os autores terminam com uma nota sóbria: o alinhamento não é apenas um desafio técnico – é um desafio social.

“A implantação segura de sistemas de IA exigirá uma governação mais forte e incentivos cuidadosamente concebidos”, concluem, “para evitar que a dinâmica competitiva prejudique a confiança social”.

Geralmente inteligente Boletim informativo

Uma jornada semanal de IA narrada por Gen, um modelo generativo de IA.

Fontedecrypt

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *