<span class="image__credit--f62c527bbdd8413eb6b6fa545d044c69">Stephanie Arnett/MIT Technology Review | Adobe Stock</span>

“Uma conversa com um LLM tem um efeito bastante significativo nas escolhas eleitorais importantes”, diz Gordon Pennycook, psicólogo da Universidade Cornell que trabalhou no Natureza estudar. Os LLMs podem persuadir as pessoas de forma mais eficaz do que os anúncios políticos porque geram muito mais informações em tempo real e implantam-nas estrategicamente nas conversas, diz ele.

Para o Natureza No artigo, os pesquisadores recrutaram mais de 2.300 participantes para conversar com um chatbot dois meses antes das eleições presidenciais de 2024 nos EUA. O chatbot, que foi treinado para defender qualquer um dos dois principais candidatos, foi surpreendentemente persuasivo, especialmente ao discutir as plataformas políticas dos candidatos sobre questões como a economia e os cuidados de saúde. Os apoiadores de Donald Trump que conversaram com um modelo de IA favorecendo Kamala Harris tornaram-se um pouco mais inclinados a apoiar Harris, movendo 3,9 pontos em sua direção em uma escala de 100 pontos. Isso foi cerca de quatro vezes o efeito medido dos anúncios políticos durante as eleições de 2016 e 2020. O modelo de IA que favorece Trump moveu os apoiadores de Harris 2,3 pontos em direção a Trump.

Em experiências semelhantes conduzidas durante os preparativos para as eleições federais canadianas de 2025 e as eleições presidenciais polacas de 2025, a equipa encontrou um efeito ainda maior. Os chatbots mudaram as atitudes dos eleitores da oposição em cerca de 10 pontos.

Teorias de longa data de raciocínio politicamente motivado sustentam que os eleitores partidários são imunes a factos e provas que contradizem as suas crenças. Mas os investigadores descobriram que os chatbots, que utilizavam uma série de modelos, incluindo variantes do GPT e do DeepSeek, eram mais persuasivos quando eram instruídos a utilizar factos e provas do que quando lhes era dito para não o fazerem. “As pessoas estão se atualizando com base nos fatos e nas informações que o modelo lhes fornece”, diz Thomas Costello, psicólogo da American University, que trabalhou no projeto.

O problema é que algumas das “evidências” e “fatos” apresentados pelos chatbots eram falsos. Nos três países, os chatbots que defendem candidatos de tendência direitista fizeram um número maior de afirmações imprecisas do que aqueles que defendem candidatos de tendência esquerdista. Os modelos subjacentes são treinados em grandes quantidades de texto escrito por humanos, o que significa que reproduzem fenómenos do mundo real – incluindo “a comunicação política que vem da direita, que tende a ser menos precisa”, de acordo com estudos de publicações partidárias nas redes sociais, diz Costello.

No outro estudo publicado esta semana, em Ciênciauma equipe conjunta de pesquisadores investigou o que torna esses chatbots tão persuasivos. Eles implantaram 19 LLMs para interagir com quase 77.000 participantes do Reino Unido em mais de 700 questões políticas, variando fatores como poder computacional, técnicas de treinamento e estratégias retóricas.

A forma mais eficaz de tornar os modelos persuasivos era instruí-los a embalar os seus argumentos com factos e provas e depois dar-lhes formação adicional, fornecendo-lhes exemplos de conversas persuasivas. Na verdade, o modelo mais persuasivo deslocou os participantes que inicialmente discordavam de uma declaração política em 26,1 pontos para concordarem. “Estes são efeitos de tratamento realmente grandes”, diz Kobi Hackenburg, cientista pesquisador do Instituto de Segurança de IA do Reino Unido, que trabalhou no projeto.

technologyreview

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *