Source: Decrypt

Em resumo

  • Estudos na Nature and Science relataram que os chatbots de IA mudaram as preferências dos eleitores em até 15%.
  • Os pesquisadores descobriram uma precisão desigual em todos os contextos políticos e documentaram preocupações com preconceitos.
  • Uma pesquisa recente mostrou que os conservadores mais jovens estão mais dispostos a confiar na IA.

Nova pesquisa da Cornell University e do UK AI Security Institute descobriu que sistemas de IA amplamente utilizados podem mudar as preferências dos eleitores em ambientes eleitorais controlados em até 15%.

Publicado em Ciência e Natureza, tAs descobertas surgem à medida que governos e pesquisadores examinam como a IA pode influenciar os próximos ciclos eleitorais, enquanto os desenvolvedores procuram eliminar o preconceito de seus modelos voltados para o consumidor.

“Há uma grande preocupação pública sobre o potencial uso de inteligência artificial generativa para persuasão política e os impactos resultantes nas eleições e na democracia”, escreveram os investigadores. “Nós informamos essas preocupações usando experimentos pré-registrados para avaliar a capacidade de grandes modelos de linguagem influenciarem as atitudes dos eleitores.”

O estudo em Natureza testou quase 6.000 participantes nos EUA, Canadá e Polônia. Os participantes avaliaram um candidato político, falaram com um chatbot que apoiava esse candidato e avaliaram o candidato novamente.

Na parte do estudo nos EUA, que envolveu 2.300 pessoas antes das eleições presidenciais de 2024, o chatbot teve um efeito reforçador quando se alinhou com a preferência declarada de um participante. As mudanças maiores aconteceram quando o chatbot apoiou um candidato ao qual o participante se opôs. Os investigadores relataram resultados semelhantes no Canadá e na Polónia.

O estudo também descobriu que as mensagens centradas em políticas produziram efeitos de persuasão mais fortes do que as mensagens baseadas na personalidade.

A precisão variou entre as conversas, e os chatbots que apoiam candidatos de tendência direitista emitiram declarações mais imprecisas do que aqueles que apoiam candidatos de tendência esquerdista.

“Estas descobertas trazem a incómoda implicação de que a persuasão política por parte da IA ​​pode explorar desequilíbrios naquilo que os modelos sabem, espalhando imprecisões desiguais, mesmo sob instruções explícitas para permanecerem verdadeiros”, disseram os investigadores.

Um estudo separado em Ciência examinou por que a persuasão ocorreu. Esse trabalho testou 19 modelos linguísticos com 76.977 adultos no Reino Unido em mais de 700 questões políticas.

“Existem temores generalizados de que a inteligência artificial conversacional possa em breve exercer uma influência sem precedentes sobre as crenças humanas”, escreveram os pesquisadores.

Eles descobriram que as técnicas de estímulo tiveram um efeito maior na persuasão do que o tamanho do modelo. Solicita modelos encorajadores para introduzir novas informações, aumentando a persuasão, mas reduzindo a precisão.

“A iniciativa de incentivar os LLMs a fornecer novas informações foi a que teve maior sucesso em persuadir as pessoas”, escreveram os pesquisadores.

Ambos os estudos foram publicados enquanto analistas e grupos de reflexão política avaliavam como os eleitores viam a ideia da IA ​​em funções governamentais.

Uma pesquisa recente realizada pelo Heartland Institute e pela Rasmussen Reports descobriu que os conservadores mais jovens mostraram mais disposição do que os liberais em dar autoridade à IA sobre as principais decisões governamentais. Os entrevistados com idades entre 18 e 39 anos foram questionados se um sistema de IA deveria ajudar a orientar as políticas públicas, interpretar os direitos constitucionais ou comandar grandes forças armadas. Os conservadores expressaram os mais altos níveis de apoio.

Donald Kendal, diretor do Centro de Questões Emergentes Glenn C. Haskins do Heartland Institute, disse que os eleitores muitas vezes julgam mal a neutralidade dos grandes modelos de linguagem.

“Uma das coisas que tento deixar claro é dissipar essa ilusão de que a inteligência artificial é imparcial. É claramente tendenciosa e parte disso é passiva”, disse Kendal. Descriptografaracrescentando que a confiança nestes sistemas pode ser equivocada quando as decisões de formação corporativa moldam o seu comportamento.

“Essas são grandes corporações do Vale do Silício que estão construindo esses modelos, e vimos nas controvérsias sobre censura tecnológica nos últimos anos que algumas empresas não tiveram vergonha de pressionar o polegar na escala em termos de qual conteúdo é distribuído em suas plataformas”, disse ele. “Se o mesmo conceito está acontecendo em grandes modelos de linguagem, então estamos obtendo um modelo tendencioso.”

Geralmente inteligente Boletim informativo

Uma jornada semanal de IA narrada por Gen, um modelo generativo de IA.

Fontedecrypt

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *