<span class="image__credit--f62c527bbdd8413eb6b6fa545d044c69">Stephanie Arnett/MIT Technology Review | Adobe Stock</span>

Tudo isto significa que os intervenientes, sejam organizações com bons recursos ou colectivos de base, têm um caminho claro para implementar IA politicamente persuasiva em grande escala. As primeiras manifestações já ocorreram em outras partes do mundo. Nas eleições gerais de 2024 na Índia, dezenas de milhões de dólares foram supostamente gastos em IA para segmentar eleitores, identificar eleitores indecisos, fornecer mensagens personalizadas por meio de chamadas automáticas e chatbots e muito mais. Em Taiwan, autoridades e investigadores documentaram operações ligadas à China utilizando IA generativa para produzir desinformação mais subtil, desde deepfakes a resultados de modelos de linguagem que são tendenciosos para mensagens aprovadas pelo Partido Comunista Chinês.

É apenas uma questão de tempo até que esta tecnologia chegue às eleições nos EUA – se é que já não o fez. Os adversários estrangeiros estão bem posicionados para agir primeiro. China, Rússia, Irão e outros já mantêm redes de fazendas de trolls, contas de bots e operadores de influência secreta. Combinadas com modelos de linguagem de código aberto que geram conteúdo político fluente e localizado, essas operações podem ser potencializadas. Na verdade, não há mais necessidade de operadores humanos que entendam a linguagem ou o contexto. Com o ajuste leve, um modelo pode se passar por um organizador de bairro, um representante sindical ou um pai insatisfeito, sem que ninguém jamais coloque os pés no país. As próprias campanhas políticas provavelmente estarão logo atrás. Todas as grandes operações já segmentam os eleitores, testam as mensagens e otimizam a entrega. A IA reduz o custo de fazer tudo isso. Em vez de testar um slogan em sondagens, uma campanha pode gerar centenas de argumentos, apresentá-los um a um e observar em tempo real quais deles mudam de opinião.

O facto subjacente é simples: a persuasão tornou-se eficaz e barata. Campanhas, PACs, actores estrangeiros, grupos de defesa e oportunistas estão todos a jogar no mesmo campo – e há muito poucas regras.

O vácuo político

A maioria dos decisores políticos não se atualizou. Nos últimos anos, os legisladores nos EUA concentraram-se nos deepfakes, mas ignoraram a ameaça persuasiva mais ampla.

Os governos estrangeiros começaram a levar o problema mais a sério. A Lei de IA de 2024 da União Europeia classifica a persuasão relacionada com eleições como um caso de uso de “alto risco”. Qualquer sistema concebido para influenciar o comportamento eleitoral está agora sujeito a requisitos rigorosos. Ferramentas administrativas, como sistemas de IA usados ​​para planejar eventos de campanha ou otimizar logística, estão isentas. No entanto, as ferramentas que visam moldar as crenças políticas ou as decisões de voto não o são.

Em contraste, os Estados Unidos recusaram-se até agora a traçar quaisquer limites significativos. Não existem regras vinculativas sobre o que constitui uma operação de influência política, nem normas externas para orientar a aplicação, nem infraestrutura partilhada para rastrear a persuasão gerada pela IA em todas as plataformas. Os governos federal e estadual têm feito gestos no sentido da regulamentação – a Comissão Eleitoral Federal está a aplicar antigas disposições antifraude, a Comissão Federal de Comunicações propôs regras restritas de divulgação para anúncios transmitidos e alguns estados aprovaram leis profundamente falsas – mas estes esforços são fragmentados e deixam a maior parte das campanhas digitais intocadas.

technologyreview

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *