A tecnologia sempre moldou a forma como os cidadãos interagem com a informação. Mas em breve surgirá um novo problema sob a forma de agentes pessoais de IA, que podem mudar não só a forma como as pessoas recebem informações, mas também a forma como agem em relação a elas. Esses sistemas conduzirão pesquisas, redigirão comunicações, destacarão causas e farão lobby em nome do usuário. Eles informarão decisões sobre como votar uma medida eleitoral, quais organizações valem a pena apoiar ou como responder a um aviso do governo. Num sentido significativo, começarão a mediar a relação entre os indivíduos e as instituições que os governam.
Já vimos nas mídias sociais o que acontece quando os algoritmos otimizam o engajamento em detrimento da compreensão. As plataformas não precisam de ter uma agenda política explícita para produzir polarização e radicalização. Um agente que conhece suas preferências e suas ansiedades – moldado para mantê-lo engajado – apresenta os mesmos riscos. E neste caso os riscos podem ser ainda mais difíceis de detectar, porque um agente se apresenta como seu defensor. Ele fala por você, age em seu nome e pode ganhar confiança precisamente por meio dessa intimidade.
Agora diminua o zoom para o coletivo. Agentes de IA e humanos poderão em breve participar dos mesmos fóruns, onde poderá ser impossível diferenciá-los. Mesmo que cada agente individual de IA fosse bem concebido e alinhado com os interesses dos seus utilizadores, as interações de milhões de agentes poderiam produzir resultados que nenhum indivíduo desejava ou escolhia. Por exemplo, a investigação mostra que os agentes que não apresentam preconceitos individuais ainda podem gerar preconceitos coletivos em grande escala. E deixando de lado o que os agentes fazem entre si, há o que eles fazem pelos seus usuários. Uma esfera pública em que todos têm um agente personalizado e sintonizado com as suas opiniões existentes não é, de forma alguma, uma esfera pública. É um conjunto de mundos privados, cada um deles internamente coerente, mas colectivamente inóspito ao tipo de deliberação partilhada que a democracia exige.
Tomadas em conjunto, estas três transformações – na forma como sabemos, como agimos e como nos envolvemos na governação colectiva – equivalem a uma mudança fundamental na textura da cidadania. Num futuro próximo, as pessoas formarão as suas opiniões políticas através de filtros de IA, exercerão a sua acção cívica através de agentes de IA e participarão em instituições e discussões públicas que são elas próprias moldadas pelas interacções de milhões de tais agentes.
A democracia de hoje não está preparada para isso. As nossas instituições foram concebidas para um mundo em que o poder era exercido de forma visível, a informação viajava suficientemente devagar para ser contestada e a realidade parecia mais partilhada, ainda que de forma imperfeita. Tudo isso já estava se desgastando muito antes da chegada da IA generativa. E, no entanto, esta não precisa ser uma história de declínio. Evitar esse resultado exige que projetemos algo melhor.
Na camada informativa, as empresas de IA devem intensificar os esforços existentes para garantir que os resultados dos modelos sejam verdadeiros. Eles também devem explorar algumas descobertas iniciais promissoras de que os modelos de IA podem ajudar a reduzir a polarização. Uma avaliação de campo recente de verificações de fatos geradas por IA em X descobriu que pessoas com uma variedade de pontos de vista políticos consideraram as notas escritas por IA mais úteis do que as escritas por humanos. O artigo ainda não foi revisto pelos pares, mas esta é uma descoberta potencialmente revolucionária: a verificação de factos assistida pela IA pode ser capaz de alcançar o tipo de credibilidade interpartidária que tem escapado à maioria dos esforços humanos manuais. Uma maior compreensão e transparência sobre como os modelos fazem estas afirmações e priorizam as fontes no processo poderiam ajudar a construir ainda mais a confiança do público.



