Na quinta-feira, relatei a primeira confirmação de que o Departamento de Segurança Interna dos EUA, que abriga agências de imigração, está usando geradores de vídeo de IA do Google e da Adobe para criar conteúdo que compartilha com o público. A notícia chega num momento em que as agências de imigração inundam as redes sociais com conteúdos para apoiar a agenda de deportações em massa do Presidente Trump – alguns dos quais parecem ter sido feitos com IA (como um vídeo sobre “Natal depois das deportações em massa”).
Mas recebi dois tipos de reações de leitores que podem explicar igualmente a crise epistêmica em que nos encontramos.
Uma delas veio de pessoas que não ficaram surpresas, porque em 22 de janeiro a Casa Branca postou uma foto digitalmente alterada de uma mulher presa em um protesto do ICE, uma foto que a fez parecer histérica e em lágrimas. Kaelan Dorr, vice-diretora de comunicações da Casa Branca, não respondeu às perguntas sobre se a Casa Branca alterou a foto, mas escreveu: “Os memes continuarão”.
A segunda veio de leitores que não viam sentido em relatar que o DHS estava a usar IA para editar conteúdos partilhados com o público, porque os meios de comunicação aparentemente estavam a fazer o mesmo. Eles apontaram para o fato de que a rede de notícias MS Now (anteriormente MSNBC) compartilhou uma imagem de Alex Pretti que foi editada por IA e parecia torná-lo mais bonito, um fato que levou a muitos clipes virais esta semana, incluindo um do podcast de Joe Rogan. Combater fogo com fogo, em outras palavras? Um porta-voz do MS Now disse ao Snopes que o meio de comunicação exibiu a imagem sem saber que ela foi editada.
Não há razão para colocar estes dois casos de conteúdo alterado na mesma categoria, ou para lê-los como prova de que a verdade já não importa. Um deles envolvia o governo dos EUA compartilhar uma foto claramente alterada com o público e se recusar a responder se ela foi manipulada intencionalmente; a outra envolveu um meio de comunicação que divulgou uma foto que deveria saber que estava alterada, mas tomou algumas medidas para divulgar o erro.
O que estas reações revelam, em vez disso, é uma falha na forma como nos preparávamos coletivamente para este momento. Os avisos sobre a crise da verdade da IA giravam em torno de uma tese central: que não sermos capazes de dizer o que é real irá destruir-nos, por isso precisamos de ferramentas para verificar a verdade de forma independente. As minhas duas conclusões sombrias são que estas ferramentas estão a falhar e que, embora a verificação da verdade continue a ser essencial, já não é capaz, por si só, de produzir a confiança social que nos foi prometida.




