<span class="image__credit--f62c527bbdd8413eb6b6fa545d044c69">Stephanie Arnett/MIT Technology Review | Adobe Stock</span>

Hany Farid, professor da UC Berkeley especializado em análise forense digital, mas que não esteve envolvido na pesquisa da Microsoft, diz que se a indústria adotasse o modelo da empresa, seria significativamente mais difícil enganar o público com conteúdo manipulado. Indivíduos sofisticados ou governos podem trabalhar para contornar essas ferramentas, diz ele, mas a nova norma poderia eliminar uma porção significativa de material enganoso.

“Não acho que isso resolva o problema, mas acho que tira uma boa parte dele”, diz ele.

Ainda assim, há razões para ver a abordagem da Microsoft como um exemplo de um tecno-otimismo um tanto ingênuo. Há evidências crescentes de que as pessoas são influenciadas pelo conteúdo gerado pela IA, mesmo quando sabem que é falso. E num estudo recente de vídeos pró-Rússia gerados por IA sobre a guerra na Ucrânia, os comentários apontando que os vídeos foram feitos com IA receberam muito menos envolvimento do que os comentários que os tratavam como genuínos.

“Existem pessoas que, não importa o que você lhes diga, vão acreditar no que acreditam?” Farid pergunta. “Sim.” Mas, acrescenta, “há uma grande maioria de americanos e cidadãos em todo o mundo que penso que querem saber a verdade”.

Esse desejo não levou exatamente a uma ação urgente por parte das empresas de tecnologia. O Google começou a adicionar uma marca d’água ao conteúdo gerado por suas ferramentas de IA em 2023, o que Farid diz ter sido útil em suas investigações. Algumas plataformas usam C2PA, um padrão de origem que a Microsoft ajudou a lançar em 2021. Mas o conjunto completo de mudanças que a Microsoft sugere, por mais poderosas que sejam, pode permanecer apenas como sugestão se ameaçar os modelos de negócios das empresas de IA ou das plataformas de mídia social.

technologyreview

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *