Em resumo
- Nova Iorque aprovou a primeira lei dos EUA que obriga os anunciantes a divulgar artistas gerados por IA, mesmo quando Trump passou a penalizar os estados com as suas próprias regras de IA.
- A governadora Kathy Hochul assinou projetos de lei gêmeos apoiados pelo SAG-AFTRA exigindo divulgação visível de IA e proibindo réplicas falsas de artistas falecidos sem consentimento.
- A ordem executiva de Trump direciona os desafios do DOJ às leis estaduais de IA e ameaça os fundos de banda larga do BEAD, estabelecendo um confronto federal-estadual sobre quem controla a regulamentação da IA.
Nova York se tornou o primeiro estado a exigir que os anunciantes divulguem quando artistas gerados por IA aparecem em comerciais, assim como o presidente Donald Trump assinou uma ordem executiva ameaçando retirar o financiamento federal de estados com regulamentações de IA que sua administração considera “onerosas”.
A governadora Kathy Hochul assinou dois projetos de lei de IA na quinta-feira na sede da SAG-AFTRA em Nova York, exigindo transparência no uso de IA e protegendo as semelhanças digitais de artistas falecidos.
Hoje, Nova Iorque fez história, tornando-se o primeiro estado a exigir que as empresas divulguem quando utilizam atores gerados por IA em anúncios.
Nova Iorque não seria Nova Iorque sem a sua indústria cinematográfica e televisiva. Políticas de IA responsáveis como esta protegem os intervenientes que a mantêm em funcionamento. pic.twitter.com/8nuEFrSTh9
– Governadora Kathy Hochul (@GovKathyHochul) 11 de dezembro de 2025
A legislação S.8420-A/A.8887-B exige que os anunciantes “divulguem claramente” quando artistas sintéticos de IA são usados, enquanto S.8391/A.8882 proíbe o uso da imagem de um artista morto sem o consentimento do espólio.
“Ao assinar estes projetos de lei hoje, estamos promulgando leis de bom senso que garantirão que seremos totalmente transparentes ao usar imagens geradas por inteligência artificial”, disse Hochul em comunicado.
A colisão da legislação protectora de Nova Iorque com o esforço de preempção federal de Trump cria um potencial confronto legal sobre quem controla a regulamentação da IA, e se os estados que avançam na protecção dos consumidores e dos trabalhadores perderão dólares federais por o fazerem.
As proteções são “o resultado direto da união de artistas, legisladores e defensores para enfrentar os riscos muito reais e imediatos representados pelo uso descontrolado de IA”, disse o Diretor Executivo Nacional e Negociador Chefe da SAG-AFTRA, Duncan Crabtree-Ireland, em um comunicado.
O impulso da SAG-AFTRA para proteções de IA decorre do acordo de greve de novembro de 2023 com os estúdios de Hollywood, que incluiu provisões avaliadas em mais de um bilhão de dólares com consentimento e medidas de compensação.
O sindicato fez lobby com sucesso por legislação semelhante na Califórnia em 2024 e está defendendo a Lei No Fakes em nível federal, “uma proposta de lei bipartidária que visa proteger as vozes e imagens dos indivíduos de réplicas digitais não autorizadas”.
Desafios de aplicação
A ordem executiva de Trump, também assinada na quinta-feira, orienta o Departamento de Justiça a desafiar as leis estaduais de IA com base em preempção federal e cria uma Força-Tarefa de Litígios de IA.
A ordem alerta que os estados com “leis onerosas de IA” podem perder a elegibilidade para financiamento de infraestrutura de banda larga no âmbito do Programa de Acesso e Implantação de Equidade de Banda Larga (BEAD), uma iniciativa federal multibilionária para expandir o acesso à Internet de alta velocidade.
“A minha administração deve agir com o Congresso para garantir que exista um padrão nacional minimamente oneroso – e não 50 padrões estaduais discordantes”, escreveu Trump no despacho. “A estrutura resultante deve proibir leis estaduais que entrem em conflito com a política estabelecida nesta ordem.”
Himanshu Tyagi, professor do Instituto Indiano de Ciência e cofundador da startup de IA Sentient, disse Descriptografar que remover a imagem de uma pessoa dos modelos de IA é “extremamente difícil” uma vez que existem pipelines de treinamento.
“É por isso que algumas empresas, como a Adobe, optaram por treinar modelos desde o início com base em dados licenciados e limpos”, disse Tyagi. “Mesmo assim, o conteúdo deepfake continuará a circular nas redes sociais e em outros canais pouco regulamentados.”
Onde essas leis têm impacto, observou ele, é nos grandes anunciantes e nas principais empresas criativas, que se tornam “muito mais cautelosos quanto ao uso de IA generativa”.
“De qualquer forma, devemos nos preparar para a próxima evolução da pós-verdade, onde não podemos confiar nos olhos ou nos ouvidos ao lidar com conteúdo digital”, acrescentou.
Geralmente inteligente Boletim informativo
Uma jornada semanal de IA narrada por Gen, um modelo generativo de IA.
Fontedecrypt




