Em resumo
- Vídeos virais de IA substituem o rosto e o corpo de um criador por atores de Stranger Things, atraindo mais de 14 milhões de visualizações.
- Os pesquisadores dizem que os deepfakes de corpo inteiro removem pistas visuais usadas para detectar manipulações anteriores apenas do rosto.
- Os especialistas alertam que as mesmas ferramentas podem alimentar fraudes, desinformação e outros abusos à medida que o acesso se expande.
Uma postagem viral apresentando um vídeo supostamente feito com o 2.6 Motion Control da Kling AI tomou conta das redes sociais esta semana, quando um clipe do criador de conteúdo brasileiro Eder Xavier o mostrou trocando perfeitamente seu rosto e corpo com os dos atores de Stranger Things, Millie Bobby Brown, David Harbour e Finn Wolfhard.
Os vídeos se espalharam amplamente pelas plataformas sociais e foram vistos mais de 14 milhões de vezes no X, com versões adicionais publicadas desde então. Os clipes também chamaram a atenção de tecnólogos, incluindo Justine Moore, parceira do a16z, que compartilhou o vídeo na conta de Xavier no Instagram.
“Não estamos preparados para a rapidez com que os pipelines de produção mudarão com a IA”, escreveu Moore. “Alguns dos modelos de vídeo mais recentes têm implicações imediatas para Hollywood. Trocas intermináveis de personagens a um custo insignificante.”
À medida que as ferramentas de geração de imagens e vídeos continuam a melhorar, com modelos mais recentes como Kling, Veo 3.1 e Nano Banana do Google, FaceFusion e Sora 2 da OpenAI expandindo o acesso a mídia sintética de alta qualidade, os pesquisadores alertam que as técnicas vistas nos clipes virais provavelmente se espalharão rapidamente para além de demonstrações isoladas.
Uma ladeira escorregadia
Embora os espectadores tenham ficado impressionados com a qualidade dos vídeos de troca de corpos, os especialistas alertam que isso sem dúvida se tornaria uma ferramenta para golpes de identidade.
“As comportas estão abertas. Nunca foi tão fácil roubar a imagem digital de um indivíduo – sua voz, seu rosto – e agora dar vida a ela com uma única imagem. Ninguém está seguro”, disse Emmanuelle Saliba, diretora de investigação da empresa de segurança cibernética GetReal Security. Descriptografar.
“Começaremos a ver abusos sistêmicos em todas as escalas, desde engenharia social individual até campanhas coordenadas de desinformação e ataques diretos a empresas e instituições críticas”, disse ele.
De acordo com Saliba, os vídeos virais com atores de Stranger Things mostram como atualmente são tênues as barreiras de proteção em torno do abuso.
“Por alguns dólares, qualquer pessoa pode agora gerar vídeos de corpo inteiro de um político, celebridade, CEO ou indivíduo usando uma única imagem”, disse ela. “Não há proteção padrão da imagem digital de uma pessoa. Não há garantia de identidade.”
Para Yu Chen, professor de engenharia elétrica e de computação na Universidade de Binghamton, a troca de caracteres de corpo inteiro vai além da manipulação facial usada em ferramentas anteriores de deepfake e introduz novos desafios.
“A troca de personagens de corpo inteiro representa uma escalada significativa nas capacidades de mídia sintética”, disse Chen Descriptografar. “Esses sistemas devem lidar simultaneamente com estimativa de pose, rastreamento de esqueleto, transferência de roupas e texturas e síntese de movimento natural em toda a forma humana.”
Junto com Stranger Things, os criadores também postaram vídeos do corpo trocado de Leonard DiCaprio do filme O Lobo de Wall Street.
Não estamos prontos.
A IA acabou de redefinir falsificações profundas e trocas de personagens.
E é extremamente fácil de fazer.
Exemplos selvagens. Marque isso.
(🎞️JulianoMissa no IG)pic.twitter.com/fYvrnZTGL3
-Min Choi (@minchoi) 15 de janeiro de 2026
“As tecnologias anteriores de deepfake operavam principalmente dentro de um espaço de manipulação restrito, concentrando-se na substituição da região facial, deixando o resto do quadro praticamente intocado”, disse Chen. “Os métodos de detecção poderiam explorar inconsistências de limites entre a face sintética e o corpo original, bem como artefatos temporais quando os movimentos da cabeça não se alinhavam naturalmente com o movimento do corpo.”
Chen continuou: “Embora fraudes financeiras e golpes de falsificação de identidade continuem sendo preocupações, vários outros vetores de uso indevido merecem atenção”, disse Chen. “Imagens íntimas não consensuais representam o vetor de dano mais imediato, pois essas ferramentas reduzem a barreira técnica para a criação de conteúdo explícito sintético apresentando indivíduos reais.”
Outras ameaças destacadas por Saliba e Chen incluem desinformação política e espionagem corporativa, com golpistas se fazendo passar por funcionários ou CEOs, divulgando clipes “vazados” fabricados, contornando controles e coletando credenciais por meio de ataques em que “uma pessoa confiável em vídeo reduz as suspeitas por tempo suficiente para obter acesso dentro de um negócio crítico”, disse Saliba.
Não está claro como os estúdios ou os atores retratados nos vídeos responderão, mas Chen disse que, como os clipes dependem de modelos de IA disponíveis publicamente, os desenvolvedores desempenham um papel crucial na implementação de salvaguardas.
Ainda assim, a responsabilidade, disse ele, deve ser partilhada entre plataformas, decisores políticos e utilizadores finais, uma vez que atribuí-la apenas aos desenvolvedores pode revelar-se impraticável e sufocar utilizações benéficas.
À medida que essas ferramentas se espalham, Chen disse que os pesquisadores deveriam priorizar modelos de detecção que identifiquem assinaturas estatísticas intrínsecas de conteúdo sintético, em vez de depender de metadados facilmente removidos.
“As plataformas devem investir tanto em canais de deteção automatizados como em capacidade de revisão humana, ao mesmo tempo que desenvolvem procedimentos claros de escalonamento para conteúdos de alto risco envolvendo figuras públicas ou potenciais fraudes”, disse ele, acrescentando que os decisores políticos devem concentrar-se no estabelecimento de quadros de responsabilidade claros e na obrigatoriedade de requisitos de divulgação.
“A rápida democratização destas capacidades significa que os quadros de resposta desenvolvidos hoje serão testados em escala dentro de meses, não de anos”, disse Chen.
Resumo Diário Boletim informativo
Comece cada dia com as principais notícias do momento, além de recursos originais, podcast, vídeos e muito mais.
Fontedecrypt




