A IA generativa mudou a economia do engano. O que antes exigia ferramentas profissionais e horas de edição agora pode ser feito com apenas alguns cliques. Um rosto falso realista, uma voz clonada ou até mesmo uma identidade de vídeo completa podem ser gerados em minutos e usados ​​para passar por sistemas de verificação que antes pareciam infalíveis.

No ano passado, vi evidências de que a fraude impulsionada por deepfakes está acelerando a um ritmo para o qual a maioria das organizações não está preparada. O conteúdo deepfake em plataformas digitais cresceu 550% entre 2019 e 2024 e é agora considerado um dos principais riscos globais no ecossistema digital atual. Esta não é apenas uma mudança tecnológica – é um desafio estrutural à forma como verificamos a identidade, autenticamos a intenção e mantemos a confiança nas finanças digitais.

A adoção está ultrapassando a segurança

A adoção da criptografia nos EUA continua a aumentar, alimentada pela crescente clareza regulatória, pelo forte desempenho do mercado e pelo aumento da participação institucional. A aprovação de ETFs Bitcoin à vista e estruturas de conformidade mais claras ajudaram a legitimar os ativos digitais para investidores profissionais e de varejo. Como resultado, mais americanos estão tratando a criptografia como uma classe de investimento convencional – mas o ritmo de adoção ainda supera a compreensão do público sobre risco e segurança.

Muitos usuários ainda contam com métodos de verificação desatualizados, projetados para uma época em que fraude significava uma senha roubada, e não uma pessoa sintética. À medida que as ferramentas de geração de IA se tornam mais rápidas e baratas, a barreira à entrada de fraudes caiu para quase zero, enquanto muitas defesas não evoluíram na mesma velocidade.

Deepfakes estão sendo usados ​​em tudo, desde transmissões ao vivo falsas de influenciadores que enganam os usuários para que enviem tokens a golpistas, até IDs de vídeo gerados por IA que ignoram as verificações. Estamos vendo um aumento nos ataques multimodais, onde os golpistas combinam vídeos deepfaked, vozes sintéticas e documentos fabricados para construir identidades totalmente falsas que resistem ao escrutínio.

Como observou o jornalista e podcaster Dwarkesh Patel em seu livro, “The Scaling Era: An Oral History of AI, 2019-2025” agora é a era da Scaling Fraud. O desafio não é apenas a sofisticação, é a escala. Quando alguém pode criar uma falsificação realista com software de consumo, o antigo modelo de “identificar a falsificação” não funciona mais.

Por que as defesas atuais estão falhando

A maioria dos sistemas de verificação e autenticação ainda depende de sinais superficiais: piscar de olhos, movimentos de cabeça e padrões de iluminação. Mas os modelos generativos modernos replicam essas microexpressões com fidelidade quase perfeita – e as tentativas de verificação agora podem ser automatizadas com agentes, tornando os ataques mais rápidos, mais inteligentes e mais difíceis de detectar.

Em outras palavras, o realismo visual não pode mais ser a referência para a verdade. A próxima fase de proteção deve ir além do que é visível e concentrar-se em sinais comportamentais e contextuais que não podem ser imitados. Padrões de dispositivos, ritmos de digitação e microlatência nas respostas estão se tornando as novas impressões digitais de autenticidade. Eventualmente, isso se estenderá a alguma forma de autorização física – desde identificações digitais até identificadores implantados, ou métodos biométricos como reconhecimento de íris ou palma.

Haverá desafios, especialmente à medida que nos sentimos mais confortáveis ​​em autorizar sistemas autónomos a agir em nosso nome. Esses novos sinais podem ser imitados? Tecnicamente, sim – e é isso que torna esta uma corrida armamentista contínua. À medida que os defensores desenvolvem novas camadas de segurança comportamental, os atacantes aprenderão inevitavelmente a replicá-las, forçando uma evolução constante de ambos os lados.

Como investigadores de IA, temos de assumir que aquilo que vemos e ouvimos pode ser fabricado. Nossa tarefa é encontrar os vestígios que a fabricação não consegue esconder.

A próxima evolução: infraestrutura de confiança

O próximo ano marcará um ponto de viragem para a regulamentação, uma vez que a confiança no setor criptográfico permanece frágil. Com a Lei GENIUS agora lei e outros quadros como a Lei CLARITY ainda em discussão, o verdadeiro trabalho muda para colmatar as lacunas que a regulamentação ainda não abordou – desde a aplicação transfronteiriça até à definição do que é uma protecção significativa do consumidor em sistemas descentralizados. Os decisores políticos estão a começar a estabelecer regras para os ativos digitais que dão prioridade à responsabilização e à segurança e, à medida que quadros adicionais tomam forma, a indústria avança lentamente em direção a um ecossistema mais transparente e resiliente.

Mas a regulamentação por si só não resolverá o défice de confiança. As plataformas criptográficas devem adotar arquiteturas de verificação proativas e multicamadas que não param na integração, mas validam continuamente a identidade, a intenção e a integridade da transação ao longo da jornada do usuário.

A confiança não dependerá mais do que parece real, mas do que pode ser comprovado como real. Isto marca uma mudança fundamental que redefine a infra-estrutura financeira.

Uma responsabilidade compartilhada

A confiança não pode ser adaptada; ela precisa ser incorporada. Como a maioria das fraudes ocorre após a integração, a próxima fase depende de ir além das verificações de identidade estáticas em direção à prevenção contínua e em várias camadas. Vincular sinais comportamentais, inteligência entre plataformas e detecção de anomalias em tempo real será fundamental para restaurar a confiança do usuário.

O futuro da criptografia não será definido por quantas pessoas a utilizam, mas por quantas se sentem seguras ao fazê-lo. O crescimento depende agora da confiança, da responsabilização e da proteção numa economia digital onde a linha entre o real e o sintético continua a esbater-se.

Em algum momento, as nossas identidades digitais e físicas necessitarão de uma convergência ainda maior para nos protegermos da imitação.



Fontecoindesk

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *