<span class="image__credit--f62c527bbdd8413eb6b6fa545d044c69">Brian Stauffer</span>

Cherepanov e Strýček estavam confiantes de que a sua descoberta, que apelidaram de PromptLock, marcou um ponto de viragem na IA generativa, mostrando como a tecnologia poderia ser explorada para criar ataques de malware altamente flexíveis. Eles publicaram uma postagem no blog declarando que haviam descoberto o primeiro exemplo de ransomware alimentado por IA, que rapidamente se tornou objeto de ampla atenção da mídia global.

Mas a ameaça não era tão dramática como parecia à primeira vista. No dia seguinte à publicação do post no blog, uma equipe de pesquisadores da Universidade de Nova York assumiu a responsabilidade, explicando que o malware não era, na verdade, um ataque completo liberado, mas um projeto de pesquisa, projetado apenas para provar que era possível para automatizar cada etapa de uma campanha de ransomware – o que, segundo eles, aconteceram.

O PromptLock pode ter se tornado um projeto acadêmico, mas os verdadeiros bandidos são usando as ferramentas de IA mais recentes. Assim como os engenheiros de software estão usando inteligência artificial para ajudar a escrever códigos e verificar bugs, os hackers estão usando essas ferramentas para reduzir o tempo e o esforço necessários para orquestrar um ataque, diminuindo as barreiras para que invasores menos experientes tentem algo.

A probabilidade de os ataques cibernéticos se tornarem agora mais comuns e mais eficazes ao longo do tempo não é uma possibilidade remota, mas “uma pura realidade”, diz Lorenzo Cavallaro, professor de ciência da computação na University College London.

Algumas pessoas no Vale do Silício alertam que a IA está prestes a ser capaz de realizar ataques totalmente automatizados. Mas a maioria dos pesquisadores de segurança diz que esta afirmação é exagerada. “Por alguma razão, todo mundo está focado apenas nessa ideia de malware de, tipo, superhackers de IA, o que é simplesmente absurdo”, diz Marcus Hutchins, principal pesquisador de ameaças da empresa de segurança Expel e famoso no mundo da segurança por encerrar um gigantesco ataque global de ransomware chamado WannaCry em 2017.

Em vez disso, argumentam os especialistas, deveríamos prestar mais atenção aos riscos muito mais imediatos colocados pela IA, que já está a acelerar e a aumentar o volume de fraudes. Os criminosos estão explorando cada vez mais as mais recentes tecnologias deepfake para se passar por pessoas e roubar grandes somas de dinheiro das vítimas. Esses ataques cibernéticos aprimorados por IA estão prestes a se tornar mais frequentes e mais destrutivos, e precisamos estar preparados.

Spam e muito mais

Os invasores começaram a adotar ferramentas generativas de IA quase imediatamente após a explosão do ChatGPT no final de 2022. Esses esforços começaram, como você pode imaginar, com a criação de spam – e muito spam. No ano passado, um relatório da Microsoft afirmou que no ano anterior a abril de 2025, a empresa bloqueou US$ 4 bilhões em fraudes e transações fraudulentas, “muitas provavelmente auxiliadas por conteúdo de IA”.

Pelo menos metade dos e-mails de spam são agora gerados usando LLMs, de acordo com estimativas de pesquisadores da Universidade de Columbia, da Universidade de Chicago e da Barracuda Networks, que analisaram quase 500 mil mensagens maliciosas coletadas antes e depois do lançamento do ChatGPT. Encontraram também provas de que a IA está a ser cada vez mais implementada em esquemas mais sofisticados. Eles analisaram ataques direcionados por e-mail, que se fazem passar por uma figura confiável para enganar um funcionário de uma organização para obter fundos ou informações confidenciais. Eles descobriram que, em abril de 2025, pelo menos 14% desses tipos de ataques por e-mail direcionados foram gerados usando LLMs, contra 7,6% em abril de 2024.

technologyreview

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *