Decrypt logoImage: Shutterstock/Decrypt

Em resumo

  • Um funcionário de TI de Delhi afirma que usou o ChatGPT para construir um site de pagamento falso que capturou a localização e a foto de um golpista durante uma tentativa de fraude de “transferência militar”.
  • A postagem do Reddit se tornou viral depois que o golpista supostamente entrou em pânico e implorou por misericórdia ao ser confrontado com seus próprios dados.
  • Outros usuários do Reddit replicaram a técnica e confirmaram que o código gerado por IA poderia funcionar, ressaltando como as ferramentas generativas estão remodelando a fraude DIY.

Quando uma mensagem apareceu em seu telefone de um número que dizia ser de um antigo contato da faculdade, um profissional de tecnologia da informação baseado em Delhi ficou inicialmente intrigado. O remetente, fazendo-se passar por oficial do Serviço Administrativo Indiano, alegou que um amigo das forças paramilitares estava sendo transferido e precisava liquidar móveis e eletrodomésticos de alta qualidade “muito baratos”.

Foi uma fraude clássica de “transferência do exército”, uma fraude digital generalizada na Índia. Mas, em vez de bloquear o número ou ser vítima do esquema, o alvo afirma que decidiu virar o jogo utilizando a mesma tecnologia muitas vezes acusada de ajudar os cibercriminosos: a inteligência artificial.

Enganando um golpista

De acordo com um relato detalhado postado no Reddit, o usuário, conhecido pelo nome u/RailfanHS, usou o ChatGPT da OpenAI para “vibe code” um site de rastreamento. A armadilha obteve com sucesso a localização do golpista e uma fotografia de seu rosto, levando a um dramático confronto digital onde o fraudador supostamente implorou por misericórdia.

Embora a identidade do usuário do Reddit não possa ser verificada de forma independente e o indivíduo específico permaneça anônimo, o método técnico descrito na postagem foi examinado e validado pela comunidade de desenvolvedores e entusiastas de IA da plataforma.

O incidente destaca uma tendência crescente de “scambaiting” – justiça vigilante onde pessoas com conhecimentos de tecnologia atraem fraudadores para que percam o seu tempo ou exponham as suas operações – evoluindo com a ajuda da IA ​​generativa.

O encontro, amplamente divulgado na Índia, começou com um roteiro familiar. O golpista enviou fotos das mercadorias e um código QR, exigindo pagamento antecipado. Fingindo dificuldades técnicas com a varredura, u/RailfanHS recorreu ao ChatGPT.

Ele alimentou o chatbot de IA com um prompt para gerar uma página da Web funcional projetada para imitar um portal de pagamento. O código, descrito como uma “página PHP de 80 linhas”, foi secretamente projetado para capturar as coordenadas GPS do visitante, o endereço IP e um instantâneo da câmera frontal.

O mecanismo de rastreamento dependia em parte da engenharia social e também de uma exploração de software. Para contornar os recursos de segurança do navegador que normalmente bloqueiam o acesso silencioso à câmera, o usuário disse ao golpista que precisava carregar o código QR no link para “agilizar o processo de pagamento”. Quando o golpista visitou o site e clicou em um botão para fazer upload da imagem, o navegador solicitou que ele permitisse o acesso à câmera e à localização – permissões que ele concedeu involuntariamente na pressa de garantir os fundos.

Imagem: RailfanHS no Reddit

“Movido pela ganância, pressa e confiando completamente na aparência de um portal de transações, ele clicou no link”, escreveu u/RailfanHS no tópico do subreddit r/delhi. “Recebi instantaneamente suas coordenadas GPS ao vivo, seu endereço IP e, o que é mais satisfatório, uma foto nítida da câmera frontal dele sentado.”

A retaliação foi rápida. O profissional de TI enviou os dados coletados de volta ao golpista. O efeito, segundo a postagem, foi o pânico imediato. As linhas telefônicas do fraudador inundaram o usuário com ligações, seguidas de mensagens pedindo perdão e prometendo abandonar a vida de crime.

“Ele agora estava implorando, insistindo que abandonaria totalmente esta linha de trabalho e pedindo desesperadamente por outra chance”, escreveu RailfanHS. “Nem é preciso dizer que ele estaria enganando alguém na próxima hora, mas cara, a satisfação de roubar de um ladrão é uma loucura.”

Redditors verificam a abordagem

Embora histórias dramáticas sobre justiça na Internet muitas vezes convidem ao ceticismo, os fundamentos técnicos dessa armação foram verificados por outros usuários do tópico. Um usuário com o identificador u/BumbleB3333 relatou replicar com sucesso a “página HTML fictícia” usando ChatGPT. Eles observaram que, embora a IA tenha proteções contra a criação de código malicioso para vigilância silenciosa, ela gera prontamente código para sites de aparência legítima que solicitam permissões de usuário – que é exatamente como o golpista foi preso.

“Consegui criar uma espécie de página HTML fictícia com ChatGPT. Ele captura a geolocalização quando uma imagem é carregada após pedir permissão”, comentou u/BumbleB3333, confirmando a plausibilidade do hack. Outro usuário, u/STOP_DOWNVOTING, afirmou ter gerado uma “versão ética” do código que poderia ser modificada para funcionar de forma semelhante.

O autor da postagem original, que se identificou nos comentários como gerente de produto de IA, reconheceu que precisava usar instruções específicas para contornar algumas das restrições de segurança do ChatGPT. “Estou acostumado a contornar essas barreiras com instruções corretas”, observou ele, acrescentando que hospedou o script em um servidor virtual privado.

Especialistas em segurança cibernética alertam que, embora esses “hack-backs” sejam satisfatórios, eles operam em uma área legal cinzenta e podem acarretar riscos. Ainda assim, é muito tentador – e é um esporte satisfatório para o espectador.

Geralmente inteligente Boletim informativo

Uma jornada semanal de IA narrada por Gen, um modelo generativo de IA.

Fontedecrypt

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *