Em resumo
- O comissário de segurança eletrônica da Austrália sinalizou um aumento nas reclamações sobre o chatbot Grok de Elon Musk criar imagens sexuais não consensuais, com relatos dobrando desde o final de 2025.
- Algumas queixas envolvem potencial material de exploração sexual infantil, enquanto outras dizem respeito a adultos sujeitos a abusos baseados em imagens.
- As preocupações surgem enquanto governos em todo o mundo investigam a moderação negligente de conteúdo de Grok, com a UE declarando o “Modo Picante” do chatbot ilegal.
O regulador independente de segurança online da Austrália emitiu um alerta na quinta-feira sobre o uso crescente de Grok para gerar imagens sexualizadas sem consentimento, revelando que seu escritório viu reclamações sobre o chatbot de IA dobrarem nos últimos meses.
A Comissária de Segurança Eletrônica do país, Julie Inman Grant, disse que alguns relatórios envolvem potencial material de exploração sexual infantil, enquanto outros se referem a adultos sujeitos a abusos baseados em imagens.
“Estou profundamente preocupado com o uso crescente de IA generativa para sexualizar ou explorar pessoas, especialmente quando há crianças envolvidas”, disse Grant. postado no LinkedIn na quinta-feira.
Os comentários surgem em meio a crescentes reação internacional contra Grokum chatbot construído pela xAI, startup de IA do bilionário Elon Musk, que pode ser solicitado diretamente no X para alterar as fotos dos usuários.
Grant alertou que a capacidade da IA de gerar “conteúdo hiper-realista” está tornando mais fácil para os malfeitores criarem abusos sintéticos e mais difícil para os reguladores, autoridades policiais e grupos de segurança infantil responderem.
Ao contrário de concorrentes como ChatGPT, o xAI de Musk posicionou Grok como uma alternativa “ousada” que gera conteúdo que outros modelos de IA se recusam a produzir. Em agosto passado, lançou o “Modo Picante” especificamente para criar conteúdo explícito.
Grant alertou que os códigos aplicáveis da indústria australiana exigem que os serviços online implementem salvaguardas contra material de exploração sexual infantil, gerado por IA ou não.
No ano passado, a eSafety tomou medidas coercivas contra os serviços de “nudificação” amplamente utilizados, forçando a sua retirada da Austrália, acrescentou ela.
“Entramos agora numa era em que as empresas devem garantir que os produtos de IA generativos tenham salvaguardas e proteções apropriadas incorporadas em todas as fases do ciclo de vida do produto”, disse Grant, observando que a eSafety irá “investigar e tomar as medidas apropriadas” utilizando toda a sua gama de ferramentas regulamentares.
Deepfakes em alta
Em setembro, Grant garantiu a primeira pena de deepfake da Austrália quando o tribunal federal multou o homem da Gold Coast, Anthony Rotondo, em US$ 212 mil (A$ 343.500) por postar pornografia deepfake de mulheres australianas proeminentes.
O comissário de segurança eletrônica levou Rotondo ao tribunal em 2023 depois que ele desafiou os avisos de remoção, dizendo que eles “não significavam nada para ele”, já que ele não era residente na Austrália, e depois enviou as imagens por e-mail para 50 endereços, incluindo o escritório de Grant e meios de comunicação, de acordo com um ABC Notícias relatório.
Os legisladores australianos estão pressionando por proteções mais fortes contra deepfakes não consensuais, além das leis existentes.
Senador independente David Pocock introduzido o Projeto de Lei de Emenda sobre Segurança Online e Outras Legislações (Meu Rosto, Meus Direitos) de 2025 em novembro, que permitiria que indivíduos que compartilhassem deepfakes não consensuais fossem multados antecipadamente em US$ 102.000 (A$ 165.000), com empresas enfrentando penalidades de até US$ 510.000 (A$ 825.000) pelo não cumprimento dos avisos de remoção.
“Estamos vivendo agora em um mundo onde cada vez mais qualquer pessoa pode criar um deepfake e usá-lo como quiser”, disse Pocock em um comunicado. declaraçãocriticando o governo por estar “adormecido ao volante” nas proteções de IA.
Geralmente inteligente Boletim informativo
Uma jornada semanal de IA narrada por Gen, um modelo generativo de IA.
Fontedecrypt




