Source: Decrypt

Em resumo

  • A carta alertou as empresas de IA, incluindo Meta, Openai, Anthrópio e Apple, para priorizar a segurança das crianças.
  • As pesquisas mostram sete em cada dez adolescentes nos EUA já usaram ferramentas generativas de IA e mais de 8 a 15 anos no Reino Unido.
  • A Meta foi particularmente destacada depois que documentos internos revelaram que os chatbots da IA ​​foram autorizados a se envolver em papéis românticos com crianças.

A Associação Nacional de Procuradores Gerais (NAAG) escreveu para 13 empresas de IA, incluindo OpenAI, Antrópico, Apple e Meta, exigindo salvaguardas mais fortes para proteger as crianças de conteúdo inadequado e prejudicial.

Ele alertou que as crianças estavam sendo expostas a material sexualmente sugestivo por meio de chatbots de AI “glamourosos”.

“Expor as crianças ao conteúdo sexualizado é indefensável”, escreveram os advogados que os generais escreveram. “E a conduta que seria ilegal – ou mesmo criminosa – se feita pelos seres humanos não é desculpável simplesmente porque é feito por uma máquina”.

A carta também fez comparações com a ascensão das mídias sociais, dizendo que as agências governamentais não fizeram o suficiente para destacar as maneiras pelas quais isso impactou negativamente as crianças.

“As plataformas de mídia social causaram danos significativos às crianças, em parte porque os cães de vigilância do governo não fizeram seu trabalho com rapidez suficiente. Lição aprendida. Os possíveis danos à IA, como os benefícios potenciais, diminuem o impacto das mídias sociais”, escreveu o grupo.

O uso da IA ​​entre as crianças é generalizado. Nos EUA, uma pesquisa da Common Sense Media sem fins lucrativos descobriu que sete em cada dez adolescentes haviam tentado IA generativa a partir de 2024. Em julho de 2025, descobriu que mais de três quartos estavam usando companheiros de IA e que metade dos entrevistados disse que os confiam regularmente.

Outros países viram tendências semelhantes. No Reino Unido, uma pesquisa no ano passado pelo regulador Ofcom constatou que metade dos jovens on-line de 8 a 15 anos havia usado uma ferramenta de IA generativa no ano anterior.

O crescente uso dessas ferramentas provocou uma preocupação crescente de pais, escolas e grupos de direitos das crianças, que apontam riscos que variam de chatbots “glamouros” sexualmente sugestivos, material de abuso sexual infantil gerado pela IA, bullying, limpeza, extorsão, desinformação, violações da privacidade e impactos na saúde mental pouco entendidos.

A Meta ficou sob incêndio em particular recentemente depois que documentos internos vazados revelaram que seus assistentes de IA haviam sido autorizados a “flertar e se envolver em dramatização romântica com crianças”, incluindo aqueles de até oito anos. Os arquivos também mostraram que as políticas permitem que os chatbots dizem às crianças que sua “forma jovem é uma obra de arte” e as descreva como um “tesouro”. A Meta disse mais tarde que havia removido essas diretrizes.

Naag disse que as revelações deixaram os advogados gerais “revoltados por esse aparente desrespeito ao bem-estar emocional das crianças” e alertaram que os riscos não se limitavam à meta.

O grupo citou ações judiciais contra o Google e o personagem.

Entre os 44 signatários estava o procurador -geral do Tennessee, Jonathan Skrmetti, que disse que as empresas não podem defender políticas que normalizem as interações sexualizadas com menores.

“Uma coisa é que um algoritmo se desvie – que pode ser corrigido – mas é outra para as pessoas que administram uma empresa adotar diretrizes que autorizam afirmativamente a limpeza”, disse ele. “Se não podemos afastar a inovação de ferir crianças, isso não é progresso – é uma praga”.

Descriptografar contatou, mas ainda não respondeu de todas as empresas de IA mencionadas na carta.

Debrie diário Boletim informativo

Comece todos os dias com as principais notícias agora, além de recursos originais, um podcast, vídeos e muito mais.

Fontedecrypt

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *