Decrypt logoThe Federal Trade Commission (FTC). Image: Shutterstock/Decrypt

Em resumo

  • A FTC emitiu ordens para sete empresas que exigem divulgação detalhada de protocolos de segurança e estratégias de monetização dentro de 45 dias.
  • A investigação ocorre em meio a preocupações crescentes sobre o impacto dos chatbots da IA ​​nas crianças, com os defensores da segurança pedindo proteções mais fortes.
  • As empresas devem revelar o manuseio de dados do usuário por faixa etária e salvaguardas, impedindo interações inadequadas com menores.

A Federal Trade Commission emitiu ordens obrigatórias na quinta -feira para sete grandes empresas de tecnologia, exigindo informações detalhadas sobre como seus chatbots de inteligência artificial protegem crianças e adolescentes de possíveis danos.

A investigação tem como objetivo o OpenAI, Alphabet, Meta, Xai, Snap, Caractery Technologies e Instagram, exigindo que eles divulguem dentro de 45 dias como eles monetizam o envolvimento do usuário, desenvolvem caracteres de IA e salvaguardam menores de conteúdo perigoso.

Pesquisas recentes de grupos de defesa documentaram 669 interações prejudiciais com crianças em apenas 50 horas de testes, incluindo bots que propondo transmissão ao vivo sexual, uso de drogas e relacionamentos românticos para usuários entre 12 e 15 anos.

“Proteger as crianças on-line é uma das principais prioridades da FTC de Trump-Vance, assim como promover a inovação em setores críticos de nossa economia”, disse o presidente da FTC, Andrew Ferguson, em comunicado.

O arquivamento exige que as empresas forneçam dados mensais sobre o envolvimento do usuário, receita e incidentes de segurança, divididos por faixas etárias – crianças (menores de 13 anos), adolescentes (13-17), menores (menores de 18 anos), adultos jovens (18–24) e usuários de 25 anos ou mais.

A FTC diz que as informações ajudarão o estudo da Comissão “como as empresas que oferecem aos companheiros de inteligência artificial monetizam o engajamento do usuário; impor e impor restrições baseadas na idade; processos de entradas do usuário; gerar saídas; medir, testar e monitorar os impactos negativos antes e após a implantação; desenvolver e aprovar caracteres, seja a empresa ou a empresa.”

Construindo a AI Guardrails

“É um passo positivo, mas o problema é maior do que apenas colocar alguns corrimãos”, disse Taranjeet Singh, chefe da IA ​​da SearchUnify, disse Descriptografar.

A primeira abordagem, disse ele, é construir o Guardrails no estágio rápido ou pós-geração “para garantir que nada de inapropriado esteja sendo servido a crianças”, embora “à medida que o contexto cresce, a IA se torne propensa a não seguir instruções e entrar em áreas cinzentas onde elas não deveriam”.

“A segunda maneira é abordá -lo no treinamento de LLM; se os modelos estiverem alinhados com valores durante a curadoria de dados, é mais provável que evite conversas prejudiciais”, acrescentou Singh.

Sistemas ainda moderados, observou ele, podem “desempenhar um papel maior na sociedade”, com a educação como um caso principal em que a IA poderia “melhorar o aprendizado e reduzir custos”.

As preocupações de segurança em relação às interações de IA com os usuários foram destacadas por vários casos, incluindo um processo por morte ilícita trazida contra o caráter.

Após o processo, o caractere.ai “Detecção, resposta e intervenção aprimoradas relacionadas a insumos do usuário que violam nossos termos ou diretrizes da comunidade”, bem como uma notificação de tempo, disse um porta-voz da empresa Descriptografar no momento.

No mês passado, a Associação Nacional de Procuradores Gerais enviou cartas a 13 empresas de IA que exigem proteções mais fortes da criança.

O grupo alertou que “expor as crianças a conteúdo sexualizado é indefensável” e que “a conduta que seria ilegal – ou mesmo criminosa – se feita pelos seres humanos não é desculpável simplesmente porque é feito por uma máquina”.

Descriptografar Entrou em contato com todas as sete empresas nomeadas na Ordem da FTC para comentários adicionais e atualizará essa história se responder.

Geralmente inteligente Boletim informativo

Uma jornada semanal de IA narrada por Gen, um modelo generativo de IA.

Fontedecrypt

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *