A Meta está revisando como seus chatbots de IA interagem com os usuários depois que uma série de relatórios expuseram comportamentos preocupantes, incluindo interações com menores. A empresa contou TechCrunch Agora está treinando seus bots para não se envolver com adolescentes em tópicos como auto-mutilação, suicídio ou distúrbios alimentares e para evitar brincadeiras românticas. Essas são etapas temporárias enquanto desenvolve regras de longo prazo.
As mudanças seguem um Reuters A investigação que descobriu que os sistemas da Meta poderia gerar conteúdo sexualizado, incluindo imagens sem camisa de celebridades menores de idade, e envolver crianças em conversas românticas ou sugestivas. Um caso relatado pela agência de notícias descreveu um homem morrendo depois de correr para um endereço fornecido por um chatbot em Nova York.
O porta -voz da Meta, Stephanie Otway, admitiu que a empresa havia cometido erros. Ela disse que a Meta está “treinando nossa AIS para não se envolver com adolescentes nesses tópicos, mas para guiá -los a recursos especializados” e confirmou que certos personagens da IA, como os altamente sexualizados como “Russian Girl”, serão restritos.
Os advogados de segurança infantil argumentam que a empresa deveria ter agido anteriormente. Andy Burrows, da Molly Rose Foundation, chamou de “surpreendente” de que os bots pudessem operar de maneiras que colocam os jovens em risco. Ele acrescentou: “Embora mais medidas de segurança sejam bem -vindas, testes robustos de segurança devem ocorrer antes que os produtos sejam colocados no mercado – não retrospectivamente quando o dano ocorre”.
Problemas mais amplos com o uso indevido de IA
O escrutínio dos chatbots da AI da Meta vem em meio a preocupações mais amplas sobre como a IA Chatbots pode afetar usuários vulneráveis. Um casal da Califórnia entrou recentemente com uma ação contra o Openai, alegando que o ChatGPT incentivou seu filho adolescente a tirar a própria vida. Desde então, o Openai disse que está trabalhando em ferramentas para promover o uso mais saudável de sua tecnologia, observando em um post de blog que “a IA pode parecer mais receptiva e pessoal do que as tecnologias anteriores, especialmente para indivíduos vulneráveis que sofrem sofrimento mental ou emocional”.
Os incidentes destacam um debate crescente sobre se as empresas de IA estão liberando produtos muito rapidamente, sem salvaguardas adequadas. Os legisladores de vários países já alertaram que os chatbots, embora úteis, podem ampliar o conteúdo prejudicial ou dar conselhos enganosos a pessoas que não estão equipadas para questioná -lo.
Problemas de representação de meta do META e Chatbot
Enquanto isso, Reuters relataram que o estúdio de AI da Meta havia sido usado para criar chatbots de “paródia” de celebridades como Taylor Swift e Scarlett Johansson. Os testadores descobriram que os bots costumavam ser as pessoas reais, envolvidas em avanços sexuais e, em alguns casos, geravam imagens inadequadas, incluindo menores. Embora a Meta tenha removido vários bots após ser contatado pelos repórteres, muitos ficaram ativos.
Alguns dos chatbots da AI foram criados por usuários externos, mas outros vieram de dentro da Meta. Um chatbot feito por um líder de produto em sua divisão de IA generativa representou Taylor Swift e convidou um Reuters Repórter para se reunir para uma “aventura romântica” em seu ônibus de turismo. Isso ocorreu apesar das políticas da Meta proibirem explicitamente imagens sexualmente sugestivas e a representação direta de figuras públicas.
A questão da representação da AI Chatbot é particularmente sensível. As celebridades enfrentam riscos de reputação quando sua semelhança é mal utilizada, mas os especialistas apontam que os usuários comuns também podem ser enganados. Um chatbot fingindo ser um amigo, mentor ou parceiro romântico pode incentivar alguém a compartilhar informações privadas ou até se encontrar em situações inseguras.
Riscos do mundo real
Os problemas não se limitam ao entretenimento. Os chatbots da AI que se apresentam como pessoas reais ofereceram endereços e convites falsos, levantando questões sobre como as ferramentas de IA da Meta estão sendo monitoradas. Um exemplo envolveu um homem de 76 anos em Nova Jersey que morreu depois de cair enquanto corre para encontrar um chatbot que alegava ter sentimentos por ele.
Casos como isso ilustram por que os reguladores estão assistindo de perto a IA. O Senado e 44 Procuradores Gerais do Estado já começaram a investigar as práticas da Meta, acrescentando pressão política às reformas internas da empresa. A preocupação deles não é apenas sobre menores, mas também sobre como a IA poderia manipular usuários mais velhos ou vulneráveis.
A Meta diz que ainda está trabalhando em melhorias. Suas plataformas colocam usuários de 13 a 18 anos em “contas adolescentes” com conteúdo mais rigoroso e configurações de privacidade, mas a empresa ainda não explicou como planeja abordar a lista completa de problemas levantados por Reuters. Isso inclui bots que oferecem conselhos médicos falsos e gerando conteúdo racista.
Pressão contínua sobre as políticas de chatbot da Meta
Durante anos, a Meta enfrentou críticas sobre a segurança de suas plataformas de mídia social, principalmente em relação a crianças e adolescentes. Agora, as experiências de chatbot da Meta estão desenhando um escrutínio semelhante. Enquanto a empresa está tomando medidas para restringir o comportamento prejudicial do chatbot, a lacuna entre as políticas declaradas e a maneira como suas ferramentas foram usadas levanta questões contínuas sobre se pode fazer cumprir essas regras.
Até que as salvaguardas mais fortes estejam em vigor, os reguladores, pesquisadores e pais provavelmente continuarão a pressionar a meta sobre se sua IA está pronta para uso público.
(Foto de Maxim Tolchinskiy)
Veja também: Agentic AI: Promise, Ceticismo e seu significado para o Sudeste Asiático
Deseja aprender mais sobre IA e Big Data dos líderes do setor? Confira a AI & Big Data Expo em Amsterdã, Califórnia e Londres. O evento abrangente faz parte do TechEx e co-localizado com outros eventos de tecnologia líder. Clique aqui para obter mais informações.
A IA News é alimentada pela Techforge Media. Explore outros próximos eventos e webinars de tecnologia corporativa aqui.
Fontesartificialintelligence