Desde que houvesse IA, houve pessoas soando alarmes sobre o que ela pode fazer conosco: Superintelligência desonesta, desemprego em massa ou ruína ambiental. Mas outra ameaça inteiramente – a das crianças que formam laços prejudiciais à IA – está retirando a segurança da IA da margem acadêmica e na mira dos reguladores.
Isso está borbulhando há um tempo. Dois processos de alto perfil movidos no ano passado, contra o personagem.ai e o Openai, alegam que seus modelos contribuíram para os suicídios de dois adolescentes. Um estudo publicado em julho descobriu que 72% dos adolescentes usaram a IA para companhia. E as histórias sobre “psicose da IA” destacaram como as conversas infinitas com chatbots podem levar as pessoas a cair em espirais ilusórias.
É difícil exagerar o impacto dessas histórias. Para o público, eles são prova de que a IA não é meramente imperfeita, mas prejudicial. Se você duvidasse que essa indignação fosse levada a sério por reguladores e empresas, três coisas aconteceram nesta semana que podem mudar de idéia.
– James O’Donnell
Esta história apareceu originalmente no algoritmo, nossa newsletter semanal na IA. Para obter histórias como esta primeiro em sua caixa de entrada, Inscreva -se aqui.
Se você estiver interessado em ler mais sobre companhia de IA, por que não conferir:
+ Companheiros de IA são o estágio final do vício digital – e os legisladores estão mirando. Leia a história completa.
+ Os chatbots estão mudando rapidamente a maneira como nos conectamos – e a nós mesmos. Nunca mais vamos voltar. Leia a história completa.
+ Por que o desligamento repentino do GPT-4O no mês passado deixou as pessoas de luto. Leia a história completa.
+ Um chatbot da AI disse a um usuário como se matar – mas a empresa não quer “censurá -lo”.
A + Openai divulgou sua primeira pesquisa sobre como o uso do ChatGPT afeta o bem-estar emocional das pessoas. Mas ainda há muito que não sabemos.