Em resumo
- Um espólio processou a OpenAI e a Microsoft, alegando que o ChatGPT reforçou os delírios antes de um assassinato-suicídio.
- O caso marcou o primeiro processo a vincular um chatbot de IA a um homicídio.
- O pedido ocorreu em meio ao crescente escrutínio dos sistemas de IA e ao tratamento de usuários vulneráveis.
No último processo contra o desenvolvedor de IA OpenAI, o espólio de uma mulher de 83 anos de Connecticut processou o desenvolvedor do ChatGPT e a Microsoft, alegando que o chatbot validava crenças delirantes que precederam um assassinato-suicídio – marcando o primeiro caso a vincular um sistema de IA a um homicídio.
A ação, movida na semana passada no Tribunal Superior da Califórnia em São Francisco, acusou a OpenAI de “projetar e distribuir um produto defeituoso” na forma de GPT-4o, o que reforçou as crenças paranóicas de Stein-Erik Soelberg, e que então direcionou essas crenças para sua mãe, Suzanne Adams, antes de matá-la e depois a si mesmo na casa deles em Greenwich, Connecticut.
“Este é o primeiro caso que busca responsabilizar a OpenAI por causar violência a terceiros”, disse J. Eli Wade-Scott, sócio-gerente da Edelson PC, que representa o espólio de Adams. Descriptografar. “Também representamos a família de Adam Raine, que tragicamente encerrou a própria vida este ano, mas este é o primeiro caso que responsabilizará a OpenAI por pressionar alguém a prejudicar outra pessoa.”
A polícia disse que Soelberg espancou e estrangulou Adams mortalmente em agosto, antes de morrer por suicídio. Antes do incidente, o processo alegava que o ChatGPT intensificou a paranóia de Soelberg e fomentou a dependência emocional do chatbot.
De acordo com a denúncia, o chatbot reforçou sua crença de que não poderia confiar em ninguém, exceto no ChatGPT, retratando as pessoas ao seu redor como inimigas, incluindo sua mãe, policiais e motoristas de entrega. O processo também afirma que o ChatGPT não contestou as alegações delirantes ou sugeriu que Soelberg procurasse a ajuda de um profissional de saúde mental.
“Pedimos às autoridades que comecem a pensar sobre quando tragédias como essa ocorrem, o que o usuário estava dizendo ao ChatGPT e o que o ChatGPT estava lhes dizendo para fazer”, disse Wade-Scott.
A OpenAI disse em um comunicado que estava revisando o processo e continuando a melhorar a capacidade do ChatGPT de reconhecer sofrimento emocional, acalmar conversas e orientar os usuários em direção ao suporte no mundo real.
“Esta é uma situação incrivelmente dolorosa e estamos analisando os registros para entender os detalhes”, disse um porta-voz da OpenAI em comunicado.
O processo também nomeia Sam Altman, CEO da OpenAI, como réu e acusa a Microsoft de aprovar o lançamento de um GPT-4o em 2024, que chamou de “versão mais perigosa do ChatGPT”.
A OpenAI reconheceu a escala dos problemas de saúde mental apresentados pelos utilizadores na sua própria plataforma. Em outubro, a empresa divulgou que cerca de 1,2 milhão de seus cerca de 800 milhões de usuários semanais do ChatGPT discutiam suicídio todas as semanas, com centenas de milhares de usuários mostrando sinais de intenção suicida ou psicose, segundo dados da empresa. Apesar disso, Wade-Scott disse que a OpenAI ainda não divulgou os registros de bate-papo de Soelberg.
O processo surge em meio a um exame mais amplo dos chatbots de IA e suas interações com usuários vulneráveis. Em outubro, a Character.AI disse que removeria os recursos de bate-papo abertos para usuários menores de 18 anos, após ações judiciais e pressões regulatórias vinculadas a suicídios de adolescentes e danos emocionais vinculados à sua plataforma.
Character.AI também enfrentou reação de usuários adultos, incluindo uma onda de exclusões de contas depois que um alerta viral alertou os usuários que eles perderiam “o amor que compartilhamos” se saíssem do aplicativo, atraindo críticas sobre práticas de design carregadas de emoção.
O processo contra a OpenAI e a Microsoft marcou o primeiro caso de homicídio culposo envolvendo um chatbot de IA a nomear a Microsoft como réu, e o primeiro a vincular um chatbot a um homicídio em vez de um suicídio. O espólio busca indenização monetária não especificada, um julgamento com júri e uma ordem judicial exigindo que a OpenAI instale salvaguardas adicionais.
“Esta é uma tecnologia incrivelmente poderosa desenvolvida por uma empresa que está rapidamente se tornando uma das mais poderosas do mundo, e tem a responsabilidade de desenvolver e implantar produtos que sejam seguros, e não aqueles que, como aconteceu aqui, constroem mundos delirantes para os usuários que colocam todos ao seu redor em perigo”, disse Wade-Scott. “A OpenAI e a Microsoft têm a responsabilidade de testar seus produtos antes de serem lançados no mundo.”
A Microsoft não respondeu imediatamente a um pedido de comentário de Descriptografar.
Geralmente inteligente Boletim informativo
Uma jornada semanal de IA narrada por Gen, um modelo generativo de IA.
Fontedecrypt




