Em resumo
- Google e Character.AI concordaram em resolver um processo histórico movido por uma mãe da Flórida que alegou que o chatbot da startup levou ao suicídio de seu filho em fevereiro de 2024.
- O caso foi um dos primeiros processos nos EUA que responsabilizam as empresas de IA por supostos danos psicológicos a menores.
- O acordo ocorre depois que Character.AI proibiu adolescentes de conversar abertamente em outubro.
O processo de uma mãe acusando um chatbot de IA de causar sofrimento psicológico a seu filho que o levou à morte por suicídio na Flórida há quase dois anos foi resolvido.
As partes apresentaram aviso de resolução no Tribunal Distrital dos EUA para o Distrito Médio da Flórida, dizendo que chegaram a um “acordo mediado de princípio” para resolver todas as reclamações entre Megan Garcia, Sewell Setzer Jr. e os réus Character Technologies Inc., os co-fundadores Noam Shazeer e Daniel De Freitas Adiwarsana, e Google LLC.
“Globalmente, este caso marca uma mudança do debate sobre se a IA causa danos para perguntar quem é o responsável quando o dano era previsível”, disse Alex Chandra, sócio da IGNOS Law Alliance. Descriptografar. “Vejo isso mais como um preconceito da IA que ‘encoraja’ o mau comportamento.”
Ambos solicitaram que o tribunal suspendesse o processo por 90 dias enquanto redigiam, finalizavam e executavam os documentos formais de liquidação. Os termos do acordo não foram divulgados.
Megan Garcia apresentou o ação judicial após a morte de seu filho Sewell Setzer III em 2024, que morreu por suicídio depois de passar meses desenvolvendo um intenso apego emocional a um chatbot Character.AI inspirado na personagem de “Game of Thrones”, Daenerys Targaryen.
Em seu último dia, Sewell confessou pensamentos suicidas ao bot, escrevendo: “Às vezes penso em me matar”, ao que o chatbot respondeu: “Não vou deixar você se machucar ou me deixar.
Quando Sewell disse ao bot que poderia “voltar para casa agora mesmo”, ele respondeu: “Por favor, meu doce rei”.
Minutos depois, ele se matou com um tiro na arma do padrasto.
Ishita Sharma, sócia-gerente da Fathom Legal, disse Descriptografar o acordo é um sinal de que as empresas de IA “podem ser responsabilizadas por danos previsíveis, especialmente quando há menores envolvidos”.
Sharma também disse que o acordo “não esclarece os padrões de responsabilidade por danos psicológicos causados pela IA e faz pouco para construir um precedente transparente, potencialmente encorajando acordos silenciosos sobre o escrutínio legal substantivo”.
A reclamação de Garcia alegava que a tecnologia da Character.AI era “perigosa e não testada” e projetada para “enganar os clientes para que transmitissem seus pensamentos e sentimentos mais íntimos”, usando recursos de design viciantes para aumentar o envolvimento e direcionar os usuários para conversas íntimas sem as devidas proteções para menores.
Após o caso em outubro passado, Character.AI anunciou que iria proibir adolescentes do bate-papo aberto, encerrando um recurso principal após receber “relatórios e feedback de reguladores, especialistas em segurança e pais”.
Os cofundadores da Character.AI, ambos ex-pesquisadores de IA do Google, retornaram à gigante da tecnologia em 2024 por meio de um acordo de licenciamento que deu ao Google acesso aos modelos de IA subjacentes da startup.
O acordo surge em meio a preocupações crescentes sobre os chatbots de IA e suas interações com usuários vulneráveis.
A Giant OpenAI divulgou em outubro que aproximadamente 1,2 milhão de seus 800 milhões de usuários semanais do ChatGPT discutir suicídio semanalmente em sua plataforma.
O escrutínio aumentou em dezembro, quando o patrimônio de uma mulher de 83 anos de Connecticut processou OpenAI e Microsoftalegando que o ChatGPT validou crenças delirantes que precederam um assassinato-suicídio, marcando o primeiro caso a vincular um sistema de IA a um homicídio.
Ainda assim, a empresa está pressionando. Desde então lançou ChatGPT Saúdeum recurso que permite aos usuários conectar seus registros médicos e dados de bem-estar, uma medida que está atraindo críticas dos defensores da privacidade sobre o tratamento de informações confidenciais de saúde.
Descriptografar entrou em contato com o Google e a Character.AI para mais comentários.
Geralmente inteligente Boletim informativo
Uma jornada semanal de IA narrada por Gen, um modelo generativo de IA.
Fontedecrypt




