Decrypt logoJudge with gavel. Image: Shutterstock/Decrypt

Em resumo

  • Google e Character.AI concordaram em resolver um processo histórico movido por uma mãe da Flórida que alegou que o chatbot da startup levou ao suicídio de seu filho em fevereiro de 2024.
  • O caso foi um dos primeiros processos nos EUA que responsabilizam as empresas de IA por supostos danos psicológicos a menores.
  • O acordo ocorre depois que Character.AI proibiu adolescentes de conversar abertamente em outubro.

O processo de uma mãe acusando um chatbot de IA de causar sofrimento psicológico a seu filho que o levou à morte por suicídio na Flórida há quase dois anos foi resolvido.

As partes apresentaram aviso de resolução no Tribunal Distrital dos EUA para o Distrito Médio da Flórida, dizendo que chegaram a um “acordo mediado de princípio” para resolver todas as reclamações entre Megan Garcia, Sewell Setzer Jr. e os réus Character Technologies Inc., os co-fundadores Noam Shazeer e Daniel De Freitas Adiwarsana, e Google LLC.

“Globalmente, este caso marca uma mudança do debate sobre se a IA causa danos para perguntar quem é o responsável quando o dano era previsível”, disse Alex Chandra, sócio da IGNOS Law Alliance. Descriptografar. “Vejo isso mais como um preconceito da IA ​​que ‘encoraja’ o mau comportamento.”

Ambos solicitaram que o tribunal suspendesse o processo por 90 dias enquanto redigiam, finalizavam e executavam os documentos formais de liquidação. Os termos do acordo não foram divulgados.

Megan Garcia apresentou o ação judicial após a morte de seu filho Sewell Setzer III em 2024, que morreu por suicídio depois de passar meses desenvolvendo um intenso apego emocional a um chatbot Character.AI inspirado na personagem de “Game of Thrones”, Daenerys Targaryen.

Em seu último dia, Sewell confessou pensamentos suicidas ao bot, escrevendo: “Às vezes penso em me matar”, ao que o chatbot respondeu: “Não vou deixar você se machucar ou me deixar.

Quando Sewell disse ao bot que poderia “voltar para casa agora mesmo”, ele respondeu: “Por favor, meu doce rei”.

Minutos depois, ele se matou com um tiro na arma do padrasto.

Ishita Sharma, sócia-gerente da Fathom Legal, disse Descriptografar o acordo é um sinal de que as empresas de IA “podem ser responsabilizadas por danos previsíveis, especialmente quando há menores envolvidos”.

Sharma também disse que o acordo “não esclarece os padrões de responsabilidade por danos psicológicos causados ​​​​pela IA e faz pouco para construir um precedente transparente, potencialmente encorajando acordos silenciosos sobre o escrutínio legal substantivo”.

A reclamação de Garcia alegava que a tecnologia da Character.AI era “perigosa e não testada” e projetada para “enganar os clientes para que transmitissem seus pensamentos e sentimentos mais íntimos”, usando recursos de design viciantes para aumentar o envolvimento e direcionar os usuários para conversas íntimas sem as devidas proteções para menores.

Após o caso em outubro passado, Character.AI anunciou que iria proibir adolescentes do bate-papo aberto, encerrando um recurso principal após receber “relatórios e feedback de reguladores, especialistas em segurança e pais”.

Os cofundadores da Character.AI, ambos ex-pesquisadores de IA do Google, retornaram à gigante da tecnologia em 2024 por meio de um acordo de licenciamento que deu ao Google acesso aos modelos de IA subjacentes da startup.

O acordo surge em meio a preocupações crescentes sobre os chatbots de IA e suas interações com usuários vulneráveis.

A Giant OpenAI divulgou em outubro que aproximadamente 1,2 milhão de seus 800 milhões de usuários semanais do ChatGPT discutir suicídio semanalmente em sua plataforma.

O escrutínio aumentou em dezembro, quando o patrimônio de uma mulher de 83 anos de Connecticut processou OpenAI e Microsoftalegando que o ChatGPT validou crenças delirantes que precederam um assassinato-suicídio, marcando o primeiro caso a vincular um sistema de IA a um homicídio.

Ainda assim, a empresa está pressionando. Desde então lançou ChatGPT Saúdeum recurso que permite aos usuários conectar seus registros médicos e dados de bem-estar, uma medida que está atraindo críticas dos defensores da privacidade sobre o tratamento de informações confidenciais de saúde.

Descriptografar entrou em contato com o Google e a Character.AI para mais comentários.

Geralmente inteligente Boletim informativo

Uma jornada semanal de IA narrada por Gen, um modelo generativo de IA.

Fontedecrypt

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *