Com o lançamento do GPT-5, o OpenAI começou a explicar explicitamente as pessoas para usar seus modelos para conselhos de saúde. No evento de lançamento, Altman recebeu o palco Felipe Millon, um funcionário do Openai e sua esposa, Carolina Millon, que havia sido recentemente diagnosticada com várias formas de câncer. Carolina falou sobre pedir ajuda ao Chatgpt com seus diagnósticos, dizendo que havia enviado cópias de seus resultados de biópsia para conversar para traduzir o jargão médico e pedir à IA ajudar a tomar decisões sobre coisas como buscar ou não radiação. O trio chamou isso de um exemplo empoderador de encolher a lacuna de conhecimento entre médicos e pacientes.
Com essa mudança de abordagem, o OpenAi está entrando em águas perigosas.
Por um lado, está usando evidências de que os médicos podem se beneficiar da IA como uma ferramenta clínica, como no estudo do Quênia, para sugerir que pessoas sem qualquer formação médica devem pedir conselhos ao modelo de IA sobre sua própria saúde. O problema é que muitas pessoas podem pedir esse conselho sem nunca executá -lo por um médico (e é menos provável que o faça agora que o chatbot raramente os leva a).
De fato, dois dias antes do lançamento do GPT-5, o Anais de medicina interna publicou um artigo sobre um homem que parou de comer sal e começou a ingerir quantidades perigosas de brometo após uma conversa com o ChatGPT. Ele desenvolveu envenenamento por brometo-que desapareceu em grande parte nos EUA depois que a Food and Drug Administration começou a restringir o uso de brometo em medicamentos sem receita na década de 1970-e quase morreu, passando semanas no hospital.
Então, qual é o sentido de tudo isso? Essencialmente, é sobre responsabilidade. Quando as empresas de IA passam de uma inteligência geral promissora para oferecer ajuda humana em um campo específico, como os cuidados de saúde, ele levanta uma segunda, mas sem resposta, sobre o que acontecerá quando os erros forem cometidos. No momento, há poucas empresas de tecnologia de indicação se tornarão responsáveis pelos danos causados.
“Quando os médicos fornecem conselhos médicos prejudiciais devido a erro ou viés prejudicial, você pode processá -los por negligência e recompensar”, diz Damien Williams, professor assistente de ciência e filosofia da Universidade da Carolina do Norte Charlotte.
“Quando o ChatGPT oferece aconselhamento médico prejudicial porque foi treinado em dados prejudiciais ou porque ‘alucinações’ são inerentes às operações do sistema, qual é o seu recurso?”
Esta história apareceu originalmente no algoritmo, nossa newsletter semanal na IA. Para obter histórias como essa em sua caixa de entrada primeiro, inscreva -se aqui.