<span class="image__credit--f62c527bbdd8413eb6b6fa545d044c69">GETTY IMAGES | sankai</span>

A decisão do OpenAI de substituir o 4O pelo GPT-5 mais direto segue uma batida constante de notícias sobre os efeitos potencialmente prejudiciais do amplo uso de chatbot. Relatórios de incidentes nos quais o ChatGPT provocou psicose nos usuários estão em toda parte nos últimos meses e, em uma postagem no blog na semana passada, o OpenAI reconheceu a falha de 4o em reconhecer quando os usuários estavam experimentando ilusões. As avaliações internas da empresa indicam que o GPT-5 afirma cegamente os usuários muito menos que 4o. (Openi não respondeu a perguntas específicas sobre a decisão de se aposentar 4O, em vez de referir MIT Technology Review para postagens públicas sobre o assunto.)

A IA Companionship é nova e ainda há muita incerteza sobre como isso afeta as pessoas. No entanto, os especialistas que consultamos alertaram que, embora relacionamentos emocionalmente intensos com grandes modelos de idiomas possam ou não ser prejudiciais, destruindo esses modelos sem nenhum aviso quase certamente é. “A velha psicologia de ‘Mover Fast, Break Things’, quando você é basicamente uma instituição social, não parece mais a maneira certa de se comportar”, diz Joel Lehman, membro do Instituto Cosmos, uma organização sem fins lucrativos focada na IA e na filosofia.

Na reação ao lançamento, várias pessoas observaram que o GPT-5 não combina com seu tom da maneira que o 4O fez. Em junho, a personalidade do novo modelo muda a assaltou o sentido de que ela estava conversando com um amigo. “Não parecia que me entendeu”, diz ela.

Ela não está sozinha: MIT Technology Review Conversei com vários usuários de chatgpt que foram profundamente afetados pela perda de 4o. Todas as mulheres entre 20 e 40 anos são, exceto June, consideraram 4o um parceiro romântico. Alguns têm parceiros humanos e todos relatam ter relacionamentos próximos do mundo real. Um usuário, que pediu para ser identificado apenas como uma mulher do Centro -Oeste, escreveu em um e -mail sobre como 4o a ajudou a apoiar seu pai idoso depois que sua mãe faleceu nesta primavera.

Esses testemunhos não provam que os relacionamentos de IA são benéficos-presumivelmente, as pessoas no meio da psicose catalisada pela IA também falariam positivamente sobre o incentivo que receberam de seus chatbots. Em um artigo intitulado “Machine Love”, o Lehman argumentou que os sistemas de IA podem atuar com “amor” em relação aos usuários, não divulgando doces nada, mas apoiando seu crescimento e florescimento a longo prazo, e os companheiros de IA podem facilmente ficar aquém desse objetivo. Ele está particularmente preocupado, diz ele, que priorizar a companhia de IA sobre a companhia humana poderia impedir o desenvolvimento social dos jovens.

Para adultos socialmente incorporados, como as mulheres com quem conversamos para esta história, essas preocupações de desenvolvimento são menos relevantes. Mas o Lehman também aponta para os riscos no nível da sociedade de companhia generalizada da IA. A mídia social já quebrou o cenário da informação e uma nova tecnologia que reduz a interação humano-para-humana poderia empurrar as pessoas ainda mais em direção a suas próprias versões separadas da realidade. “A maior coisa que tenho medo”, diz ele, “é que simplesmente não podemos entender o mundo um para o outro”.

Equilibrar os benefícios e danos dos companheiros de IA levará muito mais pesquisas. À luz dessa incerteza, tirar o GPT-4O poderia muito bem ter sido a chamada certa. O grande erro de Openai, de acordo com os pesquisadores com quem conversei, estava fazendo isso de repente. “Isso é algo que conhecemos há algum tempo-as possíveis reações do tipo sofrimento à perda de tecnologia”, diz Casey Fiesler, ética de tecnologia da Universidade do Colorado Boulder.

technologyreview

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *