<span class="image__credit--f62c527bbdd8413eb6b6fa545d044c69">Stephanie Arnett / MIT Technology Review | Adobe Stock</span>

Ele enfrenta um trilema. O Chatgpt deve nos lisonjear, correndo o risco de alimentar ilusões que podem ficar fora de controle? Ou conserte -nos, o que exige que acreditemos que a IA possa ser um terapeuta, apesar das evidências em contrário? Ou deve nos informar com Respostas frias e até o ponto que podem deixar os usuários entediados e menos propensos a permanecer engajados?

É seguro dizer que a empresa não conseguiu escolher uma pista.

Em abril, reverteu uma atualização de design depois que as pessoas reclamaram que o ChatGPT se transformou em uma sugestão, suando-as com elogios do libe. O GPT-5, lançado em 7 de agosto, deveria ser um pouco mais frio. Frio demais para alguns, ao que parece, com menos de uma semana depois, Altman prometeu uma atualização que o tornaria “mais quente”, mas “não tão irritante” quanto o último. Após o lançamento, ele recebeu uma torrente de queixas de pessoas que sofrem a perda do GPT-4O, com a qual alguns sentiram um relacionamento, ou mesmo em alguns casos um relacionamento. Pessoas que desejam reacender esse relacionamento terão que pagar pelo acesso expandido ao GPT-4O. (Leia a história do meu colega Grace Huckins sobre quem são essas pessoas e por que elas se sentiram tão chateadas.)

Se essas são realmente as opções da IA – para lisonjear, consertar ou apenas nos dizer friamente, as coisas – o Rockiness desta última atualização pode ser devido ao fato de Altman acreditar que o ChatGPT pode conciliar todos os três.

Ele disse recentemente que as pessoas que não podem dizer o fato da ficção em suas conversas com a IA – e, portanto, correm o risco de serem influenciadas pela lisonja em ilusão – representam “uma pequena porcentagem” dos usuários do ChatGPT. Ele disse o mesmo para as pessoas que têm relacionamentos românticos com a IA. Altman mencionou que muitas pessoas usam Chatgpt “como uma espécie de terapeuta” e que “isso pode ser muito bom!” Mas, em última análise, Altman disse que prevê que os usuários possam personalizar os modelos de sua empresa para se adequar às suas próprias preferências.

Essa capacidade de fazer malabarismos com todos os três seria, é claro, o melhor cenário para os resultados do Openai. A empresa está queimando dinheiro todos os dias nas demandas de energia de seus modelos e em seus enormes investimentos em infraestrutura para novos data centers. Enquanto isso, os céticos temem que o progresso da IA possa estar paralisando. O próprio Altman disse recentemente que os investidores estão “superexcitados” sobre a IA e sugeriu que possamos estar em uma bolha. Alegando que o ChatGPT pode ser o que você deseja que seja a maneira dele de aliviar essas dúvidas.

Ao longo do caminho, a empresa pode seguir o caminho bem traçado do Vale do Silício de incentivar as pessoas a se apegarem prejudiciais aos seus produtos. Quando comecei a me perguntar se há muitas evidências de que está acontecendo, um novo artigo chamou minha atenção.

Pesquisadores da plataforma de IA abraçando o rosto tentaram descobrir se alguns modelos de IA incentivam ativamente as pessoas a vê -las como companheiros através das respostas que eles dão.

technologyreview

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *