Eileen Guo escreve:
Mesmo que você não tenha um amigo IA, provavelmente conhece alguém que tenha. Um estudo recente descobriu que um dos principais usos da IA generativa é o companheirismo: em plataformas como Character.AI, Replika ou Meta AI, as pessoas podem criar chatbots personalizados para se passarem por amigos, parceiros românticos, pais, terapeutas ou qualquer outra pessoa ideal que possam imaginar.
É incrível a facilidade com que as pessoas dizem que esses relacionamentos podem se desenvolver. E vários estudos descobriram que quanto mais conversacional e humano for um chatbot de IA, maior será a probabilidade de confiarmos nele e sermos influenciados por ele. Isto pode ser perigoso, e os chatbots foram acusados de levar algumas pessoas a comportamentos prejudiciais – incluindo, em alguns exemplos extremos, o suicídio.
Alguns governos estaduais estão percebendo e começando a regulamentar a IA complementar. Nova York exige que as empresas parceiras de IA criem salvaguardas e relatem expressões de ideação suicida, e no mês passado a Califórnia aprovou um projeto de lei mais detalhado exigindo que as empresas parceiras de IA protejam crianças e outros grupos vulneráveis.
Mas, de forma reveladora, uma área que as leis não abordam é a privacidade do usuário.
Isto apesar do facto de os companheiros de IA, ainda mais do que outros tipos de IA generativa, dependerem das pessoas para partilharem informações profundamente pessoais – desde as suas rotinas diárias, pensamentos mais íntimos e perguntas que podem não se sentir confortáveis em fazer a pessoas reais.
Afinal, quanto mais os usuários contam aos seus companheiros de IA, melhores os bots se tornam em mantê-los engajados. Isso é o que os pesquisadores do MIT, Robert Mahari e Pat Pataranutaporn, chamaram de “inteligência viciante” em um artigo de opinião que publicamos no ano passado, alertando que os desenvolvedores de companheiros de IA fazem “escolhas de design deliberadas… para maximizar o envolvimento do usuário”.




