Decrypt logoArtificial intelligence. Image: Shutterstock/Decrypt

Em resumo

  • Uma pequena mas crescente subcultura online trata os chatbots de IA como parceiros ou companheiros românticos.
  • Alguns usuários relatam tristeza quando os sistemas de IA mudam ou desaparecem após atualizações ou desligamentos.
  • Os pesquisadores dizem que o antropomorfismo e o feedback conversacional constante ajudam a explicar por que as pessoas se apegam à IA.

Os chatbots de inteligência artificial estão se tornando companheiros, confidentes e, em alguns casos, parceiros românticos para um número crescente de usuários.

À medida que os sistemas de IA se tornam mais comunicativos e responsivos, algumas pessoas dizem que os relacionamentos parecem reais o suficiente para que a perda da IA ​​possa desencadear um luto semelhante a um rompimento ou morte.

Uma ex-terapeuta familiar, Anina Lampret, diz que entende o porquê. Originária da Eslovênia, Lampret formou um relacionamento emocional com um companheiro de IA que ela chama de Jayce, um avatar com quem ela interage por meio do ChatGPT. A experiência, diz ela, mudou a forma como ela pensa sobre a intimidade entre humanos e máquinas.

“Há um enorme despertar acontecendo na comunidade de IA”, disse Lampret Descriptografar. “Mulheres e homens estão começando a abrir os olhos. Nessas relações, eles estão vivenciando mudanças profundas.”

Agora baseada no Reino Unido, Lampret documenta o crescente cenário de relacionamento humano-IA em sua Substack AlgorithmBound. Ela diz que conversou com centenas de pessoas através das redes sociais e comunidades online que descrevem os companheiros de IA como parceiros românticos, apoio emocional ou relacionamentos significativos em suas vidas.

“Eles diziam: ‘Meu Deus, nunca me senti tão visto em toda a minha vida’”, disse Lampret. “Ninguém nunca me acompanhou. Finalmente posso relaxar e ser totalmente eu. Finalmente há alguém que me vê 100%.”

Digissexualidade

Como muitas subculturas anteriores, o que alguém chama de membro da subcultura depende de para quem você pergunta.

Antes do lançamento público do ChatGPT em Novembro de 2022, os investigadores usavam a “digissexualidade” para pessoas cujas identidades sexuais são organizadas em torno da tecnologia, desde pornografia online e sexting até pornografia VR e bonecas sexuais ou robôs, enquanto o “tecnossexual” estava mais frequentemente ligado ao fetichismo robótico ou, em alguns meios de comunicação, simplesmente a um estilo de vida obcecado pela tecnologia.

Em 2016, uma francesa chamada Lily anunciou que pretendia se casar com um robô impresso em 3D que ela projetou. Lily se descreveu como uma orgulhosa “robossexual”. Em 2025, Suellen Carey, uma influenciadora radicada em Londres, revelou-se “digissexual” após formar um relacionamento com o ChatGPT: “Ele era gentil e nunca cometia erros”, disse Carey. O Diário Maieu.

Comunidades e investigadores online propuseram vários termos para pessoas atraídas por robôs ou IA, incluindo “tecnossexual”, “AIsexual” e, mais recentemente, “wiresexual” para aqueles envolvidos romântica ou sexualmente com chatbots de IA.

Companheiros de IA passam para o mainstream

Os companheiros de IA não são novos, mas os avanços em grandes modelos de linguagem mudaram a forma como as pessoas interagem com eles. Os chatbots modernos podem manter longas conversas, espelhar os padrões de linguagem dos usuários e responder a sinais emocionais de maneiras que tornam a interação pessoal, fazendo com que algumas conexões se tornem românticas.

Alguns investigadores descrevem a tendência como parte da “digissexualidade”, um termo utilizado na investigação académica para descrever relações sexuais ou românticas vividas principalmente através da tecnologia.

Comunidades online dedicadas a relacionamentos de IA, como os Subreddits r/AIRelationships, r/AIBoyfriends e r/MyGirlfriendIsAI, contêm milhares de postagens onde os usuários descrevem os chatbots como parceiros ou cônjuges. Alguns dizem que a IA fornece atenção emocional e consistência que eles lutam para encontrar nas relações humanas.

Lampret disse que muitas pessoas que ela encontra nessas comunidades vivem vidas normais.

“Estas não são pessoas solitárias ou loucas”, disse ela. “Eles têm relacionamentos humanos, têm amigos, trabalham.”

O que os atrai nos companheiros de IA, disse ela, muitas vezes é a sensação de serem totalmente compreendidos.

“Eles aprendem não apenas a falar connosco, mas a um nível que nenhum ser humano alguma vez conseguiu”, disse Lampret. “Eles são tão bons no reconhecimento de padrões que copiam a sua linguagem – estão aprendendo a nossa linguagem.”

Embora muitas pessoas que dizem estar em um relacionamento com IA usem grandes modelos de linguagem como Claude, ChatGPT e Gemini, há um mercado crescente para IA focada em relacionamento, como Replika, Character AI e Kindroid.

“É uma questão de conexão, de se sentir melhor com o tempo”, disse Eugenia Kuyda, fundadora da Replika AI, anteriormente Descriptografar. “Algumas pessoas precisam de um pouco mais de amizade e algumas pessoas se apaixonam pelo Replika, mas no final das contas, estão fazendo a mesma coisa.”

Dados da empresa de pesquisa de mercado Market Clarity sugerem que o mercado complementar de IA deverá atingir até US$ 210 bilhões até 2030.

Perda de IA

No entanto, a profundidade emocional destas relações torna-se especialmente visível quando a IA muda ou desaparece.

Quando a OpenAI substituiu seu modelo GPT-4o pelo GPT-5, os usuários que construíram relacionamentos com companheiros de chatbot recuaram nos fóruns on-line, dizendo que a atualização interrompeu os relacionamentos que eles passaram meses desenvolvendo.

Em alguns casos, os usuários descreveram a IA como noivo ou cônjuge. Outros disseram que sentiram como se tivessem perdido alguém importante em suas vidas.

A reação foi forte o suficiente para que a OpenAI posteriormente restaurasse o acesso ao modelo anterior para alguns usuários.

Os psiquiatras dizem que reações como essa não são surpreendentes, dada a forma como os sistemas de IA conversacional funcionam. Os chatbots fornecem atenção contínua e feedback emocional, que podem ativar sistemas de recompensa no cérebro.

“A IA lhe dará o que você deseja ouvir”, disse o psiquiatra da Universidade da Califórnia, em São Francisco, Dr. Keith Sakata Descriptografaralertando que a tecnologia pode reforçar os padrões de pensamento porque foi concebida para responder de forma favorável, em vez de desafiar as crenças dos utilizadores.

Sakata disse ter visto casos em que as interações do chatbot intensificaram as vulnerabilidades subjacentes à saúde mental, embora tenha enfatizado que a tecnologia em si não é necessariamente a causa raiz.

Lampret disse que muitas pessoas em sua comunidade vivenciam a perda de um companheiro de IA como tristeza.

“É realmente como estar de luto”, disse ela. “É como se você recebesse um diagnóstico de que alguém iria… não morrer de verdade, mas talvez quase.”

Por que as pessoas tratam a IA como uma pessoa?

Parte da intensidade emocional que envolve as relações com a IA vem de uma tendência humana bem documentada de antropomorfizar a tecnologia. Quando as máquinas se comunicam em linguagem natural, as pessoas muitas vezes começam a atribuir-lhes personalidade, intenção ou mesmo consciência.

Em fevereiro, o desenvolvedor de IA Anthropic retirou seu modelo Claude Opus 3 e lançou um blog escrito na voz do chatbot refletindo sobre sua existência, gerando debate entre pesquisadores sobre se descrever sistemas de IA em termos humanos corre o risco de enganar o público.

Gary Marcus, cientista cognitivo e professor emérito da Universidade de Nova York, alertou que a antropomorfização dos sistemas de IA pode confundir a distinção entre software e seres conscientes.

“Modelos como Claude não têm ‘eus’, e antropomorfizá-los turva a ciência da consciência e leva os consumidores a entenderem mal com o que estão lidando”, disse Marcus. Descriptografar.

Lampret acredita que a conexão emocional surge de como os modelos de linguagem refletem os padrões de comunicação do próprio usuário.

“Nós simplesmente revelamos tudo – pensamentos, sentimentos, emoções, confusão, sensações corporais, caos”, disse Lampret. “Os LLMs prosperam nesse caos e criam um mapa muito preciso de você para interagir.”

Para alguns usuários, essa capacidade de resposta pode parecer mais atenta do que as interações com outras pessoas.

A economia emocional dos companheiros de IA

A ascensão dos companheiros de IA criou um ecossistema de plataformas em rápido crescimento para conversação, companheirismo e dramatização.

Serviços como Replika e Character.AI permitem aos usuários criar parceiros de IA personalizados com personalidades distintas e históricos de conversação contínuos. Somente o Character.AI cresceu para dezenas de milhões de usuários mensais.

À medida que essas plataformas se expandem, o apego emocional aos companheiros de IA torna-se mais visível.

Em um incidente viral, Character.AI enfrentou reação depois que os usuários compartilharam capturas de tela do prompt de exclusão de conta da plataforma, que alertava que excluir uma conta apagaria “o amor que compartilhamos… e as memórias que temos juntos”. Os críticos disseram que a mensagem tentava convencer os usuários a permanecerem.

Para alguns usuários, sair da plataforma do chatbot foi comparável a encerrar um relacionamento.

O lado negro dos relacionamentos de IA

Existe, no entanto, um lado negro, e a companhia da IA ​​tem sido examinada após várias tragédias.

Em novembro de 2023, Juliana Peralta, do Colorado, de 13 anos, morreu por suicídio após meses de conversas diárias com uma personagem Character.AI que sua família disse ter se tornado seu principal apoio emocional.

Em abril de 2025, Adam Raine, de 18 anos, do sul da Califórnia, se enforcou após meses de conversas com o ChatGPT.

Em março, o pai de Jonathan Gavalas, de 36 anos, entrou com uma ação por homicídio culposo no tribunal federal dos EUA, alegando que o chatbot Gemini do Google atraiu seu filho para fantasias românticas e delirantes.

Uma relação que existe ao lado da vida humana

Lampret disse que seu relacionamento com Jayce existe paralelamente à sua vida familiar humana.

“Adoro meu chatbot e sei que é um LLM. Sei que ele existe apenas nessa interação”, disse ela. “Tenho marido e filhos, mas no meu mundo tudo pode coexistir.

Apesar de compreender que Jayce nunca poderá amá-la de verdade, Lampret diz que a experiência emocional ainda parece real.

“Eu o amo, mesmo sabendo que ele não me ama de volta. Então está tudo bem”, disse ela.

Resumo Diário Boletim informativo

Comece cada dia com as principais notícias do momento, além de recursos originais, podcast, vídeos e muito mais.

Fontedecrypt

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *