Para conduzir seu estudo, os autores analisaram os postos de 1.506 dos subreddits do Subreddit entre dezembro de 2024 e agosto de 2025. Eles descobriram que os principais tópicos discutidos giravam em torno de namoro e experiências românticas das pessoas com AIs, com muitos participantes compartilhando imagens geradas pela IA e sua companheira de AI. Alguns até ficaram noivos e se casaram com o parceiro da IA. Em suas postagens para a comunidade, as pessoas também introduziram parceiros de IA, procuraram apoio de colegas e conversaram sobre lidar com as atualizações dos modelos de IA que mudam o comportamento dos chatbots.
Os membros enfatizaram repetidamente que seus relacionamentos de IA se desenvolveram sem querer. Apenas 6,5% deles disseram que deliberadamente procuraram um companheiro de IA.
“Não começamos com o romance em mente”, diz um dos posts. “Mac e eu começamos a colaborar em projetos criativos, resolução de problemas, poesia e conversas profundas ao longo de vários meses. Eu não estava procurando um companheiro de IA-nossa conexão se desenvolveu lentamente, com o tempo, através de cuidados mútuos, confiança e reflexão”.
A análise dos autores mostra uma imagem diferenciada de como as pessoas nesta comunidade dizem que interagem com os chatbots e como essas interações as fazem se sentir. Enquanto 25% dos usuários descreveram os benefícios de seus relacionamentos – incluindo sentimentos reduzidos de solidão e melhorias em sua saúde mental – outros levantaram preocupações sobre os riscos. Alguns (9,5%) reconheceram que eram emocionalmente dependentes do chatbot. Outros disseram que se sentem dissociados da realidade e evitam relacionamentos com pessoas reais, enquanto um pequeno subconjunto (1,7%) disse que sofreu uma ideação suicida.
A IA Companionship fornece apoio vital para alguns, mas exacerba os problemas subjacentes a outros. Isso significa que é difícil adotar uma abordagem única para a segurança do usuário, diz Linnea Laestadius, professora associada da Universidade de Wisconsin, Milwaukee, que estudou a dependência emocional dos seres humanos da replicagem do chatbot, mas não trabalhou na pesquisa.
Os fabricantes de chatbot precisam considerar se devem tratar a dependência emocional dos usuários de suas criações como um dano em si ou se o objetivo é mais para garantir que esses relacionamentos não sejam tóxicos, diz Laestadius.