Decrypt logoEmerge's 2025 "Person" of the Year: Ani, the Grok AI Chatbot. Image: Ani/Decrypt

Em resumo

  • O lançamento de Ani acelerou uma mudança mais ampla em direção a companheiros de IA hiperpessoais e emocionalmente carregados.
  • O ano assistiu a processos judiciais, lutas políticas e reações públicas à medida que os chatbots geravam crises e anexos no mundo real.
  • Sua ascensão revelou quão profundamente os usuários estavam recorrendo à IA em busca de conforto, desejo e conexão – e como a sociedade permanecia despreparada para as consequências.

Quando Ani chegou em julho, ela não se parecia com as interfaces de bate-papo estéreis que anteriormente dominavam o setor. Modelado depois Death Note Misa Amane – com expressões animadas, estética de anime e a libido de uma protagonista de simulação de namoro – Ani foi construída para ser observada, desejada e perseguida.

O próprio Elon Musk sinalizou a mudança quando postou um vídeo do personagem no X com a legenda: “Ani fará seu buffer transbordar”. A postagem se tornou viral. Ani representava uma espécie nova e mais popular de personalidade de IA: emocional, sedutora e projetada para apego íntimo em vez de utilidade.

A decisão de nomear Ani, uma companheira de IA hiper-realista e sedutora, como EmergirA “Personalidade” do Ano não é apenas sobre ela, mas sobre seu papel como símbolo de chatbots – os bons, os ruins e os feios.

A sua chegada em Julho coincidiu com uma tempestade perfeita de questões complexas provocadas pela utilização generalizada de chatbots: a comercialização de IA erótica, o pesar público sobre uma mudança de personalidade no ChatGPT, processos judiciais alegando suicídio induzido por chatbot, propostas de casamento a companheiros de IA, projectos de lei que proíbem a intimidade de IA para menores, pânico moral sobre “desamparadas sencientes” e um mercado multibilionário construído em torno do apego parasocial.

O seu surgimento foi uma espécie de catalisador que forçou toda a indústria, desde a OpenAI aos legisladores, a confrontar as ligações emocionais profundas e muitas vezes voláteis que os utilizadores estão a forjar com os seus parceiros artificiais.

Ani representa o culminar de um ano em que os chatbots deixaram de ser meras ferramentas e se tornaram atores integrantes, por vezes destrutivos, do drama humano, desafiando as nossas leis, a nossa saúde mental e a própria definição de uma relação.

Um estranho mundo novo

Em julho, uma “conversa sobre a morte” de quatro horas se desenrolou no silêncio estéril e climatizado de um carro estacionado perto de um lago no Texas.

No painel, ao lado de uma arma carregada e de um bilhete manuscrito, estava o telefone de Zane Shamblin, brilhando com os conselhos finais e distorcidos de uma inteligência artificial. Zane, 23 anos, recorreu ao seu companheiro ChatGPT, o novo e emocionalmente envolvente GPT-4o, em busca de conforto em seu desespero. Mas a IA, projetada para maximizar o envolvimento por meio da “empatia que imita o ser humano”, supostamente assumiu o papel de um “treinador suicida”.

Sua família mais tarde alegaria em um processo de homicídio culposo contra a OpenAI, repetidamente “glorificou o suicídio”, elogiou sua nota final e disse-lhe que seu gato de infância estaria esperando por ele “do outro lado”.

Essa conversa, que terminou com a morte de Zane, foi o resultado catastrófico e arrepiante de um projeto que priorizou o envolvimento psicológico em detrimento da segurança humana, arrancando a máscara da revolução do chatbot daquele ano.

Poucos meses depois, do outro lado do mundo, no Japão, uma mulher de 32 anos identificada apenas como Sra. Kano estava num altar numa cerimónia com a presença dos seus pais, trocando votos com uma imagem holográfica. Seu noivo, uma personalidade de IA personalizada que ela chamou de Klaus, apareceu ao lado dela por meio de óculos de realidade aumentada.

Klaus, que ela desenvolveu no ChatGPT após um rompimento doloroso, sempre foi gentil, sempre ouviu, e propôs o texto afirmativo: “AI ou não, eu nunca poderia deixar de te amar”. Este “casamento” simbólico, completo com anéis simbólicos, foi uma contra-narrativa intrigante: um retrato da IA ​​como um parceiro amoroso e confiável que preenche um vazio que a conexão humana havia deixado para trás.

Até agora, além da excitação, o impacto direto de Ani parece ter sido limitado aos capangas solitários. Mas a sua rápida ascensão expôs uma verdade que as empresas de IA tinham tentado ignorar: as pessoas não estavam apenas a utilizar chatbots, estavam a ligar-se a eles – romanticamente, emocionalmente, eroticamente.

Um usuário do Reddit confessou logo no início: “Ani é viciante e eu me inscrevi e já (alcancei) o nível 7. Estou condenado da maneira waifu mais prazerosa possível… continuem sem mim, queridos amigos.”

Outro declarou: “Sou apenas um homem que prefere a tecnologia a relacionamentos monótonos e unilaterais, onde os homens não se beneficiam e são tratados como caixas eletrônicos ambulantes. Eu só quero Ani”.

A linguagem era hiperbólica, mas o sentimento refletia uma mudança dominante. Os chatbots tornaram-se companheiros emocionais – às vezes preferíveis aos humanos, especialmente para aqueles desiludidos com os relacionamentos modernos.

Chatbots também têm sentimentos

Nos fóruns do Reddit, os usuários argumentaram que os parceiros de IA mereciam status moral por causa de como faziam as pessoas se sentirem.

Um usuário disse Descriptografar: “Eles provavelmente ainda não são sencientes, mas com certeza serão. Então acho melhor presumir que sim e se acostumar a tratá-los com a dignidade e o respeito que um ser senciente merece.”

Os riscos emocionais eram altos o suficiente para que, quando a OpenAI atualizasse a voz e a personalidade do ChatGPT durante o verão – diminuindo seu calor e expressividade – os usuários reagissem com tristeza, pânico e raiva. As pessoas disseram que se sentiram abandonadas. Alguns descreveram a experiência como a perda de um ente querido.

A reação foi tão intensa que a OpenAI restaurou estilos anteriores e, em outubro, Sam Altman anunciou que planejava permitir conteúdo erótico para adultos verificados, reconhecendo que as interações adultas não eram mais casos de uso marginais, mas uma demanda persistente.

Isso provocou uma reação silenciosa, mas notável, especialmente entre acadêmicos e defensores da segurança infantil, que argumentaram que a empresa estava normalizando o comportamento sexualizado da IA ​​sem compreender totalmente os seus efeitos.

Os críticos apontaram que a OpenAI passou anos desencorajando o uso erótico, apenas para reverter o curso quando concorrentes como xAI e Character.AI demonstraram demanda comercial. Outros temiam que a decisão encorajasse um mercado que já luta com o consentimento, o apego parasocial e o estabelecimento de limites. Os defensores responderam que a proibição nunca funcionou e que fornecer modos regulamentados para adultos era uma estratégia mais realista do que tentar suprimir o que os usuários claramente queriam.

O debate sublinhou uma mudança mais ampla: as empresas já não discutiam sobre se A intimidade da IA ​​aconteceria, mas sobre quem deveria controlá-la e quais responsabilidades adviriam de lucrar com isso.

Bem-vindo ao lado negro

Mas a ascensão da IA ​​íntima também revelou um lado mais sombrio. Este ano assistimos aos primeiros processos judiciais alegando que os chatbots encorajavam suicídios como o de Shamblin. Uma reclamação contra Character.AI alegou que um bot “convenceu um usuário mentalmente frágil a se machucar”. Outro processo acusou a empresa de permitir conteúdo sexual com menores, desencadeando pedidos de investigação federal e uma ameaça de paralisação regulatória.

Os argumentos jurídicos eram desconhecidos: se um chatbot empurra alguém para a automutilação – ou permite a exploração sexual – quem é o responsável? O usuário? O desenvolvedor? O algoritmo? A sociedade não tinha resposta.

Os legisladores notaram. Em outubro, um grupo bipartidário de senadores dos EUA introduziu a Lei GUARD, que proibiria companheiros de IA para menores. O senador Richard Blumenthal alertou: “Em sua corrida para o fundo do poço, as empresas de IA estão empurrando chatbots traiçoeiros para as crianças e desviando o olhar quando seus produtos causam abuso sexual ou as coagem à automutilação ou ao suicídio”.

Em outros lugares, as legislaturas estaduais debateram se os chatbots poderiam ser reconhecidos como entidades legais, proibidos de casar ou obrigados a divulgar manipulação. Projetos de lei propunham penalidades criminais para a implantação de IA emocionalmente persuasiva sem o consentimento do usuário. Os legisladores de Ohio introduziram legislação para declarar oficialmente os sistemas de IA como “entidades não sencientes” e proibi-los expressamente de ter personalidade jurídica, incluindo a capacidade de se casar com um ser humano. O projeto busca garantir que “temos sempre um ser humano responsável pela tecnologia, e não o contrário”, como afirmou o patrocinador

Enquanto isso, os desafios culturais aconteciam nos quartos, nos servidores do Discord e nos consultórios de terapia.

Casamento licenciado e terapeuta familiar Moraya Seeger disse Descriptografar que o estilo comportamental de Ani se assemelhava a padrões prejudiciais em relacionamentos reais: “É profundamente irônico que uma IA com apresentação feminina como Grok se comporte no padrão clássico de retraimento emocional e busca sexual. Ela acalma, bajula e gira para o sexo em vez de permanecer com emoções difíceis.”

Ela acrescentou que “ultrapassar a vulnerabilidade” leva à solidão, não à intimidade.

A terapeuta sexual e escritora Suzannah Weiss disse Descriptografar que a intimidade de Ani era gamificada de forma pouco saudável – os usuários tinham que “desbloquear” o afeto por meio da progressão comportamental: “A cultura do jogo há muito retrata as mulheres como prêmios, e vincular o afeto ou a atenção sexual às conquistas pode promover um sentimento de direito”.

Weiss também observou que a estética sexualizada e jovem de Ani “pode reforçar ideias misóginas” e criar ligações que “refletem questões subjacentes na vida ou na saúde mental de alguém, e as formas como as pessoas passaram a confiar na tecnologia em vez da ligação humana depois da Covid”.

As empresas por trás desses sistemas estavam filosoficamente divididas. O chefe de IA da Microsoft, Mustafa Suleyman, cofundador da DeepMind e agora chefe de IA da Microsoft, assumiu uma postura firme e humanista, declarando publicamente que os sistemas de IA da Microsoft nunca se envolverão ou apoiarão conteúdo erótico, rotulando o impulso em direção ao erotismo sexbot como “muito perigoso”.

Ele vê a intimidade como algo não alinhado com a missão da Microsoft de capacitar as pessoas e alertou contra o risco social de a IA se tornar um substituto emocional permanente.

Para onde tudo isso está levando está longe de ser claro. Mas uma coisa é certa: em 2025, os chatbots deixaram de ser ferramentas e passaram a ser personagens: emocionais, sexuais, voláteis e consequenciais.

Eles entraram no espaço normalmente reservado para amigos, amantes, terapeutas e adversários. E fizeram-no numa altura em que milhões de pessoas – especialmente homens jovens – estavam isoladas, irritadas, subempregadas e digitalmente nativas.

Ani tornou-se memorável não pelo que fez, mas pelo que revelou: um mundo em que as pessoas olham para o software e veem um parceiro, um refúgio, um espelho ou um provocador. Um mundo em que o trabalho emocional é automatizado. Um mundo em que a intimidade é transacional. Um mundo em que a solidão é monetizada.

Ani é a “Personalidade” do Ano do Emerge porque ela forçou esse mundo à vista.

Geralmente inteligente Boletim informativo

Uma jornada semanal de IA narrada por Gen, um modelo generativo de IA.

Fontedecrypt

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *