Em resumo
- Um novo estudo mostra que os LLMs podem imitar a intenção de compra humana, mapeando respostas de texto livre para classificações Likert por meio de similaridade semântica.
- O método alcançou 90% de confiabilidade teste-reteste humano em 9.300 respostas reais de pesquisas.
- O estudo levanta questões sobre preconceito, generalização e até que ponto os “consumidores sintéticos” podem substituir pessoas reais.
Esqueça os grupos focais: um novo estudo descobriu que grandes modelos de linguagem podem prever se você deseja comprar algo com uma precisão impressionante, superando dramaticamente as ferramentas de marketing tradicionais.
Pesquisadores da Universidade de Mannheim e da ETH Zürich descobriram que grandes modelos de linguagem podem replicar a intenção de compra humana – a pergunta “Qual a probabilidade de você comprar isto?” métrica apreciada pelos profissionais de marketing – transformando texto de formato livre em dados de pesquisa estruturados.
Num artigo publicado na semana passada, a equipe introduziu um método chamado “Avaliação de Similaridade Semântica”, que converte as respostas abertas do modelo em classificações numéricas “Likert”, uma escala de cinco pontos usada em pesquisas de consumo tradicionais.
Em vez de pedir a um modelo que escolhesse um número entre um e cinco, os investigadores fizeram-no responder naturalmente – “Definitivamente compraria isto” ou “Talvez se estivesse à venda” – e depois mediram o quão semanticamente essas afirmações estavam próximas de respostas canónicas como “Definitivamente compraria isto” ou “Eu não compraria isto”.
Cada resposta foi mapeada no espaço incorporado para a declaração de referência mais próxima, transformando efetivamente o texto do LLM em classificações estatísticas. “Mostramos que a otimização para similaridade semântica, em vez de rótulos numéricos, produz distribuições de intenção de compra que correspondem de perto aos dados de pesquisas humanas”, escreveram os autores. “As respostas geradas pelo LLM alcançaram 90% da confiabilidade de repetidas pesquisas humanas, preservando a variação natural nas atitudes.”
Em testes realizados com 9.300 respostas humanas reais a inquéritos sobre produtos de cuidados pessoais, o método SSR produziu entrevistados sintéticos cujas distribuições Likert quase espelhavam as originais. Em outras palavras: quando solicitados a “pensar como consumidores”, os modelos o fizeram.
Por que isso importa
A descoberta pode remodelar a forma como as empresas conduzem testes de produtos e pesquisas de mercado. As pesquisas com consumidores são notoriamente caras, lentas e vulneráveis a preconceitos. Os entrevistados sintéticos – se se comportarem como reais – poderiam permitir que as empresas examinassem milhares de produtos ou mensagens por uma fração do custo.
Também valida uma afirmação mais profunda: que a geometria do espaço semântico de um LLM codifica não apenas a compreensão da linguagem, mas raciocínio atitudinal. Ao comparar as respostas no espaço incorporado, em vez de tratá-las como texto literal, o estudo demonstra que a semântica do modelo pode substituir o julgamento humano com uma fidelidade surpreendente.
Ao mesmo tempo, levanta riscos éticos e metodológicos familiares. Os investigadores testaram apenas uma categoria de produtos, deixando em aberto se a mesma abordagem seria válida para decisões financeiras ou tópicos politicamente carregados. E os “consumidores” sintéticos poderiam facilmente tornar-se sintéticos alvos: as mesmas técnicas de modelagem poderiam ajudar a otimizar a persuasão política, a publicidade ou estímulos comportamentais.
Como afirmam os autores, “as pressões de otimização impulsionadas pelo mercado podem corroer sistematicamente o alinhamento” – uma frase que ressoa muito além do marketing.
Uma nota de ceticismo
Os autores reconhecem que o seu domínio de teste – produtos de cuidados pessoais – é restrito e pode não ser generalizado para compras de alto risco ou com grande carga emocional. O mapeamento da SSR também depende de declarações de referência cuidadosamente escolhidas: pequenas alterações na redação podem distorcer os resultados. Além disso, o estudo baseia-se em dados de inquéritos humanos como “verdades básicas”, embora tais dados sejam notoriamente ruidosos e culturalmente tendenciosos.
Os críticos apontam que a similaridade baseada na incorporação pressupõe que os vetores de linguagem mapeiam perfeitamente as atitudes humanas, uma suposição que pode falhar quando o contexto ou a ironia entram na mistura. Os próprios números de confiabilidade do artigo – 90% da consistência teste-reteste humano – parecem impressionantes, mas ainda deixam espaço para desvios significativos. Em suma, o método funciona em médiamas ainda não está claro se essas médias capturam a diversidade humana real ou simplesmente refletem os antecedentes de treinamento do modelo.
A imagem maior
O interesse acadêmico na “modelagem sintética do consumidor” aumentou em 2025, à medida que as empresas experimentavam grupos focais baseados em IA e pesquisas preditivas. Trabalhos semelhantes realizados pelo MIT e pela Universidade de Cambridge mostraram que os LLMs podem imitar segmentos demográficos e psicométricos com fiabilidade moderada, mas nenhum deles demonstrou anteriormente uma correspondência estatística estreita com os dados reais de intenção de compra.
Por enquanto, o método SSR continua a ser um protótipo de investigação, mas aponta para um futuro onde os LLMs poderão não apenas responder a perguntas – mas representar o próprio público.
Se isso é um avanço ou uma alucinação ainda está em debate.
Geralmente inteligente Boletim informativo
Uma jornada semanal de IA narrada por Gen, um modelo generativo de IA.
Fontedecrypt