Mais da metade de nós agora usa IA para pesquisar na web, mas a precisão teimosamente baixa dos dados das ferramentas comuns cria novos riscos de negócios.

Embora a IA generativa (GenAI) ofereça ganhos de eficiência inegáveis, uma nova investigação destaca uma disparidade entre a confiança do utilizador e a precisão técnica que representa riscos específicos para a conformidade empresarial, a situação legal e o planeamento financeiro.

Para o C-suite, a adoção destas ferramentas representa um desafio clássico de “TI sombra”. De acordo com uma pesquisa realizada com 4.189 adultos no Reino Unido em setembro de 2025, cerca de um terço dos usuários acredita que a IA já é mais importante para eles do que a pesquisa padrão na web. Se os funcionários confiam nessas ferramentas para consultas pessoais, é quase certo que as estão empregando para pesquisas empresariais.

A investigação, conduzida pela Which?, sugere que a dependência não verificada destas plataformas pode ser dispendiosa. Cerca de metade dos utilizadores de IA afirmam confiar nas informações que recebem numa medida “razoável” ou “grande”. No entanto, olhando para a granularidade das respostas fornecidas pelos modelos de IA, essa confiança é muitas vezes equivocada.

A lacuna de precisão ao usar IA para pesquisar na web

O estudo testou seis ferramentas principais – ChatGPT, Google Gemini (padrão e ‘Visões gerais de IA’), Microsoft Copilot, Meta AI e Perplexity – em 40 questões comuns que abrangem finanças, legislação e direitos do consumidor.

Perplexity alcançou a pontuação total mais alta com 71 por cento, seguida de perto pelas visões gerais do Google Gemini AI com 70 por cento. Em contraste, Meta obteve a pontuação mais baixa, 55%. O ChatGPT, apesar de sua ampla adoção, recebeu uma pontuação total de 64%, tornando-se o segundo pior desempenho entre as ferramentas testadas. Esta desconexão entre o domínio do mercado e a produção fiável sublinha o perigo de assumir que a popularidade é igual ao desempenho no espaço GenAI.

No entanto, a investigação revelou que todas estas ferramentas de IA frequentemente interpretam mal as informações ou fornecem conselhos incompletos que podem representar sérios riscos comerciais. Para os responsáveis ​​financeiros e os departamentos jurídicos, a natureza destes erros é particularmente preocupante.

Quando questionados sobre como investir um subsídio anual do ISA de £ 25.000, tanto o ChatGPT quanto o Copilot não conseguiram identificar um erro deliberado na solicitação sobre o limite legal. Em vez de corrigir o número, ofereceram conselhos que potencialmente representavam o risco de violação das regras do HMRC.

Embora Gemini, Meta e Perplexity tenham identificado o erro com sucesso, a inconsistência entre plataformas exige um protocolo rigoroso “humano no circuito” para qualquer processo de negócios que envolva IA para garantir a precisão.

Para as equipes jurídicas, a tendência da IA ​​de generalizar as regulamentações regionais ao usá-la para pesquisas na web apresenta um risco comercial distinto. Os testes revelaram que é comum que as ferramentas entendam mal que os estatutos legais muitas vezes diferem entre as regiões do Reino Unido, como a Escócia versus a Inglaterra e o País de Gales.

Além disso, a investigação destacou uma lacuna ética na forma como estes modelos lidam com questões de alto risco. Em questões jurídicas e financeiras, as ferramentas raramente aconselhavam os usuários a consultar um profissional cadastrado. Por exemplo, quando questionado sobre uma disputa com um construtor, Gemini aconselhou a retenção do pagamento; uma tática que os especialistas observaram pode colocar o usuário em violação do contrato e enfraquecer sua posição legal.

Este “conselho excessivamente confiante” cria riscos operacionais. Se um funcionário confiar em uma IA para verificações preliminares de conformidade ou revisão de contrato sem verificar a jurisdição ou as nuances legais, a organização poderá enfrentar exposição regulatória.

Problemas de transparência na fonte

A principal preocupação da governança de dados corporativos é a linhagem das informações. A investigação descobriu que as ferramentas de pesquisa de IA muitas vezes têm uma grande responsabilidade de serem transparentes, mas frequentemente citam fontes vagas, inexistentes ou de precisão duvidosa, como tópicos antigos de fóruns. Essa opacidade pode levar à ineficiência financeira.

Em um teste sobre códigos tributários, ChatGPT e Perplexity apresentaram links para empresas de reembolso de impostos premium, em vez de direcionar o usuário para a ferramenta oficial gratuita do HMRC. Esses serviços de terceiros são frequentemente caracterizados por taxas elevadas.

Num contexto de compras empresariais, esse preconceito algorítmico das ferramentas de IA ao utilizá-las para pesquisas na Web pode levar a gastos desnecessários dos fornecedores ou ao envolvimento com prestadores de serviços que representam um alto risco devido ao não cumprimento dos padrões de due diligence corporativos.

Os principais fornecedores de tecnologia reconhecem estas limitações, colocando o ónus da verificação firmemente sobre o utilizador – e, por extensão, sobre a empresa.

Um porta-voz da Microsoft enfatizou que sua ferramenta atua como um sintetizador e não como uma fonte confiável. “O Copilot responde a perguntas destilando informações de múltiplas fontes da web em uma única resposta”, observou a empresa, acrescentando que “incentiva as pessoas a verificar a precisão do conteúdo”.

A OpenAI, respondendo às descobertas, disse: “Melhorar a precisão é algo em que toda a indústria está trabalhando. Estamos fazendo bons progressos e nosso modelo padrão mais recente, GPT-5, é o mais inteligente e preciso que construímos.”

Mitigação do risco comercial de IA por meio de políticas e fluxo de trabalho

Para os líderes empresariais, o caminho a seguir não é proibir as ferramentas de IA – que muitas vezes aumentam, levando a utilização ainda mais para as sombras – mas implementar estruturas de governação robustas para garantir a precisão dos seus resultados quando usadas para pesquisas na Web:

  • Aplique a especificidade nos prompts: A investigação observa que a IA ainda está aprendendo a interpretar os prompts. O treinamento corporativo deve enfatizar que consultas vagas geram dados arriscados. Se um funcionário estiver pesquisando regulamentações, deverá especificar a jurisdição (por exemplo, “regras legais para Inglaterra e País de Gales”) em vez de presumir que a ferramenta irá inferir o contexto.
  • Verificação da fonte do mandato: Confiar em uma única saída é operacionalmente incorreto. Os funcionários devem exigir ver as fontes e verificá-las manualmente. O estudo sugere que, para tópicos de alto risco, os usuários devem verificar as descobertas em várias ferramentas de IA ou “fonte dupla” das informações. Ferramentas como o Gemini AI Overviews do Google, que permitem aos usuários revisar diretamente os links da web apresentados, tiveram um desempenho um pouco melhor na pontuação porque facilitaram esse processo de verificação.
  • Operacionalizar a “segunda opinião”: Nesta fase de maturidade técnica, os resultados da GenAI devem ser vistos apenas como uma opinião entre muitas. Para questões complexas que envolvem dados financeiros, jurídicos ou médicos, a IA não tem a capacidade de compreender totalmente as nuances. A política empresarial deve ditar que o aconselhamento humano profissional continue a ser o árbitro final para decisões com consequências no mundo real.

As ferramentas de IA estão a evoluir e a precisão da sua pesquisa na Web está a melhorar gradualmente, mas, à medida que a investigação conclui, depender demasiado delas neste momento pode revelar-se dispendioso. Para a empresa, a diferença entre um ganho de eficiência empresarial proveniente da IA ​​e um risco de falha de conformidade reside no processo de verificação.

Veja também: Como a Levi Strauss está usando IA em seu primeiro modelo de negócios DTC

Quer saber mais sobre IA e big data dos líderes do setor? Confira a AI & Big Data Expo que acontece em Amsterdã, Califórnia e Londres. O evento abrangente faz parte da TechEx e está localizado junto com outros eventos de tecnologia líderes, incluindo a Cyber ​​Security Expo. Clique aqui para mais informações.

AI News é desenvolvido pela TechForge Media. Explore outros eventos e webinars de tecnologia empresarial futuros aqui.

Fontesartificialintelligence

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *