Se você já pegou um Uber autônomo pelo centro de Los Angeles, talvez reconheça a estranha sensação de incerteza que se instala quando não há motorista nem conversa, apenas um carro silencioso fazendo suposições sobre o mundo ao seu redor. A viagem parece boa até que o carro interprete mal uma sombra ou desacelere abruptamente para algo inofensivo. Naquele momento você vê o verdadeiro problema da autonomia. Não entra em pânico quando deveria, e é nessa lacuna entre a confiança e o julgamento que a confiança é conquistada ou perdida. Grande parte da IA ​​empresarial atual parece notavelmente semelhante. É competente sem ser confiante e eficiente sem ser empático, e é por isso que o fator decisivo em toda implantação bem-sucedida não é mais o poder computacional, mas a confiança.

O relatório MLQ State of AI in Business 2025 (PDF) apresenta um número nítido sobre isso. 95% dos primeiros pilotos de IA não conseguem produzir um ROI mensurável, não porque a tecnologia seja fraca, mas porque não corresponde aos problemas que as organizações estão a tentar resolver. O padrão se repete nas indústrias. Os líderes ficam desconfortáveis ​​quando não sabem se o resultado está correto, as equipes não têm certeza se os painéis são confiáveis ​​e os clientes rapidamente perdem a paciência quando uma interação parece automatizada em vez de apoiada. Qualquer pessoa cuja conta bancária tenha sido bloqueada enquanto o sistema de recuperação automatizado insiste que as suas respostas estão erradas sabe como a confiança se evapora rapidamente.

Klarna continua sendo o exemplo mais divulgado de automação em larga escala em ação. A empresa reduziu para metade a sua força de trabalho desde 2022 e afirma que os sistemas internos de IA estão a desempenhar o trabalho de 853 funções a tempo inteiro, contra 700 no início deste ano. As receitas aumentaram 108%, enquanto a remuneração média dos funcionários aumentou 60%, financiada em parte por esses ganhos operacionais. No entanto, o quadro é mais complicado. Klarna ainda relatou um prejuízo trimestral de 95 milhões de dólares, e seu CEO alertou que são prováveis ​​mais reduções de pessoal. Mostra que a automação por si só não cria estabilidade. Sem responsabilidade e estrutura, a experiência falha muito antes da IA. Como afirma Jason Roos, CEO da Cirrus, provedora de CCaaS: “Qualquer transformação que abale a confiança, dentro ou fora da empresa, acarreta um custo que você não pode ignorar. Ela pode deixá-lo em situação pior”.

Já vimos o que acontece quando a autonomia ultrapassa a responsabilização. O Departamento do Trabalho e Pensões do Reino Unido utilizou um algoritmo que sinalizou erradamente cerca de 200.000 pedidos de subsídios de habitação como potencialmente fraudulentos, embora a maioria fosse legítima. O problema não era a tecnologia. Foi a ausência de uma propriedade clara sobre suas decisões. Quando um sistema automatizado suspende a conta errada, rejeita a reclamação errada ou cria medo desnecessário, a questão nunca é apenas “por que o modelo falhou?” É “quem é o dono do resultado?” Sem essa resposta, a confiança torna-se frágil.

“O passo que falta é sempre a prontidão”, diz Roos. “Se o processo, os dados e as barreiras de proteção não estiverem em vigor, a autonomia não acelera o desempenho, ela amplifica os pontos fracos. A responsabilidade tem que vir primeiro. Comece com o resultado, descubra onde o esforço está sendo desperdiçado, verifique sua prontidão e governança, e só então automatize. Pule essas etapas e a responsabilidade desaparecerá tão rapidamente quanto os ganhos de eficiência chegam.”

Parte do problema é uma obsessão pela escala sem a base que torna a escala sustentável. Muitas organizações procuram agentes autónomos que possam agir de forma decisiva, mas muito poucas param para considerar o que acontece quando essas ações ultrapassam os limites esperados. O Edelman Trust Barometer (PDF) mostra um declínio constante na confiança do público na IA ao longo dos últimos cinco anos, e um estudo conjunto da KPMG e da Universidade de Melbourne descobriu que os trabalhadores preferem um envolvimento mais humano em quase metade das tarefas examinadas. As descobertas reforçam um ponto simples. A confiança raramente surge quando se pressiona mais os modelos. Ela vem de pessoas que dedicam tempo para entender como as decisões são tomadas e de uma governança que se comporta menos como um pedal de freio e mais como um volante.

A mesma dinâmica aparece do lado do cliente. A pesquisa de confiança da PwC revela um grande abismo entre a percepção e a realidade. A maioria dos executivos acredita que os clientes confiam na sua organização, enquanto apenas uma minoria dos clientes concorda. Outras pesquisas mostram que a transparência ajuda a colmatar esta lacuna, com a grande maioria dos consumidores a quererem uma divulgação clara quando a IA é utilizada em experiências de serviço. Sem essa clareza, as pessoas não se sentem tranquilas. Eles se sentem enganados e o relacionamento fica tenso. As empresas que comunicam abertamente sobre a sua utilização de IA não estão apenas a proteger a confiança, mas também a normalizar a ideia de que a tecnologia e o apoio humano podem coexistir.

Parte da confusão decorre do próprio termo “IA agente”. Grande parte do mercado trata isso como algo imprevisível ou autodirecionado, quando na realidade é automação de fluxo de trabalho com raciocínio e recall. É uma forma estruturada para os sistemas tomarem decisões modestas dentro de parâmetros desenhados por pessoas. Todas as implantações que são dimensionadas com segurança seguem a mesma sequência. Eles começam com o resultado que desejam melhorar, depois observam onde estão os esforços desnecessários no fluxo de trabalho, depois avaliam se seus sistemas e equipes estão prontos para a autonomia e só então escolhem a tecnologia. Reverter essa ordem não acelera nada. Simplesmente cria erros mais rápidos. Como diz Roos, a IA deveria expandir o julgamento humano, e não substituí-lo.

Tudo isso aponta para uma verdade mais ampla. Cada onda de automação acaba se tornando uma questão social, em vez de uma questão puramente técnica. A Amazon construiu seu domínio por meio da consistência operacional, mas também construiu um nível de confiança de que o pacote chegaria. Quando essa confiança diminui, os clientes seguem em frente. A IA segue o mesmo padrão. Você pode implantar sistemas sofisticados e autocorretivos, mas se o cliente se sentir enganado ou enganado a qualquer momento, a confiança será quebrada. Internamente, aplicam-se as mesmas pressões. O estudo global da KPMG (PDF) destaca a rapidez com que os funcionários se desvinculam quando não compreendem como as decisões são tomadas ou quem é responsável por elas. Sem essa clareza, a adoção estagna.

À medida que os sistemas de agência assumem papéis mais conversacionais, a dimensão emocional torna-se ainda mais significativa. As primeiras análises de interações de bate-papo autônomas mostram que as pessoas agora julgam sua experiência não apenas pelo fato de terem sido ajudadas, mas também pelo fato de a interação ter sido atenciosa e respeitosa. Um cliente que se sente rejeitado raramente guarda a frustração para si. O tom emocional da IA ​​está a tornar-se um factor operacional genuíno e os sistemas que não conseguem satisfazer essa expectativa correm o risco de se tornarem passivos.

A difícil verdade é que a tecnologia continuará a avançar mais rapidamente do que o conforto instintivo das pessoas com ela. A confiança sempre ficará atrás da inovação. Isso não é um argumento contra o progresso. É um argumento a favor da maturidade. Todos os líderes de IA deveriam perguntar se confiariam no sistema os seus próprios dados, se podem explicar a sua última decisão em linguagem simples e quem intervém quando algo corre mal. Se essas respostas não forem claras, a organização não está liderando a transformação. Está preparando um pedido de desculpas.

Roos diz de forma simples: “A IA agente não é a preocupação. A IA inexplicável é”.

Quando a confiança desaparece, a adoção desaparece, e o projeto que parecia transformador torna-se mais uma entrada na taxa de fracasso de 95%. A autonomia não é o inimigo. Esquecer quem é o responsável é. As organizações que mantêm uma mão humana no volante serão as que ainda estarão no controle quando o entusiasmo pela direção autônoma eventualmente desaparecer.

Fontesartificialintelligence

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *