O dimensionamento da IA ​​empresarial exige a superação de descuidos arquitetônicos que muitas vezes paralisam os pilotos antes da produção, um desafio que vai muito além da seleção de modelos. Embora os protótipos generativos de IA sejam fáceis de criar, transformá-los em ativos de negócios confiáveis ​​envolve resolver os difíceis problemas de engenharia e governança de dados.

Antes do AI & Big Data Global 2026 em Londres, Franny Hsiao, líder EMEA de arquitetos de IA na Salesforce, discutiu por que tantas iniciativas falharam e como as organizações podem arquitetar sistemas que realmente sobrevivam ao mundo real.

O problema da ‘ilha intocada’ de escalar a IA empresarial

A maioria das falhas provém do ambiente em que a IA é construída. Os pilotos frequentemente começam em ambientes controlados que criam uma falsa sensação de segurança, apenas para desmoronarem quando confrontados com a escala empresarial.

“O descuido arquitetônico mais comum que impede o dimensionamento dos pilotos de IA é a falha em arquitetar uma infraestrutura de dados de nível de produção com governança integrada de ponta a ponta desde o início”, explica Hsiao.

“Compreensivelmente, os pilotos muitas vezes começam em ‘ilhas imaculadas’ – usando conjuntos de dados pequenos e selecionados e fluxos de trabalho simplificados. Mas isso ignora a realidade confusa dos dados empresariais: a complexa integração, normalização e transformação necessárias para lidar com o volume e a variabilidade do mundo real.”

Quando as empresas tentam escalar estes projetos-piloto baseados em ilhas sem abordar a confusão de dados subjacente, os sistemas quebram. Hsiao alerta que “as lacunas de dados resultantes e os problemas de desempenho, como a latência de inferência, tornam os sistemas de IA inutilizáveis ​​– e, mais importante, indignos de confiança”.

Hsiao argumenta que as empresas que conseguem colmatar esta lacuna são aquelas que “incorporam observabilidade e proteções de ponta a ponta em todo o ciclo de vida”. Esta abordagem fornece “visibilidade e controle sobre a eficácia dos sistemas de IA e como os usuários estão adotando a nova tecnologia”.

Engenharia para capacidade de resposta percebida

À medida que as empresas implementam grandes modelos de raciocínio – como o ‘Atlas Reasoning Engine’ – enfrentam um compromisso entre a profundidade do “pensamento” do modelo e a paciência do utilizador. A computação pesada cria latência.

A Salesforce aborda isso concentrando-se na “capacidade de resposta percebida por meio do Agentforce Streaming”, de acordo com Hsiao.

“Isso nos permite fornecer respostas geradas por IA de forma progressiva, mesmo enquanto o mecanismo de raciocínio executa cálculos pesados ​​em segundo plano. É uma abordagem incrivelmente eficaz para reduzir a latência percebida, que muitas vezes paralisa a IA de produção.”

A transparência também desempenha um papel funcional no gerenciamento das expectativas dos usuários ao dimensionar a IA corporativa. Hsiao explica o uso do design como um mecanismo de confiança: “Ao trazer à tona indicadores de progresso que mostram as etapas de raciocínio ou as ferramentas usadas, bem como imagens como botões giratórios e barras de progresso para representar estados de carregamento, não apenas mantemos os usuários engajados; melhoramos a capacidade de resposta percebida e construímos confiança.

“Essa visibilidade, combinada com a seleção estratégica de modelos – como a escolha de modelos menores para menos cálculos, o que significa tempos de resposta mais rápidos – e restrições de comprimento explícitas, garantem que o sistema pareça deliberado e responsivo.”

Inteligência offline no limite

Para setores com operações de campo, como serviços públicos ou logística, a dependência da conectividade contínua na nuvem é um fracasso. “Para muitos de nossos clientes empresariais, o maior motivador prático é a funcionalidade off-line”, afirma Hsiao.

Hsiao destaca a mudança em direção à inteligência no dispositivo, especialmente em serviços de campo, onde o fluxo de trabalho deve continuar independentemente da intensidade do sinal.

“Um técnico pode fotografar uma peça defeituosa, um código de erro ou um número de série enquanto estiver off-line. Em seguida, um LLM no dispositivo pode identificar o ativo ou o erro e fornecer instantaneamente etapas de solução de problemas guiadas a partir de uma base de conhecimento armazenada em cache”, explica Hsiao.

A sincronização de dados acontece automaticamente quando a conectividade retorna. “Depois que a conexão é restaurada, o sistema lida com o ‘trabalho pesado’ de sincronizar esses dados de volta à nuvem para manter uma única fonte de verdade. Isso garante que o trabalho seja realizado, mesmo nos ambientes mais desconectados.”

Hsiao espera inovação contínua em IA de ponta devido a benefícios como “latência ultrabaixa, maior privacidade e segurança de dados, eficiência energética e economia de custos”.

Portais de alto risco

Agentes autônomos não são ferramentas do tipo “configure e esqueça”. Ao dimensionar implantações empresariais de IA, a governança exige definir exatamente quando um ser humano deve verificar uma ação. Hsiao descreve isso não como dependência, mas como “arquitetar para responsabilidade e aprendizagem contínua”.

A Salesforce exige um “human-in-the-loop” para áreas específicas que Hsiao chama de “gateways de alto risco”:

“Isso inclui categorias de ação específicas, incluindo quaisquer ações ‘CUD’ (criação, upload ou exclusão), bem como ações verificadas de contato e contato com o cliente”, diz Hsiao. “Também utilizamos a confirmação humana para tomadas de decisão críticas ou qualquer ação que possa ser potencialmente explorada por meio de manipulação imediata.”

Esta estrutura cria um ciclo de feedback onde “os agentes aprendem com a experiência humana”, criando um sistema de “inteligência colaborativa” em vez de automação não controlada.

Confiar em um agente exige ver seu trabalho. A Salesforce construiu um “Modelo de dados de rastreamento de sessão (STDM)” para fornecer essa visibilidade. Ele captura “registros passo a passo” que oferecem uma visão granular da lógica do agente.

“Isso nos dá uma visibilidade granular passo a passo que captura cada interação, incluindo perguntas do usuário, etapas do planejador, chamadas de ferramentas, entradas/saídas, partes recuperadas, respostas, tempo e erros”, diz Hsiao.

Esses dados permitem que as organizações executem ‘Agent Analytics’ para métricas de adoção, ‘Agent Optimization’ para detalhar o desempenho e ‘Health Monitoring’ para monitoramento de tempo de atividade e latência.

“A observabilidade do Agentforce é o controle de missão único para todos os seus agentes do Agentforce para visibilidade, monitoramento e otimização unificados”, resume Hsiao.

Padronizando a comunicação do agente

À medida que as empresas implantam agentes de diferentes fornecedores, esses sistemas precisam de um protocolo compartilhado para colaborar. “Para que a orquestração multiagente funcione, os agentes não podem existir no vácuo; eles precisam de uma linguagem comum”, argumenta Hsiao.

Hsiao descreve duas camadas de padronização: orquestração e significado. Para orquestração, a Salesforce está adotando padrões de código aberto como MCP (Model Context Protocol) e A2A (Agent to Agent Protocol).

“Acreditamos que os padrões de código aberto não são negociáveis; eles evitam a dependência de fornecedores, permitem a interoperabilidade e aceleram a inovação.”

No entanto, a comunicação é inútil se os agentes interpretarem os dados de forma diferente. Para resolver problemas de dados fragmentados, a Salesforce cofundou a OSI (Open Semantic Interchange) para unificar a semântica para que um agente em um sistema “compreenda verdadeiramente a intenção de um agente em outro”.

O futuro gargalo de escalabilidade da IA ​​empresarial: dados prontos para agentes

Olhando para o futuro, o desafio passará da capacidade do modelo para a acessibilidade dos dados. Muitas organizações ainda lutam com infraestruturas legadas e fragmentadas, onde a “pesquisabilidade e a reutilização” permanecem difíceis.

Hsiao prevê que o próximo grande obstáculo – e solução – será tornar os dados corporativos “’prontos para agentes’ por meio de arquiteturas pesquisáveis ​​e sensíveis ao contexto que substituam os tradicionais e rígidos pipelines de ETL”. Essa mudança é necessária para permitir “uma experiência de usuário hiperpersonalizada e transformada, porque os agentes sempre podem acessar o contexto certo”.

“Em última análise, o próximo ano não se trata de uma corrida por modelos maiores e mais novos; trata-se de construir a orquestração e a infraestrutura de dados que permitam que os sistemas de agentes de nível de produção prosperem”, conclui Hsiao.

Salesforce é um dos principais patrocinadores do evento deste ano IA e Big Data globais em Londres e contará com diversos palestrantes, incluindo Franny Hsiao, compartilhando suas ideias durante o evento. Não deixe de passar pelo estande da Salesforce no estande nº 163 para saber mais dos especialistas da empresa.

Veja também: Databricks: a adoção de IA empresarial muda para sistemas de agente

Quer saber mais sobre IA e big data dos líderes do setor? Confira a AI & Big Data Expo que acontece em Amsterdã, Califórnia e Londres. O evento abrangente faz parte da TechEx e está localizado junto com outros eventos de tecnologia líderes, incluindo o Cyber ​​Security & Cloud Expo. Clique aqui para mais informações.

AI News é desenvolvido pela TechForge Media. Explore outros eventos e webinars de tecnologia empresarial futuros aqui.

Fontesartificialintelligence

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *