Antes da AI & Big Data Expo no San Jose McEnery Convention Center, de 18 a 19 de maio, conversamos com Jerome Gabryszewski, gerente de desenvolvimento de negócios de IA e ciência de dados da empresa, sobre IA, processamento de dados para ingestão de IA e computação local versus computação em nuvem.
A mídia tecnológica gosta de citar que os dados são “o novo petróleo”, mas a realidade no terreno é que, apesar de ter acesso a muita informação primária, aproveitá-la realmente em benefício do negócio pode revelar-se problemático, especialmente à escala empresarial.
Você deve escolher um modelo de IA hospedado na nuvem ou computação local? Como você coloca seu “data house” em ordem, para que os modelos inteligentes possam produzir resultados significativos? E, como sempre, gostamos de encorajar nossos entrevistados a nos ajudar a prever o próximo capítulo na história de rápida evolução da TI empresarial neste cenário empresarial dominado pela IA.
Notícias sobre inteligência artificial: passar da ingestão de dados manual para a automatizada parece ótimo em teoria, mas é notoriamente difícil. Onde a HP está vendo as empresas travarem agora?
Um dos pontos de fricção mais consistentes que vemos é que as organizações subestimam a dívida organizacional e arquitetónica por detrás dos seus dados. Antes que a automação possa ser implementada, eles precisam conciliar a propriedade fragmentada de dados entre departamentos, esquemas inconsistentes nos sistemas e infraestrutura legada que nunca foi projetada para interoperabilidade. O avanço técnico da automação é muitas vezes menor do que o trabalho de governança e integração que deve precedê-la.
Notícias sobre inteligência artificial: quando os modelos de IA começam a se atualizar continuamente, as coisas podem facilmente dar errado. Como você está aconselhando os clientes a lidar com riscos como desvio de conceito e envenenamento de dados?
A aprendizagem contínua é onde a IA passa de um projeto a um passivo se não for governada com cuidado. O que aconselhamos aos clientes é tratar as atualizações de modelo da mesma forma que tratam as implantações de código. Nada vai para produção sem uma porta de validação. Para desvio de conceito, isso significa pipelines MLOps com detecção automatizada de desvio e gatilhos humanos antes do início do novo treinamento. Para envenenamento de dados, é um problema de proveniência de dados tanto quanto um problema de segurança. É fundamental saber exatamente de onde vêm seus dados de treinamento e quem pode acessá-los. Os clientes que acertam não são necessariamente os mais sofisticados tecnicamente; São aqueles que incorporaram a governança de IA em suas estruturas de risco antes de escalarem.
Notícias sobre inteligência artificial: Quero abordar as raízes do hardware da HP. Qual é realmente a aparência de uma estação de trabalho moderna ou configuração de computação hoje para lidar com o peso de um ciclo de vida de IA autônomo?
As raízes da HP aqui realmente importam. A série Z foi desenvolvida especificamente para a computação profissional mais exigente há mais de 15 anos, então quando falamos sobre o que um ciclo de vida de IA autônomo realmente exige do hardware, não estamos adivinhando, estamos repetindo esse problema há mais tempo do que a maioria!
A resposta não é uma máquina única, é um espectro. No nível do desenvolvedor individual, você precisa de uma computação local poderosa o suficiente para executar experimentos reais sem depender da nuvem em cada iteração. A ZBook Ultra e a Z2 Mini lidam com máquinas de nível profissional, móveis e compactas, capazes de executar LLMs locais e fluxos de trabalho pesados simultaneamente.
O ZGX Nano é onde as coisas ficam realmente interessantes para as equipes que priorizam a IA. É um supercomputador de IA que cabe na palma da sua mão (15x15cm), mas é equipado com o superchip NVIDIA GB10 Grace Blackwell com 128 GB de memória unificada e 1.000 TOPS de desempenho de IA FP4. Uma única unidade lida com modelos de até 200 bilhões de parâmetros localmente. E quando uma equipe precisa ir além disso, você conecta duas unidades por meio de interconexão de alta velocidade e trabalha com modelos de até 405 bilhões de parâmetros… sem nuvem, sem data center, sem fila. Ele vem pré-configurado com a pilha de software NVIDIA DGX e o kit de ferramentas HP ZGX, para que as equipes passem da configuração ao primeiro fluxo de trabalho em minutos, não em dias.
Avançando, o Z8 Fury oferece às equipes de usuários avançados até quatro GPUs NVIDIA RTX PRO 6000 Blackwell em um único sistema (384 GB VRAM): esse é o ciclo completo de desenvolvimento do modelo executado no local. E na fronteira, o ZGX Fury muda totalmente a conversa. Equipado com o superchip NVIDIA GB300 Grace Blackwell Ultra com 748 GB de memória coerente, ele oferece inferência de trilhões de parâmetros na mesa, não no data center. Para equipes que executam ajustes e inferências contínuas em dados confidenciais, o retorno normalmente se paga em 8 a 12 meses, em comparação com a computação em nuvem equivalente.
E para organizações que precisam agrupar e escalar ainda mais, todo o portfólio Z foi projetado com formatos prontos para rack que cabem em ambientes de TI gerenciados sem comprometer a segurança ou a residência dos dados.
O ponto principal é este; o ciclo de vida autônomo da IA cria um problema de governança e latência, não um problema de computação. As equipes não podem continuar enviando dados de treinamento confidenciais para a nuvem sempre que um modelo precisa ser atualizado. O portfólio da HP oferece às organizações um caminho de hardware que se adapta à maturidade do seu fluxo de trabalho, desde a mesa do desenvolvedor até a computação distribuída no local. O hardware finalmente corresponde à ambição do que esses sistemas de IA realmente precisam fazer.
Notícias sobre inteligência artificial: Os custos de computação da geração AI estão aumentando para muitas empresas. Qual é a solução prática para equilibrar essas despesas enormes com a eficiência da nuvem moderna?
O problema dos custos é estrutural e não cíclico. Os gastos da Enterprise GenAI aumentaram para US$ 37 bilhões em 2025, e 80% das empresas ainda perderam suas previsões de custos em mais de 25%. A tensão central é que os custos unitários de inferência estão, na verdade, caindo, mas o gasto total continua aumentando porque o uso está crescendo mais rápido do que a queda dos custos. O modelo de API em nuvem foi projetado para cargas de trabalho experimentais e de baixo volume. Nunca foi construído para ser o motor económico para a produção de IA em grande escala.
A solução prática é um problema de disciplina antes de ser um problema de infraestrutura: estabeleça uma linha rígida entre o trabalho exploratório e as cargas de trabalho de produção e nunca use o mesmo modelo de computação para ambos. O trabalho iterativo inicial – prototipagem, ajuste fino, avaliação de modelo – deve ser executado em hardware local como o ZGX Nano ou Z8 Fury, onde você gasta capital uma vez, em vez de queimar o orçamento operacional em experimentos sem um caminho de ROI claro.
As organizações que acertam estão executando um modelo de três níveis: nuvem para treinamento intermitente e acesso de modelo de fronteira que você realmente conquistou, infraestrutura HP Z local para inferência previsível de alto volume e computação de borda onde a latência é crítica. Análises independentes mostram que o ambiente local pode oferecer uma vantagem de custo de até 18 vezes por milhão de tokens em um ciclo de vida de cinco anos. O enquadramento que usamos com os clientes é simples: a nuvem é para a escala que você conquistou, não para a escala que você espera.”
Notícias sobre Inteligência Artificial: Todo mundo quer que seus dados proprietários estejam “prontos para IA”. Como as empresas conseguem isso sem expor informações confidenciais ou isoladas?
O erro que a maioria das empresas comete é tratar os “dados prontos para IA” como um problema de engenharia de dados, quando na verdade é um problema de soberania de dados e requer soluções diferentes. O envio de dados proprietários para um modelo de nuvem para processamento não é apenas um risco de exposição, é uma falha de governança prestes a acontecer, especialmente em setores regulamentados, onde até mesmo o ato de transmitir dados externamente pode desencadear violações de conformidade.
A arquitetura que resolve isso é a Geração Aumentada de Recuperação (RAG) executada em infraestrutura local, que permite que um modelo recupere contexto relevante de sua base de conhecimento interna no momento da consulta, sem nunca treiná-lo ou expô-lo externamente. Seus dados proprietários permanecem no local, dentro do hardware que você controla. Por exemplo, um ZGX Nano ou Z8 Fury executando um modelo hospedado localmente pode alimentar um pipeline RAG completo contra documentos internos confidenciais, sem que nenhum dado saia do edifício e nenhum gasto de token seja enviado a terceiros.
A camada de controle de acesso é onde isso se torna operacionalmente sério; um sistema RAG bem arquitetado impõe permissões baseadas em funções no nível de recuperação, de modo que a IA mostra apenas o que um determinado funcionário tem direito de ver, da mesma forma que seu sistema de gerenciamento de documentos faz. A combinação de computação local, modelo local, recuperação local e acesso governado é o que realmente torna os dados proprietários prontos para IA sem exposição.
As empresas que acertam isso não estão enviando suas joias da coroa para a nuvem para serem processadas; eles estão trazendo inteligência para os dados, e não o contrário.
Notícias sobre Inteligência Artificial: Se combinarmos IA autônoma com essas plataformas modernas em nuvem, o que acontecerá com o papel diário de uma equipe de TI corporativa nos próximos anos?
Acho que Jensen Huang expôs melhor esse conceito. Ele disse que nosso trabalho não é mexer em uma planilha ou digitar em um teclado, que nosso trabalho geralmente é mais significativo do que isso. E ele traçou uma distinção nítida entre a tarefa de um trabalho e seu propósito. Em TI, por exemplo, a tarefa pode ser provisionar servidores ou fazer triagem de incidentes, mas o objetivo é manter o negócio resiliente e avançando. Essa distinção é exatamente o que está acontecendo agora.
A Gartner prevê que 40% das aplicações empresariais terão agentes de IA incorporados até ao final de 2026, contra menos de 5% há apenas um ano, o que significa que a camada de execução rotineira da TI está a ser absorvida rapidamente, mas a camada de governação e arquitetura está a expandir-se com a mesma rapidez. O que já está acontecendo nas principais organizações é uma mudança das equipes de TI que executam tarefas para projetar e governar os agentes que executam em seu nome.
A lacuna importante é que apenas uma em cada cinco empresas ainda possui um modelo de governação maduro para isso. É aqui que a infraestrutura local volta a ser importante. Quando sua camada de automação é executada em hardware que você controla, você tem total observabilidade do comportamento do agente que simplesmente não tem quando essas cargas de trabalho são abstraídas na nuvem. A equipe de TI dos próximos dois anos não será a equipe que mantém as luzes acesas. Serão as equipes que decidirão quais agentes serão responsáveis por quais decisões e garantirão que a infraestrutura subjacente a esse julgamento seja algo que a empresa possa realmente apoiar.
(Fonte da imagem: Pixabay, licença.)
Quer saber mais sobre IA e big data dos líderes do setor? Confira a AI & Big Data Expo AI & Big Data Expo que acontece em Amsterdã, Califórnia e Londres. Este evento abrangente faz parte da TechEx e é realizado junto com outros eventos de tecnologia líderes. Clique aqui para mais informações.
AI News é desenvolvido pela TechForge Media. Explore outros eventos e webinars de tecnologia empresarial futuros aqui.
Fontesartificialintelligence



