De acordo com a AWS no re:Invent 2025 desta semana, o ciclo de hype do chatbot está efetivamente morto, com agentes de IA de fronteira tomando seu lugar.
Essa é a mensagem contundente que irradia de Las Vegas esta semana. A obsessão da indústria com interfaces de chat foi substituída por um mandato muito mais exigente: “agentes de fronteira” que não apenas falam, mas trabalham de forma autónoma durante dias seguidos.
Estamos saindo da fase de novidade da IA generativa para uma era opressiva de economia de infraestrutura e encanamento operacional. O fator “uau” de um bot que escreve poemas desapareceu; agora, chega a hora de verificar a infraestrutura necessária para operar esses sistemas em escala.
Enfrentando a crise do encanamento no AWS re:Invent 2025
Até recentemente, construir agentes de IA de ponta capazes de executar tarefas complexas e não determinísticas era um pesadelo de engenharia personalizado. Os primeiros usuários têm queimado recursos reunindo ferramentas para gerenciar contexto, memória e segurança.
A AWS está tentando eliminar essa complexidade com o Amazon Bedrock AgentCore. É um serviço gerenciado que atua como um sistema operacional para agentes, cuidando do trabalho de back-end de gerenciamento de estado e recuperação de contexto. Os ganhos de eficiência decorrentes da padronização desta camada são difíceis de ignorar.
Pegue o MongoDB. Ao abandonar sua infraestrutura caseira para o AgentCore, eles consolidaram seu conjunto de ferramentas e colocaram um aplicativo baseado em agente em produção em oito semanas – um processo que anteriormente consumia meses de avaliação e manutenção. O PGA TOUR obteve retornos ainda maiores, usando a plataforma para construir um sistema de geração de conteúdo que aumentou a velocidade de gravação em 1.000% e reduziu os custos em 95%.
As equipes de software também estão recebendo sua própria força de trabalho dedicada. No re:Invent 2025, a AWS lançou três agentes de IA de fronteira específicos: Kiro (um desenvolvedor virtual), um agente de segurança e um agente DevOps. Kiro não é apenas uma ferramenta de conclusão de código; ele se conecta diretamente a fluxos de trabalho com “poderes” (integrações especializadas para ferramentas como Datadog, Figma e Stripe) que permitem agir com contexto em vez de apenas adivinhar a sintaxe.
Agentes executados por dias consomem grandes quantidades de computação. Se você estiver pagando taxas sob demanda padrão por isso, seu ROI evaporará.
A AWS sabe disso, e é por isso que os anúncios de hardware deste ano são agressivos. Os novos Trainium3 UltraServers, equipados com chips de 3 nm, apresentam um salto de 4,4x no desempenho computacional em relação à geração anterior. Para as organizações que treinam modelos básicos massivos, isso reduz os prazos de treinamento de meses para semanas.
Mas a mudança mais interessante é onde reside esse cálculo. A soberania dos dados continua a ser uma dor de cabeça para as empresas globais, muitas vezes bloqueando a adoção da nuvem para cargas de trabalho sensíveis de IA. A AWS está combatendo isso com ‘fábricas de IA’ (essencialmente enviando racks de chips Trainium e GPUs NVIDIA diretamente para os data centers existentes dos clientes). É um jogo híbrido que reconhece uma verdade simples: para alguns dados, a nuvem pública ainda está muito distante.
Enfrentando a montanha do legado
A inovação como a que estamos vendo com agentes de IA de ponta é ótima, mas a maioria dos orçamentos de TI está estrangulada por dívidas técnicas. As equipes gastam cerca de 30% do seu tempo apenas mantendo as luzes acesas.
Durante o re:Invent 2025, a Amazon atualizou o AWS Transform para atacar isso especificamente; usando IA de agência para lidar com o trabalho pesado de atualização do código legado. O serviço agora pode lidar com a modernização completa do Windows; incluindo atualização de aplicativos .NET e bancos de dados SQL Server.
A Air Canada usou isso para modernizar milhares de funções Lambda. Eles terminaram em dias. Fazer isso manualmente custaria cinco vezes mais e levaria semanas.
Para desenvolvedores que realmente desejam escrever código, o ecossistema está se ampliando. O SDK do Strands Agents, anteriormente exclusivo para Python, agora oferece suporte a TypeScript. Como língua franca da web, traz segurança de tipo para a produção caótica dos LLMs e é uma evolução necessária.
Governança sensata na era dos agentes fronteiriços de IA
Há um perigo aqui. Um agente que trabalha de forma autônoma por “dias sem intervenção” também é um agente que pode destruir um banco de dados ou vazar PII sem que ninguém perceba, até que seja tarde demais.
A AWS está tentando envolver esse risco na ‘Política AgentCore’, um recurso que permite às equipes definir limites de linguagem natural sobre o que um agente pode ou não fazer. Juntamente com ‘Avaliações’, que usam métricas pré-construídas para monitorar o desempenho do agente, fornece uma rede de segurança muito necessária.
As equipes de segurança também ganham impulso com atualizações do Security Hub, que agora correlaciona sinais do GuardDuty, Inspector e Macie em “eventos” únicos, em vez de inundar o painel com alertas isolados. O próprio GuardDuty está se expandindo, usando ML para detectar padrões complexos de ameaças em clusters EC2 e ECS.
Já ultrapassamos claramente o ponto dos programas piloto. As ferramentas anunciadas no AWS re:Invent 2025, desde silício especializado até estruturas governadas para agentes de IA de ponta, são projetadas para produção. A questão para os líderes empresariais não é mais “o que a IA pode fazer?” mas “podemos ter recursos para a infra-estrutura que lhe permita fazer o seu trabalho?”
Veja também: IA na manufatura preparada para desencadear uma nova era de lucro
Quer saber mais sobre IA e big data dos líderes do setor? Confira a AI & Big Data Expo que acontece em Amsterdã, Califórnia e Londres. O evento abrangente faz parte da TechEx e está localizado junto com outros eventos de tecnologia líderes, incluindo a Cyber Security Expo. Clique aqui para mais informações.
AI News é desenvolvido pela TechForge Media. Explore outros eventos e webinars de tecnologia empresarial futuros aqui.
Fontesartificialintelligence



