A atualização mais recente das especificações do MCP fortalece a infraestrutura corporativa com segurança mais rígida, movendo os agentes de IA do piloto para a produção.

Marcando seu primeiro ano, o projeto de código aberto criado pela Anthropic lançou uma especificação revisada esta semana visando as dores de cabeça operacionais que mantêm os agentes generativos de IA presos no modo piloto. Apoiada pela Amazon Web Services (AWS), Microsoft e Google Cloud, a atualização adiciona suporte para fluxos de trabalho de longa duração e controles de segurança mais rígidos.

O mercado está a afastar-se de integrações frágeis e personalizadas. Para as empresas, esta é uma oportunidade de implementar IA de agente que possa ler e escrever em armazenamentos de dados corporativos sem incorrer em enormes dívidas técnicas.

MCP avança da ‘curiosidade do desenvolvedor’ para infraestrutura prática

A narrativa mudou de chatbots experimentais para integração estrutural. Desde Setembro, o registo expandiu-se em 407 por cento, albergando agora cerca de dois mil servidores.

“Um ano depois do lançamento do Model Context Protocol pela Anthropic, o MCP passou de uma curiosidade de desenvolvedor para uma maneira prática de conectar IA aos sistemas onde o trabalho e os dados residem”, disse Satyajith Mundakkal, CTO global da Hexaware, após esta última atualização de especificações.

A Microsoft já “sinalizou a mudança adicionando suporte MCP nativo ao Windows 11”, movendo efetivamente o padrão diretamente para a camada do sistema operacional.

Essa padronização de software chega junto com uma agressiva expansão de hardware. Mundakkal destaca a “construção de infraestrutura sem precedentes”, citando o programa ‘Stargate’ de vários gigawatts da OpenAI. “Estes são sinais claros de que as capacidades de IA, e os dados dos quais dependem, estão a crescer rapidamente”, diz ele.

MCP é o encanamento que alimenta esses enormes recursos de computação. Como diz Mundakkal: “A IA é tão boa quanto os dados que consegue alcançar com segurança”.

Até agora, conectar um LLM a um banco de dados era principalmente síncrono. Isso funciona para um chatbot que verifica o clima, mas falha ao migrar uma base de código ou analisar registros de saúde.

O novo recurso ‘Tarefas’ muda isso (SEP-1686). Ele oferece aos servidores uma maneira padrão de rastrear o trabalho, permitindo que os clientes pesquisem o status ou cancelem trabalhos se as coisas derem errado. As equipes de operações que automatizam a migração de infraestrutura precisam de agentes que possam funcionar por horas sem atingir o tempo limite. Apoiando estados como trabalhando ou entrada_requerida finalmente traz resiliência aos fluxos de trabalho dos agentes.

A atualização das especificações do MCP melhora a segurança

Especialmente para os CISOs, os agentes de IA muitas vezes parecem uma superfície de ataque massiva e descontrolada. Os riscos já são visíveis; “Os pesquisadores de segurança encontraram até aproximadamente 1.800 servidores MCP expostos na Internet pública em meados de 2025”, o que implica que a adoção da infraestrutura privada é significativamente mais ampla.

“Se for mal feito”, avisa Mundakkal, “(MCP) torna-se uma expansão da integração e uma superfície de ataque maior”.

Para resolver isso, os mantenedores enfrentaram o atrito do Registro Dinâmico de Cliente (DCR). A solução é o registro de cliente baseado em URL (SEP-991), onde os clientes fornecem um ID exclusivo apontando para um documento de metadados autogerenciado para reduzir o gargalo administrativo.

Depois, há a ‘Elicitação do Modo URL’ (SEP-1036). Ele permite que um servidor – que lida com pagamentos, por exemplo – direcione um usuário para uma janela segura do navegador para obter credenciais. O agente nunca vê a senha; apenas obtém o token. Ele mantém as credenciais principais isoladas, algo inegociável para conformidade com PCI.

Harish Peri, vice-presidente sênior da Okta, acredita que isso traz a “supervisão e controle de acesso necessários para construir um ecossistema de IA seguro e aberto”.

Um recurso como parte da atualização de especificações para a infraestrutura MCP passou despercebido: ‘Amostragem com ferramentas’ (SEP-1577). Os servidores costumavam ser buscadores passivos de dados; agora eles podem executar seus próprios loops usando os tokens do cliente. Imagine um “servidor de pesquisa” gerando subagentes para vasculhar documentos e sintetizar um relatório. Não é necessário nenhum código de cliente personalizado – ele simplesmente aproxima o raciocínio dos dados.

No entanto, a fiação dessas conexões é apenas o primeiro passo. Mayur Upadhyaya, CEO da APIContext, argumenta que “o primeiro ano de adoção do MCP mostrou que a IA empresarial não começa com reescritas, mas com exposição”.

Mas a visibilidade é o próximo obstáculo. “A próxima onda será sobre visibilidade: as empresas precisarão monitorar o tempo de atividade do MCP e validar os fluxos de autenticação com o mesmo rigor com que monitoram as APIs hoje”, explica Upadhyaya.

O roteiro do MCP reflete isso, com atualizações visando melhor “confiabilidade e observabilidade” para depuração. Se você trata os servidores MCP como “configure e esqueça”, você está procurando problemas. Mundakkal concorda, observando que a lição do primeiro ano é “associar o MCP com uma identidade forte, RBAC e observabilidade desde o primeiro dia”.

Linha de indústria repleta de estrelas adotando MCP para infraestrutura

Um protocolo é tão bom quanto quem o utiliza. Em um ano desde o lançamento da especificação original, o MCP atingiu quase dois mil servidores. A Microsoft está usando-o para unir GitHub, Azure e M365. A AWS está transformando isso em Bedrock. O Google Cloud oferece suporte para Gemini.

Isso reduz o aprisionamento do fornecedor. Um conector Postgres criado para MCP deveria, teoricamente, funcionar no Gemini, ChatGPT ou em um agente antrópico interno sem reescrever.

A fase de “encanamento” da IA ​​Generativa está a estabilizar e os padrões abertos estão a vencer o debate sobre a conectividade. Os líderes tecnológicos devem procurar auditar as APIs internas para verificar a prontidão do MCP – concentrando-se na exposição em vez de reescrever – e verificar se o novo registo baseado em URL se ajusta às atuais estruturas IAM.

Os protocolos de monitoramento também devem ser estabelecidos imediatamente. Embora a atualização mais recente das especificações do MCP seja compatível com versões anteriores da infraestrutura existente; os novos recursos são a única maneira de trazer os agentes para fluxos de trabalho regulamentados e relevantes para a missão e garantir a segurança.

Veja também: Avanço no aprendizado adversário permite segurança de IA em tempo real

Quer saber mais sobre IA e big data dos líderes do setor? Confira a AI & Big Data Expo que acontece em Amsterdã, Califórnia e Londres. O evento abrangente faz parte da TechEx e está localizado junto com outros eventos de tecnologia líderes, incluindo a Cyber ​​Security Expo. Clique aqui para mais informações.

AI News é desenvolvido pela TechForge Media. Explore outros eventos e webinars de tecnologia empresarial futuros aqui.

Fontesartificialintelligence

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *