A OpenAI está introduzindo a execução de sandbox que permite que as equipes de governança corporativa implantem fluxos de trabalho automatizados com risco controlado.

As equipes que levam sistemas desde o protótipo até a produção enfrentaram difíceis compromissos arquitetônicos em relação ao local onde suas operações ocorriam. O uso de estruturas independentes de modelo ofereceu flexibilidade inicial, mas não conseguiu utilizar plenamente as capacidades dos modelos de fronteira. Os SDKs do provedor de modelo permaneceram mais próximos do modelo subjacente, mas muitas vezes não tinham visibilidade suficiente do equipamento de controle.

Para complicar ainda mais a situação, as APIs de agentes gerenciados simplificaram o processo de implantação, mas restringiram severamente onde os sistemas poderiam ser executados e como eles acessavam dados corporativos confidenciais. Para resolver isso, a OpenAI está introduzindo novos recursos no Agents SDK, oferecendo aos desenvolvedores infraestrutura padronizada com um aproveitamento nativo do modelo e execução nativa de sandbox.

A infraestrutura atualizada alinha a execução com o padrão operacional natural dos modelos subjacentes, melhorando a confiabilidade quando as tarefas exigem coordenação entre diversos sistemas. A Oscar Health dá um exemplo dessa eficiência em relação aos dados não estruturados.

O prestador de cuidados de saúde testou a nova infraestrutura para automatizar um fluxo de trabalho de registos clínicos que as abordagens mais antigas não conseguiam gerir de forma fiável. A equipe de engenharia exigiu que o sistema automatizado extraísse metadados corretos e, ao mesmo tempo, entendesse corretamente os limites dos encontros dos pacientes em arquivos médicos complexos. Ao automatizar esse processo, o provedor poderia analisar os históricos dos pacientes com mais rapidez, agilizando a coordenação do atendimento e melhorando a experiência geral do membro.

Rachael Burns, engenheira de equipe e líder de tecnologia de IA da Oscar Health, disse: “O Agents SDK atualizado tornou viável a produção para automatizarmos um fluxo de trabalho de registros clínicos críticos que as abordagens anteriores não conseguiam lidar com confiabilidade suficiente.

“Para nós, a diferença não foi apenas extrair os metadados corretos, mas compreender corretamente os limites de cada encontro em registros longos e complexos. Como resultado, podemos entender mais rapidamente o que está acontecendo com cada paciente em uma determinada consulta, ajudando os membros com suas necessidades de cuidados e melhorando sua experiência conosco.”

OpenAI otimiza fluxos de trabalho de IA com um equipamento nativo do modelo

Para implantar esses sistemas, os engenheiros devem gerenciar a sincronização do banco de dados vetorial, controlar os riscos de alucinação e otimizar ciclos computacionais dispendiosos. Sem estruturas padrão, as equipes internas muitas vezes recorrem à construção de conectores personalizados frágeis para gerenciar esses fluxos de trabalho.

O novo equipamento nativo do modelo ajuda a aliviar esse atrito, introduzindo memória configurável, orquestração com reconhecimento de sandbox e ferramentas de sistema de arquivos semelhantes ao Codex. Os desenvolvedores podem integrar primitivas padronizadas, como uso de ferramentas via MCP, instruções personalizadas via AGENTS.md e edições de arquivos usando a ferramenta aplicar patch.

A divulgação progressiva por meio de habilidades e execução de código usando a ferramenta shell também permite que o sistema execute tarefas complexas sequencialmente. Essa padronização permite que as equipes de engenharia gastem menos tempo atualizando a infraestrutura principal e se concentrem na construção de lógica específica de domínio que beneficie diretamente os negócios.

A integração de um programa autônomo em uma pilha de tecnologia legada requer roteamento preciso. Quando um processo autônomo acessa dados não estruturados, ele depende fortemente de sistemas de recuperação para extrair o contexto relevante.

Para gerenciar a integração de diversas arquiteturas e limitar o escopo operacional, o SDK introduz uma abstração de Manifesto. Essa abstração padroniza como os desenvolvedores descrevem o espaço de trabalho, permitindo-lhes montar arquivos locais e definir diretórios de saída.

As equipes podem conectar esses ambientes diretamente aos principais provedores de armazenamento empresarial, incluindo AWS S3, Azure Blob Storage, Google Cloud Storage e Cloudflare R2. O estabelecimento de um espaço de trabalho previsível fornece ao modelo parâmetros exatos sobre onde localizar entradas, gravar saídas e manter a organização durante execuções operacionais estendidas.

Essa previsibilidade evita que o sistema consulte data lakes não filtrados, restringindo-os a janelas de contexto específicas e validadas. As equipes de governança de dados podem posteriormente rastrear a origem de cada decisão automatizada com maior precisão, desde as fases do protótipo local até a implantação da produção.

Aprimorando a segurança com execução nativa de sandbox

O SDK oferece suporte nativo à execução em sandbox, oferecendo uma camada pronta para uso para que os programas possam ser executados em ambientes de computador controlados contendo os arquivos e dependências necessários. As equipes de engenharia não precisam mais montar essa camada de execução manualmente. Eles podem implantar seus próprios sandboxes personalizados ou utilizar suporte integrado para provedores como Blaxel, Cloudflare, Daytona, E2B, Modal, Runloop e Vercel.

A mitigação de riscos continua sendo a principal preocupação para qualquer empresa que implemente execução autônoma de código. As equipes de segurança devem presumir que qualquer sistema que leia dados externos ou execute código gerado enfrentará ataques de injeção imediata e tentativas de exfiltração.

A OpenAI aborda esse requisito de segurança separando o chicote de controle da camada de computação. Essa separação isola as credenciais, mantendo-as totalmente fora dos ambientes onde o código gerado pelo modelo é executado. Ao isolar a camada de execução, um comando malicioso injetado não pode acessar o plano de controle central ou roubar chaves primárias de API, protegendo a rede corporativa mais ampla contra ataques de movimento lateral.

Essa separação também aborda questões de custo computacional relacionadas a falhas do sistema. Tarefas de longa execução geralmente falham no meio do caminho devido a tempos limite de rede, falhas de contêiner ou limites de API. Se um agente complexo executar vinte etapas para compilar um relatório financeiro e falhar na etapa dezenove, a reexecução de toda a sequência consumirá recursos computacionais caros.

Se o ambiente travar sob a nova arquitetura, perder o contêiner sandbox não significa perder toda a execução operacional. Como o estado do sistema permanece externalizado, o SDK utiliza captura instantânea e reidratação integradas. A infraestrutura pode restaurar o estado dentro de um novo contêiner e retomar exatamente a partir do último ponto de verificação se o ambiente original expirar ou falhar. Evitar a necessidade de reiniciar processos caros e de longa execução se traduz diretamente na redução dos gastos com computação em nuvem.

O dimensionamento dessas operações requer alocação dinâmica de recursos. A arquitetura separada permite que as execuções invoquem um ou vários sandboxes com base na carga atual, encaminhem subagentes específicos para ambientes isolados e paralelizem tarefas em vários contêineres para tempos de execução mais rápidos.

Esses novos recursos estão geralmente disponíveis para todos os clientes por meio da API, utilizando preços padrão baseados em tokens e uso de ferramentas sem exigir contratos de aquisição personalizados. Os novos recursos de aproveitamento e sandbox serão lançados primeiro para desenvolvedores Python, com suporte TypeScript previsto para uma versão futura.

A OpenAI planeja trazer recursos adicionais, incluindo modo de código e subagentes, para as bibliotecas Python e TypeScript. O fornecedor pretende expandir o ecossistema mais amplo ao longo do tempo, apoiando provedores de sandbox adicionais e oferecendo mais métodos para os desenvolvedores conectarem o SDK diretamente em seus sistemas internos existentes.

Veja também: Commvault lança um ‘Ctrl-Z’ para cargas de trabalho de IA em nuvem

Quer saber mais sobre IA e big data dos líderes do setor? Confira a AI & Big Data Expo que acontece em Amsterdã, Califórnia e Londres. O evento abrangente faz parte da TechEx e está localizado junto com outros eventos de tecnologia líderes, incluindo o Cyber ​​Security & Cloud Expo. Clique aqui para mais informações.

AI News é desenvolvido pela TechForge Media. Explore outros eventos e webinars de tecnologia empresarial futuros aqui.

Fontesartificialintelligence

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *