Em resumo
- A OpenAI está se juntando à Anthropic no bloqueio de sua IA cibernética mais poderosa, de acordo com um novo relatório.
- Os modelos e produtos fronteiriços parecem agora demasiado arriscados para serem divulgados publicamente.
- A IA de alto nível está mudando para acesso controlado somente por convite.
A OpenAI está atualmente construindo um produto de segurança cibernética que planeja lançar exclusivamente por meio de seu programa “Trusted Access for Cyber”, de acordo com a Axios. O programa foi anunciado anteriormente em fevereiro e pretende ser um lançamento controlado que mantenha certos produtos longe do público em geral e apenas nas mãos de operadores de segurança defensiva.
A OpenAI lançou o programa após lançar o GPT-5.3-Codex, atualmente sua oferta de segurança cibernética mais capaz, e está apoiando o acesso dos participantes com US$ 10 milhões em créditos de API.
A notícia surge em meio à crescente preocupação entre os especialistas em segurança cibernética sobre o potencial de produtos de IA cada vez mais poderosos que sobrecarregam os sistemas existentes. No início desta semana, a Anthropic se assustou com sua própria criação, Claude Mythos.
A Anthropic disse que o Mythos é o modelo de IA mais capaz da empresa e revelou-se tão eficaz na localização de vulnerabilidades de segurança – zero-days em todos os principais sistemas operacionais e navegadores – que decidiu que apenas um grupo escolhido de organizações deveria ter acesso a ele.
Agora a OpenAI está, supostamente, fazendo algo semelhante.
A Anthropic está atualmente travando uma batalha legal depois que o Pentágono a designou como um risco na cadeia de suprimentos, depois que a empresa se recusou a suspender as restrições de uso de Claude para vigilância e aplicações de armas autônomas. As agências federais têm examinado os protocolos de segurança das empresas de IA com intensidade crescente desde o início de abril.
Até o momento, a OpenAI não compartilhou nenhuma informação pública que confirme ou negue oficialmente os relatórios.
A razão para as restrições não é sutil. O Mythos Preview da Anthropic, que vazou antes de seu lançamento oficial, foi considerado capaz de identificar “dezenas de milhares de vulnerabilidades” que mesmo caçadores de bugs humanos avançados teriam dificuldade em localizar. O modelo é descrito como “extremamente autônomo” e baseia-se na sofisticação de um pesquisador sênior de segurança. Esse tipo de capacidade, disponível para qualquer pessoa com uma chave de API, é o tipo de coisa que mantém as equipes de segurança acordadas à noite.
A resposta da Anthropic foi o Projeto Glasswing – uma iniciativa de acesso controlado que oferece o Mythos Preview apenas para organizações avaliadas: Amazon Web Services, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorgan Chase, Linux Foundation, Microsoft, Nvidia, Palo Alto Networks e cerca de 40 outras envolvidas na manutenção de infraestrutura crítica.
A decisão da OpenAI de bloquear produtos como este parece uma tentativa de se antecipar a essa pressão regulatória. Ao restringir voluntariamente o acesso antes que uma agência governamental solicite, a OpenAI se posiciona como o ator responsável em um espaço onde a Antrópica está sendo atacada.
As restrições também refletem algo mais profundo do que cautela em relação a um modelo específico. O próprio relatório de segurança da Anthropic reconheceu que o Cybench, o benchmark usado para avaliar se uma IA representa um risco cibernético sério, “não é mais suficientemente informativo sobre as capacidades atuais do modelo de fronteira” – porque a Mythos o liberou completamente. A ferramenta construída para medir o perigo já não é adequada ao que está sendo construído. A Anthropic acrescentou que sua determinação geral de segurança “envolve julgamentos” e que muitas avaliações deixam “incertezas mais fundamentais”.
A Anthropic comprometeu até US$ 100 milhões em créditos de uso e US$ 4 milhões em doações diretas para organizações de segurança de código aberto como parte de seu lançamento. A OpenAI não anunciou um compromisso comparável ao seu programa de acesso, embora ambas as empresas estejam a enquadrar os seus programas restritos como um benefício líquido para a segurança defensiva – a ideia é que dar melhores ferramentas aos defensores antes que os atacantes as obtenham vale a pena a compensação de limitar o acesso geral.
O padrão emergente na indústria fronteiriça de IA é que os modelos mais capazes não chegarão mais como lançamentos amplos de produtos. Eles serão distribuídos mais como pesquisas confidenciais – seletivamente, mediante acordo, para organizações com infraestrutura e intenção de usá-los de forma responsável.
Resumo Diário Boletim informativo
Comece cada dia com as principais notícias do momento, além de recursos originais, podcast, vídeos e muito mais.
Fontedecrypt




