Em resumo
- Autoridades dos EUA alertaram os principais bancos sobre os riscos de segurança cibernética vinculados ao modelo Mythos AI da Anthropic, Bloomberg relatórios.
- O sistema pode identificar e explorar vulnerabilidades em sistemas operacionais e navegadores.
- A Anthropic tem acesso limitado ao modelo enquanto avalia potenciais riscos de segurança.
O secretário do Tesouro dos EUA, Scott Bessent, e o presidente do Federal Reserve, Jerome Powell, supostamente convocaram uma reunião com CEOs de bancos de Wall Street no início desta semana para alertar sobre os riscos de segurança cibernética vinculados a um novo modelo de inteligência artificial da Anthropic.
De acordo com um relatório de Bloomberga reunião incluiu executivos do Citigroup, Bank of America, Wells Fargo, Morgan Stanley e Goldman Sachs. As autoridades discutiram o novo modelo de IA da Anthropic, Mythos, que recentemente gerou ampla preocupação sobre suas aparentes capacidades avançadas de segurança cibernética.
As autoridades convocaram a reunião para garantir que os bancos compreendem os riscos representados por sistemas capazes de identificar e explorar vulnerabilidades de software em sistemas operativos e navegadores web, e para encorajar as instituições a reforçarem as defesas contra potenciais ataques cibernéticos assistidos por IA que visam infra-estruturas financeiras.
Pesquisadores de segurança alertaram que ferramentas capazes de descobrir vulnerabilidades automaticamente poderiam acelerar tanto o trabalho de segurança defensiva quanto o hacking malicioso, se utilizadas indevidamente.
O modelo Mythos da Anthropic apareceu online pela primeira vez em março, depois que materiais preliminares sobre o sistema vazaram online, revelando o que a empresa descreveu como seu modelo de IA mais capaz até então. Nos testes, o sistema encontrou milhares de vulnerabilidades de software até então desconhecidas, incluindo falhas de dia zero nos principais sistemas operacionais e navegadores da web.
Pesquisadores antrópicos disseram em um relatório no início desta semana que as capacidades de descoberta de vulnerabilidades do Mythos Preview não foram treinadas intencionalmente, mas em vez disso surgiram de melhorias mais amplas na codificação, raciocínio e autonomia do modelo.
“As mesmas melhorias que tornam o modelo substancialmente mais eficaz na correção de vulnerabilidades também o tornam substancialmente mais eficaz na exploração delas”, escreveu a empresa.
Devido a essas capacidades, a Anthropic restringiu o acesso a um pequeno grupo de organizações de segurança cibernética.
“Dada a força de suas capacidades, estamos sendo deliberados sobre como o lançaremos”, disse a Anthropic em comunicado. “Como é prática padrão em todo o setor, estamos trabalhando com um pequeno grupo de clientes de acesso antecipado para testar o modelo. Consideramos este modelo uma mudança radical e o mais capaz que construímos até hoje.”
Para enfrentar esse risco, a Anthropic está testando o Mythos por meio do Projeto Glasswing, uma colaboração com grandes empresas de tecnologia e segurança cibernética que usa o modelo para identificar e corrigir vulnerabilidades em softwares críticos antes que os invasores possam explorá-los.
“O Projeto Glasswing é um ponto de partida. Nenhuma organização pode resolver esses problemas de segurança cibernética sozinha”, afirmou a empresa em comunicado. “Desenvolvedores de IA de fronteira, outras empresas de software, pesquisadores de segurança, mantenedores de código aberto e governos em todo o mundo têm papéis essenciais a desempenhar.”
A Antrópica não respondeu imediatamente Descriptografar pedido de comentário.
Resumo Diário Boletim informativo
Comece cada dia com as principais notícias do momento, além de recursos originais, podcast, vídeos e muito mais.
Fontedecrypt




