De acordo com Wiz, a corrida entre as empresas de IA está fazendo com que muitas negligenciem as práticas básicas de higiene de segurança.

65% das 50 principais empresas de IA analisadas pela empresa de segurança cibernética vazaram segredos verificados no GitHub. As exposições incluem chaves de API, tokens e credenciais confidenciais, muitas vezes enterradas em repositórios de código que as ferramentas de segurança padrão não verificam.

Glyn Morgan, gerente nacional de UK&I da Salt Security, descreveu essa tendência como um erro básico e evitável. “Quando as empresas de IA expõem acidentalmente suas chaves de API, elas revelam uma falha de segurança evidente e evitável”, disse ele.

“É o exemplo clássico de governança combinado com uma configuração de segurança, duas das categorias de risco sinalizadas pelo OWASP. Ao inserir credenciais em repositórios de código, eles entregam aos invasores um bilhete dourado para sistemas, dados e modelos, evitando efetivamente as camadas defensivas usuais.”

O relatório de Wiz destaca o risco cada vez mais complexo de segurança da cadeia de abastecimento. O problema vai além das equipes internas de desenvolvimento; à medida que as empresas fazem parcerias cada vez maiores com startups de IA, elas podem herdar a sua postura de segurança. Os pesquisadores alertam que alguns dos vazamentos encontrados “poderiam ter exposto estruturas organizacionais, dados de treinamento ou até mesmo modelos privados”.

Os riscos financeiros são consideráveis. As empresas analisadas com vazamentos verificados têm uma avaliação combinada de mais de US$ 400 bilhões.

O relatório, que se concentrou nas empresas listadas na Forbes AI 50, fornece exemplos dos riscos:

  • Descobriu-se que LangChain expôs várias chaves de API Langsmith, algumas com permissões para gerenciar a organização e listar seus membros. Este tipo de informação é altamente valorizado pelos invasores para reconhecimento.
  • Uma chave de API de nível empresarial para ElevenLabs foi descoberta em um arquivo de texto simples.
  • Uma empresa AI 50 não identificada teve um token HuggingFace exposto em uma bifurcação de código excluída. Este token único “permitiu acesso a cerca de 1 mil modelos privados”. A mesma empresa também vazou as chaves do WeightsAndBiases, expondo os “dados de treinamento para muitos modelos privados”.

O relatório da Wiz sugere que este problema é tão prevalente porque os métodos tradicionais de verificação de segurança não são mais suficientes. Depender de verificações básicas dos principais repositórios GitHub de uma empresa é uma “abordagem comoditizada” que ignora os riscos mais graves.

Os investigadores descrevem a situação como um “iceberg” (ou seja, os riscos mais óbvios são visíveis, mas o perigo maior reside “abaixo da superfície”.) Para encontrar estes riscos ocultos, os investigadores adoptaram uma metodologia de digitalização tridimensional que chamam de “Profundidade, Perímetro e Cobertura”:

  • Profundidade: Sua varredura profunda analisou o “histórico completo de commits, histórico de commits em bifurcações, bifurcações excluídas, logs de fluxo de trabalho e essências” – áreas que a maioria dos scanners “nunca toca”.
  • Perímetro: A varredura foi expandida para além da organização principal da empresa para incluir membros e colaboradores da organização. Esses indivíduos podem “checar inadvertidamente segredos relacionados à empresa em seus próprios repositórios públicos”. A equipe identificou essas contas adjacentes rastreando contribuidores de código, seguidores de organizações e até mesmo “correlações em redes relacionadas como HuggingFace e npm”.
  • Cobertura: Os pesquisadores procuraram especificamente novos tipos de segredos relacionados à IA que os scanners tradicionais muitas vezes não percebem, como chaves para plataformas como WeightsAndBiases, Groq e Perplexity.

Esta superfície de ataque expandida é particularmente preocupante dada a aparente falta de maturidade de segurança em muitas empresas em rápida evolução. O relatório observa que quando os investigadores tentaram divulgar as fugas, quase metade das divulgações não conseguiu atingir o objetivo ou não obteve resposta. Muitas empresas não tinham um canal oficial de divulgação ou simplesmente não conseguiram resolver o problema quando notificadas.

As descobertas de Wiz servem como um alerta para os executivos de tecnologia empresarial, destacando três itens de ação imediata para gerenciar riscos de segurança internos e de terceiros.

  1. Os líderes de segurança devem tratar os seus funcionários como parte da superfície de ataque da sua empresa. O relatório recomenda a criação de uma política de membros do Sistema de Controle de Versão (VCS) para ser aplicada durante a integração dos funcionários. Esta política deve exigir práticas como o uso de autenticação multifatorial para contas pessoais e a manutenção de uma separação estrita entre atividades pessoais e profissionais em plataformas como o GitHub.
  1. A verificação interna de segredos deve evoluir além das verificações básicas de repositório. O relatório insta as empresas a exigirem a verificação pública de segredos do VCS como uma “defesa inegociável”. Essa varredura deve adotar a mentalidade de “profundidade, perímetro e cobertura” mencionada acima para encontrar ameaças escondidas abaixo da superfície.
  1. Este nível de escrutínio deve ser alargado a toda a cadeia de abastecimento de IA. Ao avaliar ou integrar ferramentas de fornecedores de IA, os CISOs devem investigar as suas práticas de gestão de segredos e divulgação de vulnerabilidades. O relatório observa que muitos provedores de serviços de IA estão vazando suas próprias chaves de API e deveriam “priorizar a detecção de seus próprios tipos de segredos”.

A mensagem central para as empresas é que as ferramentas e plataformas que definem a próxima geração de tecnologia estão a ser construídas a um ritmo que muitas vezes ultrapassa a governação de segurança. Como conclui Wiz, “Para os inovadores em IA, a mensagem é clara: a velocidade não pode comprometer a segurança”. Para as empresas que dependem dessa inovação, aplica-se o mesmo aviso.

Veja também: Exclusivo: Chefe do Governo Digital de Dubai diz que a velocidade supera os gastos na corrida pela eficiência da IA

Quer saber mais sobre IA e big data dos líderes do setor? Confira a AI & Big Data Expo que acontece em Amsterdã, Califórnia e Londres. O evento abrangente faz parte da TechEx e está localizado junto com outros eventos de tecnologia líderes, incluindo a Cyber ​​Security Expo. Clique aqui para obter mais informações.

AI News é desenvolvido pela TechForge Media. Explore outros eventos e webinars de tecnologia empresarial futuros aqui.

Fontesartificialintelligence

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *