No elegante escritório de Cingapura do Google no Bloco 80, Nível 3, Mark Johnston ficou diante de uma sala de jornalistas de tecnologia às 13:30 com uma admissão surpreendente: após cinco décadas de evolução da segurança cibernética, os defensores ainda estão perdendo a guerra. “Em 69% dos incidentes no Japão e na Ásia -Pacífico, as organizações foram notificadas de suas próprias violações por entidades externas”, revelou o diretor do escritório do CISO do Google Cloud para a Ásia -Pacífico, seu slide de apresentação mostrando uma estatística condenatória – a maioria das empresas não consegue detectar quando foi violada.
O que se desenrolou durante a mesa redonda de “segurança cibernética na era da IA” de uma hora foi uma avaliação honesta de como as tecnologias do Google Cloud AI estão tentando reverter décadas de falhas defensivas, mesmo quando as mesmas ferramentas de inteligência artificial capacitam os atacantes com capacidades sem precedentes.
O contexto histórico: 50 anos de falha defensiva
A crise não é nova. Johnston traçou o problema de volta ao pioneiro em segurança cibernética, James B. Anderson, observação de 1972 de que “os sistemas que usamos realmente não se protegem” – um desafio que persistiu, apesar das décadas de avanço tecnológico. “O que James B Anderson disse em 1972 ainda se aplica hoje”, disse Johnston, destacando como os problemas de segurança fundamentais permanecem não resolvidos, mesmo à medida que a tecnologia evolui.
A persistência das vulnerabilidades básicas agrava esse desafio. Os dados de inteligência de ameaças do Google Cloud revelam que “mais de 76% das violações começam com o básico” – erros de configuração e compromissos de credenciais que atormentam as organizações há décadas. Johnston citou um exemplo recente: “No mês passado, um produto muito comum que a maioria das organizações usou em algum momento, o Microsoft SharePoint, também tem o que chamamos de vulnerabilidade de dias zero … e durante esse período foi atacado de forma contínua e abusada”.
A RACE ARMICA DA AI: Defensores vs. atacantes
Kevin Curran, membro sênior da IEEE e professor de segurança cibernética da Universidade de Ulster, descreve o cenário atual como “uma corrida armamentista de alto risco”, onde equipes de segurança cibernética e atores de ameaças empregam ferramentas de IA para se superar. “Para os defensores, a IA é um ativo valioso”, explica Curran em uma nota de mídia. “As empresas implementaram IA generativa e outras ferramentas de automação para analisar grandes quantidades de dados em tempo real e identificar anomalias”.
No entanto, as mesmas tecnologias beneficiam os atacantes. “Para atores de ameaças, a IA pode otimizar ataques de phishing, automatizar a criação de malware e ajudar a digitalizar as redes de vulnerabilidades”, adverte Curran. A natureza de uso duplo da AI cria o que Johnston chama de “o dilema do zagueiro”.
As iniciativas do Google Cloud AI visam inclinar essas escalas em favor dos defensores. Johnston argumentou que “a IA oferece a melhor oportunidade para elevar o dilema do zagueiro e inclinar as escalas do ciberespaço para dar aos defensores uma vantagem decisiva sobre os atacantes”. A abordagem da empresa se concentra no que eles chamam de “inúmeros casos de uso para IA generativa em defesa”, abrangendo descoberta de vulnerabilidades, inteligência de ameaças, geração de código seguro e resposta a incidentes.
Big Sleep do Projeto Zero: Ai encontrando o que os humanos sentem falta
Um dos exemplos mais atraentes do Google de defesa movida a IA é a iniciativa “Big Sleep” do Project Zero, que usa grandes modelos de linguagem para identificar vulnerabilidades no código do mundo real. Johnston compartilhou métricas impressionantes: “O Big Sleep encontrou uma vulnerabilidade em uma biblioteca de código aberto usando ferramentas generativas de IA – a primeira vez que acreditamos que uma vulnerabilidade foi encontrada por um serviço de IA”.
A evolução do programa demonstra as crescentes capacidades da IA. “No mês passado, anunciamos que encontramos mais de 20 vulnerabilidades em diferentes pacotes”, observou Johnston. “Mas hoje, quando olhei para o grande painel do sono, encontrei 47 vulnerabilidades em agosto que foram encontradas por esta solução.”
A progressão da análise humana manual para a descoberta assistida pela AA representa o que Johnston descreve como uma mudança “das operações de segurança manual para semi-autônoma”, onde “Gêmeos impulsiona a maioria das tarefas no ciclo de vida de segurança consistentemente bem, delega tarefas que não pode automatizar com confiança ou precisão suficientemente alta”.
O paradoxo da automação: promessa e perigo
O roteiro do Google Cloud prevê progressão em quatro etapas: operações manuais, assistidas, semi-autônomas e de segurança autônomas. Na fase semi-autônoma, os sistemas de IA lidariam com tarefas rotineiras enquanto aumentavam decisões complexas para os operadores humanos. A fase autônoma final veria a IA “direcionar o ciclo de vida da segurança para resultados positivos em nome dos usuários”.
No entanto, essa automação introduz novas vulnerabilidades. Quando perguntado sobre os riscos de dependência excessiva nos sistemas de IA, Johnston reconheceu o desafio: “Existe o potencial de que esse serviço possa ser atacado e manipulado. No momento, quando você vê ferramentas que esses agentes não foram adulterados, não há uma estrutura muito boa para autorizar que essa ferramenta real que não foi adulterada.”
Curran ecoa essa preocupação: “O risco para as empresas é que suas equipes de segurança se tornem excessivamente dependentes da IA, potencialmente afastadas do julgamento humano e deixando sistemas vulneráveis a ataques. Ainda é necessário um” copiloto “humano e os papéis precisam ser claramente definidos”.
Implementação do mundo real: controlar a natureza imprevisível da IA
A abordagem do Google Cloud inclui salvaguardas práticas para abordar uma das características mais problemáticas da IA: sua tendência a gerar respostas irrelevantes ou inadequadas. Johnston ilustrou esse desafio com um exemplo concreto de incompatibilidades contextuais que poderiam criar riscos comerciais.
“Se você tem uma loja de varejo, não deveria ter conselhos médicos”, explicou Johnston, descrevendo como os sistemas de IA podem mudar inesperadamente para domínios não relacionados. “Às vezes, essas ferramentas podem fazer isso.” A imprevisibilidade representa uma responsabilidade significativa por empresas que implantam sistemas de IA voltados para o cliente, onde as respostas fora do tópico podem confundir clientes, danificar a reputação da marca ou até criar exposição legal.
A tecnologia de armadura de modelo do Google aborda isso funcionando como uma camada de filtro inteligente. “Ter filtros e usar nossos recursos para colocar as verificações de saúde nessas respostas permite que uma organização obtenha confiança”, observou Johnston. O sistema exibe as saídas de IA para informações de identificação pessoal, filtra o conteúdo inadequado para o contexto de negócios e bloqueia as respostas que podem ser “fora da marca” para o caso de uso pretendido da organização.
A empresa também aborda a crescente preocupação com a implantação da AI Shadow. As organizações estão descobrindo centenas de ferramentas de IA não autorizadas em suas redes, criando enormes lacunas de segurança. As tecnologias sensíveis de proteção de dados do Google tentam abordar isso digitalizando vários provedores de nuvem e sistemas locais.
O desafio da escala: restrições orçamentárias versus ameaças crescentes
Johnston identificou as restrições orçamentárias como o principal desafio enfrentado pela Ásia -Pacífico, ocorrendo com precisão quando as organizações enfrentam ameaças cibernéticas crescentes. O paradoxo é acentuado: à medida que os volumes de ataque aumentam, as organizações não têm os recursos para responder adequadamente.
“Observamos as estatísticas e dizemos objetivamente que estamos vendo mais barulho – pode não ser super sofisticado, mas mais ruído é mais sobrecarga e isso custa mais para lidar”, observou Johnston. O aumento da frequência de ataque, mesmo quando ataques individuais não são necessariamente mais avançados, cria um dreno de recursos que muitas organizações não podem sustentar.
A pressão financeira intensifica um cenário de segurança já complexo. “Eles estão procurando parceiros que possam ajudar a acelerar isso sem ter que contratar mais 10 funcionários ou obter orçamentos maiores”, explicou Johnston, descrevendo como os líderes de segurança enfrentam pressão crescente para fazer mais com os recursos existentes, enquanto as ameaças se multiplicam.
Perguntas críticas permanecem
Apesar dos recursos promissores do Google Cloud AI, várias questões importantes persistem. Quando desafiado sobre se os defensores estão realmente vencendo essa corrida armamentista, Johnston reconheceu: “Não vimos novos ataques usando a IA até o momento”, mas observou que os invasores estão usando a IA para escalar os métodos de ataque existentes e criar “uma ampla gama de oportunidades em alguns aspectos do ataque.
As reivindicações de eficácia também exigem escrutínio. Enquanto Johnston citou uma melhoria de 50% na velocidade de redação do relatório de incidentes, ele admitiu que a precisão continua sendo um desafio: “Existem imprecisões, com certeza. Mas os humanos também cometem erros”. O reconhecimento destaca as limitações contínuas das implementações atuais de segurança da IA.
Ansioso: preparativos pós-quadros
Além das implementações atuais de IA, o Google Cloud já está se preparando para a próxima mudança de paradigma. Johnston revelou que a empresa “já implantou criptografia pós-Quantum entre nossos data centers por padrão em escala”, posicionamento para futuras ameaças de computação quântica que podem tornar a criptografia atual obsoleta.
O veredicto: otimismo cauteloso necessário
A integração da IA na segurança cibernética representa uma oportunidade sem precedentes e o risco significativo. Embora as tecnologias de IA do Google Cloud demonstrem recursos genuínos na detecção de vulnerabilidades, análise de ameaças e resposta automatizada, as mesmas tecnologias capacitam os atacantes com recursos aprimorados de reconhecimento, engenharia social e evasão.
A avaliação de Curran fornece uma perspectiva equilibrada: “Dada a rapidez com que a tecnologia evoluiu, as organizações terão que adotar uma política de segurança cibernética mais abrangente e proativa, se quiserem ficar à frente dos atacantes. Afinal, os ataques cibernéticos são uma questão de ‘quando’ não ‘se’, e a IA apenas acelerará o número de oportunidades disponíveis para ameaçar ‘”.
O sucesso da segurança cibernética movida a IA depende, em última análise, não da própria tecnologia, mas de como as organizações implementam essas ferramentas, mantendo a supervisão humana e abordando a higiene de segurança fundamental. Como Johnston concluiu, “devemos adotá-las em abordagens de baixo risco”, enfatizando a necessidade de implementação medida em vez de automação por atacado.
A revolução da IA na segurança cibernética está em andamento, mas a vitória pertence àqueles que podem equilibrar a inovação com o gerenciamento prudente de riscos – não aqueles que simplesmente implantam os algoritmos mais avançados.
Veja também: O Google Cloud revela as equipes de segurança
Deseja aprender mais sobre IA e Big Data dos líderes do setor? Confira a AI & Big Data Expo em Amsterdã, Califórnia e Londres. O evento abrangente faz parte do TechEx e é co-localizado com outros eventos de tecnologia líder, clique aqui para obter mais informações.
A IA News é alimentada pela Techforge Media. Explore outros próximos eventos e webinars de tecnologia corporativa aqui.
Fontesartificialintelligence