A cibersegurança está no meio de uma nova corrida armamentista, e a poderosa arma de escolha nesta nova era é a IA.

A IA oferece uma faca clássica de dois gumes: um escudo poderoso para os defensores e uma nova e potente ferramenta para pessoas com intenção maliciosa. Navegar neste complexo campo de batalha requer uma mão constante e uma profunda compreensão da tecnologia e das pessoas que a abusariam.

Para obter uma vista das linhas de frente, a AI News alcançou Rachel James, engenheiro de inteligência de ameaças da AI ML da empresa biofarmacêutica global Abbvie.

“Além do aumento de IA incorporado que foi fornecido por fornecedores em nossas ferramentas atuais, também usamos a análise LLM em nossas detecções, observações, correlações e regras associadas”, explica James.

James e sua equipe estão usando grandes modelos de idiomas para filtrar uma montanha de alertas de segurança, procurando padrões, detectando duplicatas e encontrando lacunas perigosas em suas defesas antes que um atacante possa.

“Usamos isso para determinar similaridade, duplicação e fornecer uma análise de lacunas”, acrescenta ela, observando que a próxima etapa é tecer ainda mais dados de ameaças externas. “Estamos procurando melhorar isso com a integração da inteligência de ameaças em nossa próxima fase”.

O centro desta operação é uma plataforma especializada de inteligência de ameaças chamada OpenCti, que os ajuda a criar uma imagem unificada de ameaças a partir de um mar de ruído digital.

A IA é o motor que torna possível esse esforço de segurança cibernética, tomando grandes quantidades de texto confuso e não estruturado e organizando -o cuidadosamente em um formato padrão conhecido como Stix. A grande visão, diz James, é usar modelos de idiomas para conectar essa inteligência central a todas as outras áreas de sua operação de segurança, do gerenciamento de vulnerabilidades a riscos de terceiros.

Aproveitar esse poder, no entanto, vem com uma dose saudável de cautela. Como contribuinte importante para uma grande iniciativa do setor, James está ciente das armadilhas.

“Eu seria negligente se não mencionasse o trabalho de um maravilhoso grupo de pessoas das quais faço parte – o ‘Owasp Top 10 para Genai’ como uma maneira fundamental de entender as vulnerabilidades que a Genai pode introduzir”, diz ela.

Além das vulnerabilidades específicas, James aponta para três compensações fundamentais que os líderes empresariais devem enfrentar:

  1. Aceitando o risco que vem com a natureza criativa, mas muitas vezes imprevisível da IA ​​generativa.
  2. A perda de transparência na maneira como a IA chega às suas conclusões, um problema que só cresce à medida que os modelos se tornam mais complexos.
  3. O perigo de julgar mal o retorno real do investimento para qualquer projeto de IA, onde o hype pode facilmente levar a superestimar os benefícios ou subestimar o esforço necessário em um campo tão rápido.

Para construir uma melhor postura de segurança cibernética na era da IA, você precisa entender seu atacante. É aqui que a profunda experiência de James entra em jogo.

“Essa é realmente minha experiência particular – tenho um histórico de inteligência de ameaças cibernéticas e conduzi e documentei uma extensa pesquisa sobre o interesse, o uso e o desenvolvimento do ator de ameaças”, observa ela.

James rastreia ativamente o desenvolvimento de conversas adversárias e ferramentas através de canais de código aberto e suas próprias coleções automatizadas da Dark Web, compartilhando suas descobertas em seu Github Cybershujin. Seu trabalho também envolve sujar as próprias mãos.

“Como líder para a entrada imediata de injeção de OWASP e co-autor do Guia para a Red Teaming Genai, também gasto tempo desenvolvendo técnicas de entrada adversárias e mantenho uma rede de especialistas também nesse campo”, acrescenta James.

Então, o que tudo isso significa para o futuro da indústria? Para James, o caminho a seguir é claro. Ela aponta para um paralelo fascinante que descobriu anos atrás: “O ciclo de vida da inteligência de ameaças cibernéticas é quase idêntico ao ciclo de vida da ciência de dados fundamental para os sistemas AI ML”.

Esse alinhamento é uma oportunidade enorme. “Sem dúvida, em termos dos conjuntos de dados com os quais podemos operar, os defensores têm uma chance única de capitalizar o poder do compartilhamento de dados de inteligência e da IA”, afirma ela.

Sua mensagem final oferece incentivo e um aviso para seus colegas no mundo da segurança cibernética: “A ciência de dados e a IA farão parte da vida de cada profissional de segurança cibernética avançar, abraçá -la”.

Rachel James estará compartilhando suas idéias nos deste ano AI e Big Data Expo Europe Em Amsterdã, de 24 a 25 de setembro de 2025. Certifique-se de conferir sua apresentação do segundo dia ‘do princípio à prática-incorporando a ética da IA ​​em escala’.

Veja também: O Google Cloud revela as equipes de segurança

Deseja aprender mais sobre IA e Big Data dos líderes do setor? Confira a AI & Big Data Expo em Amsterdã, Califórnia e Londres. O evento abrangente é co-localizado com outros eventos líderes, incluindo a Conferência de Automação Inteligente, Blockx, Digital Transformation Week e Cyber ​​Security & Cloud Expo.

Explore outros próximos eventos de tecnologia corporativa e webinars alimentados pela TechForge aqui.

Fontesartificialintelligence

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *