A norma ETSI EN 304 223 introduz requisitos básicos de segurança para IA que as empresas devem integrar nos quadros de governação.
À medida que as organizações incorporam a aprendizagem automática nas suas operações principais, esta Norma Europeia (EN) estabelece disposições concretas para proteger modelos e sistemas de IA. É a primeira norma europeia aplicável a nível mundial para a segurança cibernética da IA, tendo garantido a aprovação formal das organizações nacionais de normalização para reforçar a sua autoridade nos mercados internacionais.
A norma serve como uma referência necessária juntamente com a Lei de IA da UE. Aborda a realidade de que os sistemas de IA possuem riscos específicos – tais como suscetibilidade ao envenenamento de dados, ofuscação de modelos e injeção indireta imediata – que as medidas tradicionais de segurança de software muitas vezes ignoram. O padrão abrange redes neurais profundas e IA generativa até sistemas preditivos básicos, excluindo explicitamente apenas aqueles usados estritamente para pesquisa acadêmica.
A norma ETSI esclarece a cadeia de responsabilidade pela segurança da IA
Um obstáculo persistente na adoção da IA pelas empresas é determinar quem é o proprietário do risco. O padrão ETSI resolve isso definindo três funções técnicas principais: Desenvolvedores, Operadores de Sistema e Custodiantes de Dados.
Para muitas empresas, esses limites ficam confusos. Uma empresa de serviços financeiros que ajusta um modelo de código aberto para detecção de fraudes conta tanto como Desenvolvedor quanto como Operador de Sistema. Este duplo estatuto desencadeia obrigações rigorosas, exigindo que a empresa proteja a infra-estrutura de implantação enquanto documenta a proveniência dos dados de formação e a auditoria de concepção do modelo.
A inclusão de “Custodiantes de Dados” como um grupo distinto de partes interessadas impacta diretamente os Diretores de Dados e Análise (CDAOs). Essas entidades controlam as permissões e a integridade dos dados, uma função que agora carrega responsabilidades explícitas de segurança. Os custodiantes devem garantir que o uso pretendido de um sistema esteja alinhado com a sensibilidade dos dados de treinamento, colocando efetivamente um guardião de segurança dentro do fluxo de trabalho de gerenciamento de dados.
O padrão de IA do ETSI deixa claro que a segurança não pode ser uma reflexão tardia acrescentada na fase de implantação. Durante a fase de design, as organizações devem conduzir modelagem de ameaças que aborde ataques nativos de IA, como inferência de associação e ofuscação de modelo.
Uma disposição exige que os desenvolvedores restrinjam a funcionalidade para reduzir a superfície de ataque. Por exemplo, se um sistema utiliza um modelo multimodal, mas requer apenas processamento de texto, as modalidades não utilizadas (como processamento de imagem ou áudio) representam um risco que deve ser gerido. Este requisito obriga os líderes técnicos a reconsiderar a prática comum de implementar modelos de base massivos e de uso geral, onde um modelo menor e mais especializado seria suficiente.
O documento também impõe uma gestão rigorosa de ativos. Os Desenvolvedores e Operadores de Sistema devem manter um inventário abrangente de ativos, incluindo interdependências e conectividade. Isso oferece suporte à descoberta de IA sombria; Os líderes de TI não podem proteger modelos que não sabem que existem. A norma também exige a criação de planos específicos de recuperação de desastres adaptados a ataques de IA, garantindo que um “bom estado conhecido” possa ser restaurado se um modelo for comprometido.
A segurança da cadeia de suprimentos representa um ponto de atrito imediato para empresas que dependem de fornecedores terceirizados ou de repositórios de código aberto. A norma ETSI exige que, se um operador de sistema optar por utilizar modelos ou componentes de IA que não estejam bem documentados, deve justificar essa decisão e documentar os riscos de segurança associados.
Praticamente, as equipes de compras não podem mais aceitar soluções “caixa preta”. Os desenvolvedores são obrigados a fornecer hashes criptográficos para os componentes do modelo para verificar a autenticidade. Quando os dados de treinamento são obtidos publicamente (uma prática comum para modelos de linguagem grande), os desenvolvedores devem documentar o URL de origem e o carimbo de data/hora de aquisição. Essa trilha de auditoria é necessária para investigações pós-incidente, principalmente ao tentar identificar se um modelo foi submetido a envenenamento de dados durante sua fase de treinamento.
Se uma empresa oferecer uma API a clientes externos, ela deverá aplicar controles projetados para mitigar ataques focados em IA, como limitação de taxa para evitar que adversários façam engenharia reversa do modelo ou defesas esmagadoras para injetar dados venenosos.
A abordagem do ciclo de vida se estende até a fase de manutenção, onde a norma trata atualizações importantes – como o retreinamento em novos dados – como a implantação de uma nova versão. De acordo com o padrão ETSI AI, isso desencadeia um requisito para testes e avaliações de segurança renovados.
O monitoramento contínuo também é formalizado. Os operadores de sistema devem analisar os logs não apenas para verificar o tempo de atividade, mas também para detectar “desvios de dados” ou mudanças graduais no comportamento que possam indicar uma violação de segurança. Isso transforma o monitoramento de IA de uma métrica de desempenho em uma disciplina de segurança.
A norma também aborda a fase de “Fim da Vida”. Quando um modelo é desativado ou transferido, as organizações devem envolver os Custodiantes de Dados para garantir o descarte seguro dos dados e detalhes de configuração. Esta disposição evita o vazamento de propriedade intelectual sensível ou dados de treinamento através de hardware descartado ou instâncias de nuvem esquecidas.
Supervisão executiva e governança
A conformidade com a ETSI EN 304 223 exige uma revisão dos programas de formação em cibersegurança existentes. A norma exige que a formação seja adaptada a funções específicas, garantindo que os programadores compreendem a codificação segura para IA, enquanto o pessoal em geral permanece consciente de ameaças como a engenharia social através dos resultados da IA.
“ETSI EN 304 223 representa um importante passo em frente no estabelecimento de uma base comum e rigorosa para proteger sistemas de IA”, disse Scott Cadzow, Presidente do Comité Técnico para Segurança de Inteligência Artificial do ETSI.
“Numa altura em que a IA está a ser cada vez mais integrada em serviços e infra-estruturas críticas, a disponibilidade de orientações claras e práticas que reflectem tanto a complexidade destas tecnologias como as realidades da implementação não pode ser subestimada. O trabalho realizado para fornecer esta estrutura é o resultado de uma extensa colaboração e significa que as organizações podem ter plena confiança em sistemas de IA que são resilientes, fiáveis e seguros desde a concepção.”
A implementação destas linhas de base no padrão de segurança de IA do ETSI fornece uma estrutura para uma inovação mais segura. Ao aplicar trilhas de auditoria documentadas, definições claras de funções e transparência na cadeia de fornecimento, as empresas podem mitigar os riscos associados à adoção da IA, ao mesmo tempo que estabelecem uma posição defensável para futuras auditorias regulatórias.
Um futuro relatório técnico (ETSI TR 104 159) aplicará estes princípios especificamente à IA generativa, visando questões como deepfakes e desinformação.
Veja também: Allister Frost: Lidando com a ansiedade da força de trabalho para o sucesso da integração de IA
Quer saber mais sobre IA e big data dos líderes do setor? Confira a AI & Big Data Expo que acontece em Amsterdã, Califórnia e Londres. O evento abrangente faz parte da TechEx e está localizado junto com outros eventos de tecnologia líderes. Clique aqui para mais informações.
AI News é desenvolvido pela TechForge Media. Explore outros eventos e webinars de tecnologia empresarial futuros aqui.
Fontesartificialintelligence



