As evidências citadas em um e-book intitulado “AI Quantum Resilience”, publicado pela Utimaco (parede de e-mail), mostram que as organizações consideram os riscos de segurança como a principal barreira para a adoção eficaz da IA ​​nos dados que possuem.

O valor da IA ​​depende dos dados acumulados por uma organização. No entanto, existem riscos de segurança na construção de modelos e no seu treinamento com base nesses dados. Estes riscos somam-se às ameaças mais bem divulgadas à propriedade intelectual que existem em torno do ponto de inferência (engenharia imediata, por exemplo).

Os autores do e-book afirmam que as organizações precisam gerenciar ameaças em todos os seus processos de desenvolvimento e implementação de IA. Ao mesmo tempo, as empresas podem e devem preparar-se para alterar os seus protocolos de segurança, mudanças que se tornarão obrigatórias se as ferramentas de desencriptação alimentadas pela computação quântica se tornarem facilmente disponíveis para os malfeitores.

Utimaco lista três áreas sob ameaça:

  • Os dados de treinamento podem ser manipulados por maus atores, degradando os resultados do modelo de maneiras difíceis de detectar,
  • Os modelos podem ser extraídos ou copiados, minando os direitos de propriedade intelectual,
  • Dados confidenciais usados ​​durante treinamento ou inferência podem ser expostos.

A atual criptografia de chave pública se tornará vulnerável nos próximos dez anos, atestam os autores do relatório; um período em que sistemas quânticos capazes podem surgir. Independentemente da escala de tempo, acredita-se que grupos mais bem organizados atualmente coletam dados criptografados e os armazenam para descriptografá-los quando ou se as instalações quânticas estiverem disponíveis. Qualquer conjunto de dados com sensibilidade de longo prazo, incluindo dados de treinamento de modelo, registros financeiros ou propriedade intelectual, pode exigir proteção contra descriptografia futura, portanto, diz Utimaco.

Uma migração para a criptografia resistente a quantum afetará os protocolos, o gerenciamento de chaves, a interoperabilidade do sistema e o desempenho, portanto, qualquer migração provavelmente levará vários anos. Os autores do relatório sugerem o que chamam de “criptoagilidade”, que define como a mudança de algoritmos criptográficos sem redesenhar os sistemas subjacentes. A ‘criptoagilidade’ baseia-se no princípio da criptografia híbrida – combinando algoritmos estabelecidos com métodos pós-quânticos, como os sugeridos pelo NIST.

Os autores do e-book concordam que a criptografia por si só não aborda todas as áreas de risco possíveis. Ela defende o uso de dispositivos confiáveis ​​baseados em hardware que possam isolar chaves criptográficas e operações confidenciais de ambientes normais de trabalho.

Se as empresas estiverem a desenvolver as suas próprias ferramentas e processos de IA, a proteção nessa base deverá estender-se por todo o ciclo de vida da IA, desde a ingestão de dados até à formação, implementação de modelos e inferência na produção. As chaves de hardware usadas para criptografar dados e assinar modelos podem ser geradas e armazenadas dentro de um limite. A integridade do modelo pode então ser verificada antes da implantação, e os dados confidenciais processados ​​durante a inferência permanecem protegidos.

Os enclaves baseados em hardware isolam as cargas de trabalho para que mesmo os administradores de sistema com privilégios suficientes não possam acessar nenhum dos dados que estão sendo processados. Os módulos de hardware podem verificar se o enclave de dados está em um estado confiável antes de liberar as chaves – um processo de atestado externo – ajudando a criar uma “cadeia de confiança” do hardware ao aplicativo.

O gerenciamento de chaves baseado em hardware produz registros invioláveis ​​que abrangem acesso e operações para apoiar estruturas de conformidade, como a Lei de IA da UE.

Muitos dos riscos inerentes aos sistemas de IA são bem conhecidos, se não já explorados. O risco da capacidade da computação quântica de descriptografar dados atualmente considerados seguros é menos imediato, mas as implicações devem afetar as decisões de dados e infraestrutura tomadas hoje, afirma Utimaco. Defende:

  • Um fortalecimento dos controles em todo o ciclo de vida de desenvolvimento e implantação de IA,
  • A introdução da ‘criptoagilidade’ para permitir a transição para a segurança pós-quântica,
  • Estabelecer mecanismos de confiança baseados em hardware sempre que ativos de alto valor estiverem em jogo.

(Fonte da imagem: “Micrografia eletrônica de varredura de uma célula HeLa apoptótica” do National Institutes of Health (NIH) está licenciada sob CC BY-NC 2.0. Para visualizar uma cópia desta licença, visite https://creativecommons.org/licenses/by-nc/2.0)

Quer saber mais sobre IA e big data dos líderes do setor? Confira a AI & Big Data Expo que acontece em Amsterdã, Califórnia e Londres. O evento abrangente faz parte da TechEx e é realizado junto com outros eventos de tecnologia líderes. Clique aqui para mais informações.

AI News é desenvolvido pela TechForge Media. Explore outros eventos e webinars de tecnologia empresarial futuros aqui.

Fontesartificialintelligence

By AI News

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *