Podem ser tomadas várias medidas para aliviar os elevados níveis de risco e, destas, as que se destacam incluem a identidade do agente, registos abrangentes, verificações de políticas, supervisão humana, revogação rápida, disponibilidade de documentação dos fornecedores e formulação de provas para apresentação aos reguladores.

Existem várias opções que os decisores podem considerar que ajudarão a criar o registo das atividades realizadas pelos sistemas de agência. Por exemplo, um SDK Python (kit de desenvolvimento de software), Asqav, pode assinar criptograficamente a ação de cada agente e vincular todos os registros a uma cadeia de hash imutável – o tipo de técnica mais associada à tecnologia blockchain. Se alguém ou algo alterar ou remover um registro, a verificação da cadeia falhará.

Para equipes de governança, usando um sistema de registro detalhado, centralizado e possivelmente criptografado para todas as IAs de agência é uma medida que fornece dados muito além dos registros de texto dispersos produzidos por plataformas de software individuais. Independentemente dos detalhes técnicos de como os registros são feitos e mantidos, os líderes de TI precisam ver exatamente onde, quando e como as instâncias de agente estão agindo em toda a empresa.

Muitas organizações falham nesta primeira etapa em qualquer registro de atividades automatizadas orientadas por IA. É necessário manter um registro de cada agente em operação, com cada um identificado de forma única, além de registros de suas capacidades e permissões concedidas. Esta ‘lista de ativos de agente’ está perfeitamente vinculada aos requisitos do artigo 9 da Lei de IA da UE, que afirma:

  • Artigo 9.º: Para zonas de alto risco, A gestão de riscos de IA deve ser um processo contínuo e baseado em evidências integrado em todas as etapas da implantação (desenvolvimento, preparação, produção) e estar sob constante revisão.

Além disso, os decisores precisam estar cientes do Artigo 13 da Lei:

  • Os sistemas de IA de alto risco têm de ser concebidos de tal forma que aqueles que os implementam possam compreender o resultado de um sistema. Por isso, um sistema de IA de terceiros deve ser interpretável por seus usuários (não um blob de código opaco) e deve ser fornecido com documentação suficiente para garantir seu uso seguro e legal.

Este requisito significa que a escolha do modelo e seus métodos de implantação são tanto técnicos e regulatório considerações.

Fontesartificialintelligence

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *