O regulador financeiro da Austrália alertou as empresas financeiras que as práticas de governança e garantia dos agentes de IA são mal governadas. O alerta surge no momento em que os bancos e os administradores de pensões expandem a IA em operações internas e voltadas para o cliente.
A Autoridade Australiana de Regulação Prudencial disse que conduziu uma revisão direcionada de grandes entidades regulamentadas selecionadas no final de 2025 para avaliar a adoção da IA e os riscos prudenciais relacionados. Constatou que a IA estava a ser utilizada em todas as entidades analisadas, mas a maturidade variava na gestão de riscos e na resiliência operacional. A APRA disse que os conselhos demonstraram grande interesse em IA para produtividade e experiência do cliente. No entanto, descobriu que muitos ainda estavam a desenvolver a gestão dos riscos da IA.
O regulador também levantou preocupações sobre a dependência de apresentações e resumos de fornecedores. Ele disse que os conselhos nem sempre examinavam suficientemente riscos como o comportamento imprevisível do modelo e o efeito das falhas de IA em operações críticas.
A APRA disse que os conselhos devem desenvolver uma melhor compreensão da IA, a fim de definir estratégia e supervisão de forma coerente. Afirmou que a estratégia de IA deve alinhar-se com o apetite ao risco de uma instituição e incluir monitorização e procedimentos definidos que devem ser tomados em caso de erros.
A APRA observou que as entidades regulamentadas estavam testando ou introduzindo IA na engenharia de software, triagem de sinistros e processamento de pedidos de empréstimo. Outros casos de uso citados incluíram fraude e interrupção de golpes e interação com o cliente.
Algumas entidades tratavam o risco da IA nos mesmos termos que outras tecnologias, mas essa abordagem não leva em conta o comportamento e o preconceito dos modelos.
Identificou lacunas no monitoramento do comportamento do modelo, no gerenciamento de mudanças e no descomissionamento, e declarou a necessidade de inventários de ferramentas de IA e propriedade de instâncias de IA por pessoas nomeadas. Também destacou a exigência do envolvimento humano em decisões de alto risco.
A segurança cibernética foi outra área de preocupação. A APRA disse que a adoção da IA estava mudando o ambiente de ameaças ao adicionar caminhos de ataque adicionais, como injeção imediata e integrações inseguras.
As práticas de gestão de identidade e acesso não se ajustaram, em alguns casos, a elementos não humanos, como agentes de IA. O volume de desenvolvimento de software assistido por IA estava pressionando os controles de mudança e lançamento.
A APRA disse que as entidades devem aplicar controles em fluxos de trabalho autônomos e de agente, que incluam gerenciamento de acesso privilegiado, configuração e aplicação de patches. Também pediu testes de segurança do código gerado por IA.
Algumas instituições tornaram-se dependentes de um único fornecedor para muitas das suas instâncias de IA, observou a ARPA, e apenas algumas conseguiram mostrar um plano de saída ou uma estratégia de substituição para fornecedores de IA.
APRA disse que a IA pode estar presente em dependências upstream, das quais as entidades podem não estar cientes.
Identidade e acesso
O foco nos controles de identidade e permissão também se reflete no trabalho de novos padrões da FIDO Alliance. O grupo formou um Grupo de Trabalho Técnico de Autenticação Agente e está desenvolvendo especificações para comércio iniciado por agente.
A FIDO disse que alguns modelos existentes de autenticação e autorização foram projetados para interação humana, e não para ações delegadas executadas por software. Afirmou que os prestadores de serviços precisam de meios para verificar quem ou o que autoriza as ações e em que condições.
Os fornecedores apresentaram suas soluções à FIDO para revisão, incluindo o protocolo de pagamentos de agentes do Google e a estrutura de intenção verificável da Mastercard. O Center for Internet Security, uma organização sem fins lucrativos financiada em grande parte pelo Departamento de Segurança Interna, publicou guias complementares de segurança de IA que mapeiam o CIS Controls v8.1 para grandes modelos de linguagem, agentes de IA e ambientes de Model Context Protocol.
Seu guia LLM cobre questões imediatas e de dados confidenciais, e um guia MCP concentra-se no acesso seguro por ferramentas de software, identidades não humanas e interações de rede.
(Foto de Julien Tromeur)
Veja também: Google alerta que páginas maliciosas estão envenenando agentes de IA
Quer saber mais sobre IA e big data dos líderes do setor? Confira a AI & Big Data Expo que acontece em Amsterdã, Califórnia e Londres. O evento abrangente faz parte da TechEx e está localizado junto com outros eventos de tecnologia líderes, incluindo o Cyber Security & Cloud Expo. Clique aqui para mais informações.
AI News é desenvolvido pela TechForge Media. Explore outros eventos e webinars de tecnologia empresarial futuros aqui.
Fontesartificialintelligence


