Divulgação: As opiniões e pontos de vista aqui expressos pertencem exclusivamente ao autor e não representam os pontos de vista e opiniões do editorial do crypto.news.

Sistemas que podem chamar ferramentas sob demanda, definir metas, gastar dinheiro e alterar seus próprios prompts já estão saindo das sandboxes e entrando na produção – incluindo a IA de agente, ou inteligência artificial.

Resumo

  • Governança através da verificabilidade: À medida que os agentes de IA ganham autonomia para gastar, publicar e agir, os sistemas devem impor a proveniência criptográfica e a auditabilidade – transformando a responsabilidade da IA ​​de suposições em provas verificáveis.
  • Identidade acima do anonimato: a Agentic AI precisa de identidades verificáveis, não de nomes de usuário. Usando credenciais verificáveis ​​do W3C e políticas de contas inteligentes, os agentes podem provar quem são, o que estão autorizados a fazer e manter a responsabilidade rastreável em todas as plataformas.
  • Entradas e saídas assinadas: A assinatura criptográfica de cada entrada, saída e ação cria uma trilha de auditoria transparente – transformando a IA de uma “caixa preta” em uma “caixa de vidro” onde as decisões são explicáveis, reproduzíveis e prontas para regulamentação.

Esta mudança ignora completamente o acordo que a sociedade fez com a IA durante as suas origens, de que os resultados eram sugestões enquanto os humanos estavam em risco. Agora, os agentes agem, invertendo esse ónus e abrindo a porta a um vasto mundo de complicações éticas. Se um sistema autónomo pode alterar registos, publicar conteúdos e movimentar fundos, deve aprender a cumprir as regras e deve (mais vitalmente) deixar um rasto que resista ao teste do tempo para que possa ser auditado e contestado, se necessário.

A governação pela engenharia é necessária agora mais do que nunca na modernidade da IA ​​de agência, e o mercado está a começar a ver isso. A autonomia passa a ser mais uma questão de acumulação de responsabilidades do que de otimização de processos com origem criptográfica e regras para vincular a IA agente. Quando uma negociação dá errado ou um deepfake se espalha, a análise forense post-mortem não pode confiar em mensagens ou capturas de tela do Slack. A proveniência é fundamental e deve ser verificável por máquina desde o momento em que as informações são capturadas até o momento em que as ações são tomadas.

Identidades, não nomes de usuário

Identificadores ou nomes de usuário não são suficientes; os agentes precisam receber identidades que possam ser comprovadas com credenciais verificáveis. As credenciais verificáveis ​​(VCs) 2.0 do W3C fornecem uma maneira baseada em padrões de vincular atributos (como funções, permissões, atestados, etc.) a entidades de uma forma que outras máquinas possam verificar.

Combine essa verificação com o gerenciamento de chaves e políticas em contas inteligentes e, em breve, um agente poderá apresentar exatamente “quem” é e “o que” pode fazer muito antes de executar uma única ação. Nesse modelo, as credenciais tornam-se uma superfície de permissão rastreável que acompanha o agente em todas as cadeias e serviços e garante que ele cumpra suas regras com responsabilidade.

Com atribuições erradas frequentes e omissões de licença acima de 70%, a proveniência confusa dos conjuntos de dados de IA mais amplamente utilizados mostra a rapidez com que a IA não verificável desmorona sob inspeção. Se a comunidade não consegue manter os dados diretamente para corpora de treinamento estático, não pode esperar que os reguladores aceitem ações de agentes não rotuladas e não verificadas em ambientes reais.

Assinando entradas e saídas

Os agentes agem com base nas entradas, sejam elas uma citação, um arquivo ou uma foto, e quando essas entradas podem ser falsificadas ou despojadas de contexto, a segurança entra em colapso. O padrão Coalition for Content Provenance and Authenticity (C2PA) move a mídia para fora do domínio das suposições e para credenciais de conteúdo assinadas criptograficamente.

Mais uma vez, as credenciais vencem os nomes de usuário, como visto por empresas como o Google integrando credenciais de conteúdo na pesquisa e a Adobe lançando um aplicativo da web público para incorporá-los e inspecioná-los. O impulso aqui é em direção a artefatos que carregam sua própria cadeia de custódia, de modo que os agentes que ingerem dados e emitem apenas mídia credenciada serão mais fáceis de confiar (e de governar).

Este método deve ser estendido a dados e decisões mais estruturados, como quando um agente consulta um serviço. Neste cenário, a resposta deve ser assinada e o que se segue deve ser a decisão do agente registrada, selada e carimbada com data e hora para verificação.

Sem declarações assinadas, as autópsias dissolvem-se em acusações e conjecturas. Com eles, a responsabilidade se torna computável – cada decisão, ação e transição está criptograficamente vinculada a uma identidade verificável e a um contexto político. Para a IA agente, isso transforma a análise pós-incidente de interpretação subjetiva em evidência reproduzível, onde os investigadores podem rastrear a intenção, a sequência e as consequências com precisão matemática.

O estabelecimento de logs em cadeia ou encadeados por permissão dá aos sistemas autônomos uma espinha dorsal de auditoria – uma trilha verificável de causalidade. Os investigadores ganham a capacidade de reproduzir comportamentos, as contrapartes podem verificar a autenticidade e o não repúdio e os reguladores podem consultar a conformidade de forma dinâmica em vez de reativa. A “caixa preta” torna-se uma caixa de vidro, onde a explicabilidade e a responsabilização convergem em tempo real. A transparência passa de uma afirmação de marketing para uma propriedade mensurável do sistema.

Os provedores capazes de demonstrar fornecimento legal de dados, integridade de processo verificável e comportamento de agente compatível operarão com menor atrito e maior confiança. Eles não enfrentarão rodadas intermináveis ​​de due diligence ou paralisações arbitrárias. Quando um sistema de IA consegue provar o que fez, por que o fez e sob a autoridade de quem, o gerenciamento de riscos evolui do policiamento para o licenciamento – e a adoção acelera.

Isto marca uma nova divisão nos ecossistemas de IA: agentes verificáveis ​​que podem interoperar legalmente entre redes regulamentadas e agentes opacos que não podem. Uma constituição para a IA agente – ancorada na identidade, entradas e saídas assinadas e registos imutáveis ​​e consultáveis ​​– não é apenas uma salvaguarda; é a nova porta de entrada para a participação em mercados confiáveis.

A Agentic AI só irá onde puder provar seu valor. Aqueles que projetam agora visando a comprovação e a integridade definirão o padrão para a próxima geração de inteligência interoperável. Aqueles que ignorarem essa barreira enfrentarão uma exclusão progressiva – das redes, dos utilizadores e da própria inovação futura.

Chris Anderson

Chris Anderson é o CEO da ByteNova AI, um inovador emergente em tecnologia de IA de ponta.

Fontecrypto.news

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *