Estes são tempos interessantes para IA e confiança. Um número crescente de empresas de investimento está a utilizar agentes de IA para rever notas de investigação e registos de empresas. Pede-se aos humanos que entreguem dados biométricos cada vez mais invasivos, como varreduras faciais, amostras de voz e padrões comportamentais, apenas para provar que não são bots. Uma vez disponíveis, esses dados podem ser transformados em armas por bots controlados por IA para falsificar de forma convincente pessoas reais, derrotando os próprios sistemas projetados para mantê-los afastados. Isso deixa-nos numa nova e estranha corrida aos armamentos – quanto mais invasiva for a verificação, maior será o risco quando esta inevitavelmente vazar. Então, como podemos verificar com quem (ou o quê) estamos realmente lidando?
É injusto exigir transparência dos humanos e aceitar a opacidade das máquinas. Tanto os bots como os humanos online precisam de melhores formas de verificar a sua identidade. Não podemos resolver este problema simplesmente recolhendo mais dados biométricos, nem construindo registos centralizados que representem enormes honeypots para criminosos cibernéticos. As provas de conhecimento zero oferecem um caminho a seguir onde tanto os humanos como a IA podem provar as suas credenciais sem se exporem à exploração.
O progresso do bloqueio do déficit de confiança
A ausência de identidade verificável de IA cria riscos imediatos de mercado. Quando os agentes de IA podem fazer-se passar por humanos, manipular mercados ou executar transações não autorizadas, as empresas hesitam, com razão, em implementar sistemas autónomos em grande escala. Na verdade, os LLMs que foram “ajustados” em um conjunto de dados menor para melhorar o desempenho têm 22 vezes mais probabilidade de produzir resultados prejudiciais do que os modelos básicos, com as taxas de sucesso de contornar as proteções éticas e de segurança do sistema – um processo conhecido como “jailbreaking” – triplicando em relação aos sistemas prontos para produção. Sem uma verificação de identidade confiável, cada interação de IA fica um passo mais perto de uma possível violação de segurança.
O problema não é tão óbvio quanto impedir que atores mal-intencionados implantem agentes não autorizados, porque não é como se estivéssemos diante de uma única interface de IA. O futuro verá cada vez mais agentes de IA autônomos com maiores capacidades. Num mar tão grande de agentes, como sabemos com o que estamos lidando? Mesmo os sistemas legítimos de IA precisam de credenciais verificáveis para participar na economia emergente de agente para agente. Quando um bot comercial de IA executa uma transação com outro bot, ambas as partes precisam de garantia sobre a identidade, autorização e estrutura de responsabilidade da outra.
O lado humano desta equação está igualmente quebrado. Os sistemas tradicionais de verificação de identidade expõem os utilizadores a violações massivas de dados, permitem com demasiada facilidade a vigilância autoritária e geram milhares de milhões de receitas para grandes corporações com a venda de informações pessoais sem compensar os indivíduos que as geram. As pessoas estão legitimamente relutantes em partilhar mais dados pessoais, mas os requisitos regulamentares exigem procedimentos de verificação cada vez mais invasivos.
Conhecimento zero: a ponte entre privacidade e responsabilidade
As provas de conhecimento zero (ZKPs) oferecem uma solução para este problema aparentemente intratável. Em vez de revelar informações confidenciais, os ZKPs permitem que entidades, sejam elas humanas ou artificiais, provem afirmações específicas sem expor dados subjacentes. Um usuário pode provar que tem mais de 21 anos sem revelar sua data de nascimento. Um agente de IA pode provar que foi treinado em conjuntos de dados éticos sem expor algoritmos proprietários. Uma instituição financeira pode verificar se um cliente atende aos requisitos regulatórios sem armazenar informações pessoais que possam ser violadas.
Para os agentes de IA, os ZKPs podem permitir os níveis profundos de confiança necessários, uma vez que precisamos verificar não apenas a arquitetura técnica, mas também os padrões comportamentais, a responsabilidade legal e a reputação social. Com ZKPs, essas declarações podem ser armazenadas em um gráfico de confiança verificável na cadeia.
Pense nisso como uma camada de identidade combinável que funciona em plataformas e jurisdições. Dessa forma, quando um agente de IA apresenta as suas credenciais, pode provar que os seus dados de treino cumprem os padrões éticos, que os seus resultados foram auditados e que as suas ações estão ligadas a entidades humanas responsáveis, tudo sem expor informações proprietárias.
Os ZKPs poderiam mudar completamente o jogo, permitindo-nos provar quem somos sem entregar dados confidenciais, mas a adoção continua lenta. Os ZKPs continuam sendo um nicho técnico, desconhecido para os usuários e emaranhados em áreas regulatórias cinzentas. Para completar, as empresas que lucram com a coleta de dados têm pouco incentivo para adotar a tecnologia. No entanto, isso não impede que empresas de identidade mais ágeis as aproveitem e, à medida que surgem normas regulamentares e a consciencialização melhora, os ZKP podem tornar-se a espinha dorsal de uma nova era de IA fiável e identidade digital – proporcionando aos indivíduos e às organizações uma forma de interagir de forma segura e transparente através de plataformas e fronteiras.
Implicações de Mercado: Desbloqueando a Economia do Agente
A IA generativa poderia acrescentar biliões anualmente à economia global, mas grande parte deste valor permanece bloqueado por barreiras de verificação de identidade. Existem várias razões para isso. Uma delas é que os investidores institucionais precisam de uma conformidade robusta com KYC/AML antes de aplicar capital em estratégias baseadas em IA. Outra é que as empresas exigem identidades de agentes verificáveis antes de permitir que sistemas autônomos acessem infraestruturas críticas. E os reguladores exigem mecanismos de responsabilização antes de aprovarem a implantação de IA em domínios sensíveis.
Os sistemas de identidade baseados em ZKP atendem a todos esses requisitos, preservando ao mesmo tempo a privacidade e a autonomia que tornam os sistemas descentralizados valiosos. Ao permitir a divulgação seletiva, satisfazem os requisitos regulamentares sem criar honeypots de dados pessoais. Ao fornecer verificação criptográfica, eles permitem interações sem confiança entre agentes autônomos. E, ao manter o controle do usuário, eles se alinham às regulamentações emergentes de proteção de dados, como o GDPR e as leis de privacidade da Califórnia.
A tecnologia também pode ajudar a enfrentar a crescente crise do deepfake. Quando cada parte do conteúdo pode ser vinculada criptograficamente a um criador verificado sem revelar sua identidade, podemos combater a desinformação e proteger a privacidade. Isto é particularmente crucial porque o conteúdo gerado pela IA se torna indistinguível do material criado pelo homem.
O caminho ZK
Alguns argumentarão que qualquer sistema de identidade representa um passo em direcção ao autoritarismo – mas nenhuma sociedade pode funcionar sem uma forma de identificar os seus cidadãos. A verificação de identidade já está acontecendo em grande escala, mas de forma precária. Sempre que carregamos documentos para KYC, submetemos ao reconhecimento facial ou partilhamos dados pessoais para verificação de idade, estamos a participar em sistemas de identidade que são invasivos, inseguros e ineficientes.
As provas de conhecimento zero oferecem um caminho a seguir que respeita a privacidade individual, ao mesmo tempo que permite a confiança necessária para interações económicas complexas. Eles nos permitem construir sistemas onde os usuários controlam seus dados, a verificação não requer vigilância e tanto humanos quanto agentes de IA podem interagir com segurança sem sacrificar a autonomia.
Fontecoindesk



