Camada de dados descentralizada Walrus tem como objetivo fornecer uma “base de dados verificável para fluxos de trabalho de IA” em conjunto com a pilha Sui.
A pilha Sui inclui disponibilidade de dados e camada de procedência Walrus, ambiente offchain Nautilus e camada de controle de acesso Seal.
Várias equipes de IA já escolheram o Walrus como sua plataforma de dados verificáveis, com o Walrus funcionando como “a camada de dados em uma pilha de IA muito maior”.
Os modelos de IA estão ficando mais rápidos, maiores e mais capazes. Mas à medida que os seus resultados começam a moldar as decisões em finanças, saúde, software empresarial e muito mais, uma questão importante precisa de ser respondida: podemos realmente verificar os dados e processos por detrás desses resultados?
“A maioria dos sistemas de IA depende de pipelines de dados que ninguém fora da organização pode verificar de forma independente”, afirma Rebecca Simmonds, executiva-gerente da Walrus Foundation – uma empresa que apoia o desenvolvimento da camada de dados descentralizada Walrus.
Conforme ela explica, não existe uma forma padrão de confirmar de onde vieram os dados, se foram adulterados ou o que foi autorizado para uso no pipeline. Essa lacuna não cria apenas riscos de conformidade – ela corrói a confiança nos resultados produzidos pela IA.
“Trata-se de passar de ‘confie em nós’ para ‘verificar isso'”, disse Simmonds, “e essa mudança é mais importante em ambientes financeiros, jurídicos e regulamentados, onde a auditabilidade não é opcional”.
Por que os logs centralizados não são suficientes
Muitas implantações de IA hoje dependem de infraestrutura centralizada e registros de auditoria interna. Embora possam fornecer alguma visibilidade, ainda exigem confiança na entidade que executa o sistema.
As partes interessadas externas não têm outra escolha senão confiar que os registos não foram alterados. Com uma camada de dados descentralizada, a integridade é ancorada criptograficamente, para que partes independentes possam verificá-las sem depender de um único operador.
É aqui que o Walrus se posiciona, como base de dados dentro de uma arquitetura mais ampla conhecida como Sui Stack. A própria Sui é uma rede blockchain de camada 1 que registra eventos de política e recebimentos na cadeia, coordenando o acesso e registrando atividades verificáveis em toda a pilha.
A Pilha Sui. Imagem: Morsa
“Walrus é a camada de disponibilidade e procedência dos dados – onde cada conjunto de dados obtém um ID exclusivo derivado de seu conteúdo”, explicou Simmonds. “Se os dados mudarem mesmo que seja um único byte, o ID muda. Isso torna possível verificar se os dados em um pipeline são exatamente o que afirmam ser, não foram alterados e permanecem disponíveis.”
Outros componentes do Sui Stack baseiam-se nessa base. O Nautilus permite que os desenvolvedores executem cargas de trabalho de IA em um ambiente off-chain seguro e gerem provas que podem ser verificadas on-chain, enquanto o Seal cuida do controle de acesso, permitindo que as equipes definam e imponham quem pode ver ou descriptografar os dados e sob quais condições.
“Sui então une tudo registrando as regras e provas na cadeia”, disse Simmonds. “Isso dá aos desenvolvedores, auditores e usuários um registro compartilhado que eles podem verificar de forma independente.”
“Nenhuma camada única resolve todo o problema de confiança da IA”, acrescentou ela. “Mas juntos, eles formam algo importante: uma base de dados verificável para fluxos de trabalho de IA – dados com proveniência comprovável, acesso que você pode impor, computação que você pode atestar e um registro imutável de como tudo foi usado.”
Várias equipes de IA já escolheram o Walrus como sua plataforma de dados verificáveis, disse Simmonds, incluindo a plataforma de agente de IA de código aberto elizaOS e a plataforma de inteligência de IA nativa de blockchain Zark Lab.
Agentes autônomos tomando decisões financeiras com base em dados não verificáveis. Pense nisso por um segundo.
Com o Walrus, conjuntos de dados, modelos e conteúdo são verificáveis por padrão, para que os construtores possam proteger as plataformas de IA contra possíveis não conformidades regulatórias, respostas imprecisas e erosão…
A frase “IA verificável” pode parecer ambiciosa. Mas Simmonds é cuidadoso com o que isso implica – e o que não implica.
“A IA verificável não explica como um modelo raciocina nem garante a veracidade dos seus resultados”, disse ela. Mas pode “ancorar fluxos de trabalho a conjuntos de dados com proveniência, integridade e disponibilidade comprováveis”. Em vez de confiar nas reivindicações dos fornecedores, explicou ela, as equipes podem apontar para um registro criptográfico de quais dados estavam disponíveis e autorizados. Quando os dados são armazenados com identificadores derivados de conteúdo, cada modificação produz uma versão nova e rastreável, permitindo que partes independentes confirmem quais entradas foram usadas e como foram tratadas.
Esta distinção é crucial. Verificabilidade não significa prometer resultados perfeitos. Trata-se de tornar o ciclo de vida dos dados – como eles foram armazenados, acessados e modificados – transparente e auditável. E à medida que os sistemas de IA avançam para ambientes regulamentados ou de alto risco, esta transparência torna-se cada vez mais importante.
“As finanças são um caso de uso urgente”, disse Simmonds, onde “pequenos erros de dados” podem se transformar em perdas reais graças a pipelines de dados opacos. “Ser capaz de provar a proveniência e a integridade dos dados nesses pipelines é um passo significativo em direção ao tipo de confiança que esses sistemas exigem”, disse ela, acrescentando que “não se limita às finanças. Qualquer domínio onde as decisões têm consequências – saúde, jurídicas – se beneficia de uma infraestrutura que pode mostrar quais dados estavam disponíveis e autorizados”.
Um ponto de partida prático
Para equipes interessadas em experimentar infraestruturas verificáveis, Simmonds sugere começar com a camada de dados como um “primeiro passo”, em vez de tentar uma revisão geral.
“Muitas implantações de IA dependem de armazenamento centralizado que é realmente difícil para as partes interessadas externas auditarem de forma independente”, disse ela. “Ao mover conjuntos de dados críticos para armazenamento endereçado a conteúdo como o Walrus, as organizações podem estabelecer a proveniência e a disponibilidade verificáveis dos dados – que é a base sobre a qual todo o resto se baseia.”
No próximo ano, um dos focos da Walrus é ampliar o número de parceiros e construtores na plataforma. “Algumas das coisas mais interessantes são o que estamos vendo os desenvolvedores construir – desde sistemas descentralizados de memória de agentes de IA até novas ferramentas para prototipagem e publicação em infraestrutura verificável”, disse ela. “De muitas maneiras, a comunidade está liderando o ataque, organicamente”.
“Vemos o Walrus como a camada de dados em uma pilha de IA muito maior”, acrescentou Simmonds. “Não estamos tentando ser a resposta completa – estamos construindo a base verificável da qual o resto da pilha depende. Quando essa camada está correta, novos tipos de fluxos de trabalho de IA se tornam possíveis.”
Resumo Diário Boletim informativo
Comece cada dia com as principais notícias do momento, além de recursos originais, podcast, vídeos e muito mais.