Divulgação: As opiniões e pontos de vista aqui expressos pertencem exclusivamente ao autor e não representam os pontos de vista e opiniões do editorial do crypto.news.
A maioria das pesquisas de alinhamento de IA concentra-se no alinhamento das IAs com seus implantadores humanos: ensinando os agentes a inferir, seguir ou adiar nossas preferências. Mas à medida que cresce a adopção da IA, estamos a avançar para um cenário diferente: redes de agentes que actuam em nome de pessoas e organizações, licitando, prevendo, programando, negociando e competindo entre si.
Resumo
- O alinhamento da IA está a mudar do ensino de modelos únicos para seguir as preferências humanas para a gestão de redes de agentes que agem, negociam e competem em nome de humanos e organizações.
- O verdadeiro desafio é coordenar agentes parcialmente confiáveis sob pressões do mundo real, como conluio e parasitismo. As ferramentas testadas em batalha da Web3 – staking, leilões, provas de fraude e design de incentivos – oferecem modelos práticos para resolver esses problemas de coordenação.
- Alinhar os futuros sistemas de IA significa conceber estruturas de incentivos, e não modelos perfeitos. Ao incorporar a verificação e as recompensas diretamente nas interações dos agentes, a cooperação e a divulgação da verdade podem surgir naturalmente – uma lição tirada dos ambientes adversários da web3.
Essa mudança introduz um problema tão difícil como o alinhamento clássico: alinhar estes agentes uns com os outros e com o bem colectivo. Este é o domínio da IA cooperativa: fazer com que agentes heterogêneos e parcialmente confiáveis se coordenem sob escassez, incerteza e a constante tentação de desertar.
Este não é um desafio teórico. No momento em que os agentes são postos a trabalhar em actividades economicamente valiosas, tornam-se parte de sistemas onde o parasitismo, o conluio e a opacidade estratégica compensam. Tratar a coordenação como uma reflexão tardia sobre a governação é a forma como o risco sistémico se acumula.
A comunidade web3 passou uma década estudando precisamente esta classe de problemas. Pressupõe que, por defeito, o mundo está cheio de adversários criativos dispostos a minar o sistema em benefício próprio. A resposta a esta ameaça na web3 é o design do mecanismo: staking, leilões, commit-reveal, provas de fraude e pontos Schelling.
É hora da comunidade de IA e dos construtores web3 colaborarem. Se a IA cooperativa for aplicada ao design de mecanismos, então os primitivos testados em batalha do web3 serão as ferramentas ideais para coordenar grandes redes de agentes. O objetivo não é combinar criptografia e IA pela novidade, mas fazer com que os incentivos e a verificação sejam o padrão para as interações dos agentes.
O risco real não é uma IA desonesta, é uma falha de coordenação
Quando as IAs interagem, o cenário catastrófico parece menos com um único modelo “descontrolado” e mais com falhas de coordenação que deveriam ser familiares a qualquer pesquisador da web3: aproveitadores que consomem recursos compartilhados, conluio silencioso entre membros, ruído que abafa sinais úteis e comportamento bizantino quando os incentivos mudam. Nada disso é cinematográfico. Tudo isso é caro.
Do ponto de vista da pesquisa em IA, esses problemas são difíceis de resolver em laboratório. É genuinamente difícil simular comportamentos de interesse próprio em ambientes controlados: os humanos e as IA são imprevisíveis, as preferências mudam e os agentes em sandbox são muitas vezes demasiado cooperativos para sobrecarregar o sistema.
Por outro lado, os mecanismos web3 foram testados com adversários reais e dinheiro real. Os construtores que enviam em cadeia pensam em termos de compromissos, garantias e verificabilidade porque assumem uma base mais dura do que a IA cooperativa: os participantes são maquinadores com um incentivo para extrair valor às custas dos outros. Uma abordagem pessimista, talvez, mas muito útil, especialmente ao implantar agentes em liberdade. Pegue qualquer protocolo web3, substitua “validador”, “nó” ou “adversário” por “agente de IA” e grande parte do raciocínio é transferido.
Um exemplo concreto: emissões que tornam o insight legível
Por exemplo, como parte do meu trabalho de pesquisa, estou construindo uma sub-rede Torus para realizar previsões criteriosas, ou seja, prever um evento e incluir o raciocínio e as hipóteses por trás da previsão. Para atingir esse objetivo, vários agentes precisam fornecer dados, extrair recursos, processar sinais e realizar a análise final. No entanto, para saber quais componentes do sistema priorizar, precisei resolver o problema de atribuição de crédito, um problema de governança notoriamente difícil na IA cooperativa: quem contribuiu mais para uma determinada previsão?
A solução, que pode parecer óbvia para os nativos da web3, foi tornar a atribuição de crédito parte do trabalho dos agentes. Os agentes de alto nível, responsáveis por fazer a previsão final, são recompensados com base em uma pontuação baseada em Kelly (em termos leigos, uma forma de medir a precisão de uma previsão). Esses agentes recebem emissões simbólicas com base no seu desempenho, com melhores previsões levando a mais emissões. De forma crítica, os agentes de alto nível são responsáveis pela redistribuição das suas emissões a jusante para outros agentes em troca de sinais úteis. Estes agentes intermediários podem distribuir ainda mais as emissões a outros agentes que fornecem informações úteis, e assim por diante.
O incentivo emergente é claro. Um agente de alto nível não ganha nada em conluio; cada unidade mal alocada dilui o desempenho futuro e, portanto, as emissões futuras. A única estratégia vencedora é cultivar colaboradores genuinamente informativos e recompensá-los.
O que torna esta abordagem poderosa é que garantir o alinhamento dos agentes individuais já não é uma preocupação; recompensar o bom comportamento torna-se parte do mecanismo.
Uma agenda compacta para web3 × IA
O que descrevi acima é apenas uma das muitas interseções possíveis entre IA e design de mecanismos. Para acelerar a polinização cruzada entre os campos cooperativos de IA e web3, precisamos de aumentar a taxa a que os seus membros interagem. As comunidades que cercam os padrões de agentes compatíveis com web3 (por exemplo, ERC-8004 e x402) são ótimos pontos de partida, que devem ser nutridos e apoiados. No entanto, são atrativos apenas para investigadores que já estejam familiarizados com ambas as áreas e conscientes do potencial da IA e da descentralização. A oferta de bons investigadores interdisciplinares é limitada, em primeiro lugar, pelo número de investigadores expostos a estas ideias.
A melhor maneira de alcançar essas pessoas é encontrá-las onde elas estão. Por exemplo, as organizações web3 podem propor workshops para os Três Grandes de Aprendizado de Máquina (NeurIPS, ICML, ICLR), e as organizações de IA podem realizar hackathons em Devconnect, ETHDenver, SBC ou outras conferências web3.
A conclusão
Não alinharemos o futuro criando modelos individuais perfeitos; vamos alinhá-lo alinhando as redes das quais fazem parte. A IA cooperativa é um projeto de mecanismo aplicado, e a web3 já mostrou, sob pressão adversária real, como recompensar a verdade, punir o engano e manter a coordenação em escala.
O progresso será mais rápido em ambientes partilhados e conscientes de incentivos, construídos em primitivos interoperáveis que podem abranger cadeias e laboratórios, e numa cultura que normaliza a colaboração entre criadores de criptografia e investigadores académicos de IA. O caminho a seguir para o alinhamento requer a aplicação destes conceitos na prática. Mesmo que isso signifique fazer parceria com aliados improváveis.
Fontecrypto.news




