Source: Decrypt

Em resumo

  • A DeepMind avisa que as economias do agente da IA ​​podem emergir espontaneamente e atrapalhar os mercados.
  • Os riscos incluem acidentes sistêmicos, monopolização e maior desigualdade.
  • Os pesquisadores pedem design proativo: justiça, leilões e “economias da missão”.

Sem intervenção urgente, estamos prestes a criar um futuro distópico administrado por economias invisíveis e autônomas da IA ​​que amplificarão a desigualdade e o risco sistêmico. Esse é o aviso gritante do Google DeepMind pesquisadores em seu novo artigo, “Economias de agentes virtuais”.

No artigo, os pesquisadores Nenad Tomašev e Matija Franklin argumentam que estamos se arrastando para a criação de uma “economia da caixa de areia”. Essa nova camada econômica contará com agentes de IA transacionando e coordenando a velocidades e escalas muito além da supervisão humana.

“Nossa trajetória atual aponta para um surgimento espontâneo de uma vasta e altamente permeável economia de agentes de IA, apresentando -nos oportunidades para um grau de coordenação sem precedentes, além de desafios significativos, incluindo riscos econômicos sistêmicos e desigualdade exacerbada”, escreveram eles.

Os perigos do comércio agêntico

Este não é um futuro hipotético e distante. Os perigos já são visíveis no mundo de Negociação algorítmica orientada a IAonde o comportamento correlacionado dos algoritmos de negociação pode levar a “acidentes com flash, efeitos de pastoreio e secas de liquidez”.

A velocidade e a interconectividade desses modelos de IA significam que pequenas ineficiências de mercado podem rapidamente espiralar em crises de liquidez completas, demonstrando os riscos muito sistêmicos contra os quais os pesquisadores de mindos estão advertindo.

Tomašev e Franklin enquadram a próxima era das economias de agentes ao longo de dois eixos críticos: sua origem (projetada intencionalmente versus espontaneamente emergente) e sua permeabilidade (isolada ou profundamente entrelaçada com a economia humana). O artigo apresenta um perigo claro e presente: se uma economia altamente permeável é permitida simplesmente emergir sem design deliberado, o bem -estar humano será a vítima.

As consequências podem se manifestar em formas já visíveis, como acesso desigual a uma IA poderosa ou de maneiras mais sinistras, como monopolização de recursos, barganha algorítmica opaca e falhas catastróficas do mercado que permanecem invisíveis até que seja tarde demais.

Uma economia de agente “permeável” é aquela que é profundamente conectado à economia humana– Monow, dados e decisões fluem livremente entre os dois. Os usuários humanos podem se beneficiar diretamente (ou perder) das transações de agentes: pense em assistentes de IA comprando mercadorias, negociando créditos energéticos, negociando salários ou gerenciando investimentos em mercados reais. Permeabilidade significa o que acontece na economia do agente derrama na vida humana – potencialmente para o bem (eficiência, coordenação) ou ruim (falha, desigualdade, monopólios).

Por outro lado, uma economia “impermeável” é parado– os agentes podem interagir entre si, mas não diretamente com a economia humana. Você pode observar e talvez até executar experimentos, sem arriscar a riqueza ou a infraestrutura humana. Pense nisso como uma simulação de caixa de areia: é seguro estudar, seguro de falhar.

É por isso que os autores argumentam por dirigir cedo: nós pode construir intencionalmente economias de agentes com algum grau de impermeabilidadepelo menos até confiarmos nas regras, incentivos e sistemas de segurança. Quando as paredes caem, é muito mais difícil conter efeitos em cascata.

A hora de agir é agora, no entanto. A ascensão dos agentes de IA já está inaugurando a transição de uma “economia baseada em tarefas para uma economia baseada em decisões”, onde os agentes não estão apenas executando tarefas, mas fazendo escolhas econômicas autônomas. As empresas estão cada vez mais adotando um Modelo “agente como serviço”onde os agentes de IA são oferecidos como serviços baseados em nuvem com preços em camadas ou são usados ​​para combinar usuários com negócios relevantes, ganhando comissões sobre reservas.

Embora isso crie novos fluxos de receita, ele também apresenta riscos significativos, incluindo dependência da plataforma e o potencial de algumas plataformas poderosas para dominar o mercado, entrincheirando ainda mais a desigualdade.

Hoje, o Google lançou um protocolo de pagamentos projetado para agentes de IA, apoiado por pesos pesados ​​de criptografia como Coinbase e The Ethereum Foundation, juntamente com os pagamentos tradicionais gigantes como PayPal e American Express.

Uma possível solução: alinhamento

Os autores ofereceram um plano para intervenção. Eles propuseram uma abordagem proativa de sandbox para projetar essas novas economias com mecanismos internos para justiça, justiça distributiva e coordenação orientada para a missão.

Uma proposta é nivelar o campo de jogo, concedendo ao agente de AI de cada usuário uma doação inicial e inicial da “moeda do agente virtual”, impedindo que aqueles com mais poder de computação ou dados obtenham uma vantagem imediata e não merecida.

“Se cada usuário recebesse o mesmo valor inicial da moeda do agente virtual, isso forneceria seus respectivos representantes de agentes de IA com compras iguais e poder de negociação”, escreveram os pesquisadores.

Eles também detalham como os princípios da justiça distributiva, inspirados no filósofo Ronald Dworkin, podem ser usados ​​para criar mecanismos de leilão para alocar recursos escassos bastante alocados. Além disso, eles imaginam “economias de missão” que poderiam orientar os enxames de agentes a objetivos coletivos e centrados no ser humano, em vez de apenas lucro ou eficiência cega.

Os pesquisadores do DeepMind não são ingênuos sobre os imensos desafios. Eles enfatizam a fragilidade de garantir confiança, segurança e responsabilidade nesses sistemas complexos e autônomos. As perguntas abertas aparecem em domínios técnicos, legais e sociopolíticos, incluindo interações híbridas de AI humano, responsabilidade legal por ações do agente e verificar o comportamento do agente.

É por isso que eles insistem que o “design proativo de mercados de agentes direcionados” é não negociável se essa profunda mudança tecnológica estiver “alinhada com o florescimento coletivo de longo prazo da humanidade”.

A mensagem de DeepMind é inequívoca: estamos em um garfo na estrada. Podemos ser os arquitetos das economias de IA construídas sobre justiça e valores humanos, ou podemos ser espectadores passivos para o nascimento de um sistema em que a vantagem se agrava invisivelmente, o risco se torna sistêmico e a desigualdade é codificada na própria infraestrutura de nosso futuro.

Geralmente inteligente Boletim informativo

Uma jornada semanal de IA narrada por Gen, um modelo generativo de IA.

Fontedecrypt

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *