Os modelos de IA estão se tornando mais poderosos, mas os dados nos quais eles são treinados estão piorando, diz o fundador da Intuition, Billy Luedtke.

Resumo

  • A IA é tão boa quanto os dados que alimentamos, diz Billy Luedtke, fundador da Intuition
  • Estamos em uma era “desleixada”, à medida que a IA se torna recursiva
  • Modelos descentralizados têm vantagem em tecnologia e experiência do usuário

À medida que os sistemas de IA se tornam mais difundidos, os utilizadores enfrentam cada vez mais limitações que são difíceis de corrigir. Embora os modelos melhorem, os dados subjacentes nos quais esses modelos são treinados permanecem os mesmos. Além do mais, a recursão ou o treinamento de modelos de IA em dados gerados por outra IA podem, na verdade, piorar a situação.

Para falar sobre o futuro da IA, crypto.news conversou com Billy Luedtke, fundador da Intuition, um protocolo descentralizado focado em trazer atribuição, reputação e propriedade de dados verificáveis ​​para a IA. Luedtke explica por que os conjuntos de dados atuais para IA são fundamentalmente falhos e o que pode ser feito para corrigi-los.

Crypto.news: Todos agora estão focados na infraestrutura de IA – GPUs, energia, data centers. As pessoas estão subestimando a importância da camada de confiança na IA? Por que isso é importante?

Billy Luedtke: 100%. As pessoas estão definitivamente subestimando isso – e isso é importante por vários motivos.

Primeiro, estamos entrando no que chamo de era do “slop-in, slop-out”. A IA é tão boa quanto os dados que consome. Mas esses dados – especialmente os provenientes da web aberta – estão amplamente poluídos. Não está limpo. Não reflete a intenção humana. Muito disso vem do comportamento gamificado online: curtidas, avaliações, hacks de engajamento – tudo filtrado por algoritmos otimizados para atenção.

Portanto, quando a IA invade a Internet, o que ela vê não é uma imagem holística de quem somos. É ver gente jogando na plataforma. Não me comporto no Twitter da mesma maneira que na vida real. Nenhum de nós sabe. Estamos otimizando o algoritmo – não expressando pensamentos genuínos.

É recursivo também. As plataformas nos treinam e nós alimentamos de volta mais comportamentos distorcidos. Isso cria um ciclo de feedback – uma espiral – que distorce ainda mais a percepção da humanidade pela IA. Não estamos ensinando o que pensamos; estamos ensinando o que achamos que ganhará curtidas.

O usuário médio não está pesquisando no Google, comparando fontes ou pensando criticamente. Eles estão apenas perguntando ao ChatGPT ou outro modelo e aceitando a resposta pelo valor nominal.

Isso é perigoso. Se o modelo for opaco – uma caixa preta – e a empresa que o controla também controlar quais informações são mostradas ou não, então isso é controle narrativo total. É centralizado, irresponsável e extremamente poderoso.

Imagine pedir a Grok o melhor podcast e a resposta será quem pagou mais a Elon. Isso não é inteligência – é apenas publicidade disfarçada.

CN: Então, como podemos consertar isso? Como construímos sistemas que priorizam a verdade e o valor em vez do envolvimento?

BL: Precisamos inverter os incentivos. Estes sistemas devem servir as pessoas – não as instituições, nem os accionistas, nem os anunciantes. Isso significa construir uma nova camada para a Internet: identidade e reputação primitivas. É isso que estamos fazendo na Intuition.

Precisamos de atribuição verificável: quem disse o quê, quando e em que contexto. E precisamos de uma reputação portátil e descentralizada que ajude a determinar o quanto podemos confiar em qualquer fonte de dados – não com base na vibração, mas no histórico contextual real.

Reddit é um exemplo perfeito. É uma das maiores fontes de dados de treinamento para modelos. Mas se um usuário disser sarcasticamente: “Apenas se mate”, isso pode ser ignorado e aparecer na recomendação de uma modelo para alguém que pede aconselhamento médico.

Isso é horrível – e é o que acontece quando os modelos não têm contexto, atribuição ou ponderação de reputação. Precisamos saber: esta pessoa é confiável na medicina? Eles são respeitáveis ​​em finanças? Esta é uma fonte confiável ou apenas mais um comentário aleatório?

CN: Quando você fala sobre atribuição e reputação, esses dados precisam ser armazenados em algum lugar. O que você pensa sobre isso em termos de infraestrutura – especialmente em questões como direitos autorais e compensação?

BL: É exatamente isso que estamos resolvendo na Intuition. Depois de ter primitivas de atribuição verificáveis, você saberá quem criou quais dados. Isso permite a propriedade tokenizada do conhecimento – e com isso, a compensação.

Portanto, em vez de seus dados residirem nos servidores do Google ou nas APIs da OpenAI, eles residem em um gráfico de conhecimento descentralizado. Todos são donos daquilo com que contribuem. Quando seus dados são percorridos ou usados ​​em uma saída de IA, você obtém uma parte do valor que eles geram.

Isso importa porque neste momento somos servos digitais. Gastamos nossos recursos mais valiosos – tempo, atenção e criatividade – gerando dados que outra pessoa monetiza. O YouTube não tem valor porque hospeda vídeos; é valioso porque as pessoas fazem a curadoria dele. Sem curtidas, comentários ou inscrições, o YouTube não vale nada.

Portanto, queremos um mundo onde todos possam lucrar com o valor que geram – mesmo que você não seja um influenciador ou extrovertido. Se você está sempre cedo para encontrar novos artistas, por exemplo, seu gosto tem valor. Você deve ser capaz de construir uma reputação em torno disso e monetizá-la.

CN: Mas mesmo que consigamos transparência, estes modelos ainda são muito difíceis de interpretar. A própria OpenAI não consegue explicar completamente como seus modelos tomam decisões. O que acontece então?

BL: Ótimo ponto. Não podemos interpretar completamente o comportamento do modelo – eles são muito complexos. Mas o que podemos controlar são os dados de treinamento. Essa é a nossa alavanca.

Vou dar um exemplo: ouvi falar de um trabalho de pesquisa em que uma IA era obcecada por corujas e outra era ótima em matemática. Eles só treinaram juntos em tarefas relacionadas à matemática. Mas no final, a IA matemática também começou a amar as corujas – apenas por absorver o padrão da outra.

É uma loucura como esses padrões são subliminares e sutis. Portanto, a única defesa real é a intenção. Precisamos ser deliberados sobre quais dados alimentamos esses modelos. Precisamos “nos curar”, de certa forma, para aparecer online de uma forma mais autêntica e construtiva. Porque a IA sempre refletirá os valores e distorções dos seus criadores.

CN: Vamos conversar sobre negócios. OpenAI está queimando dinheiro. Sua infraestrutura é extremamente cara. Como pode um sistema descentralizado como o Intuition competir – financeira e tecnicamente?

BL: Temos duas vantagens principais: composição e coordenação.

Ecossistemas descentralizados – especialmente em criptografia – são incrivelmente bons em coordenação. Temos equipes globais distribuídas, todas trabalhando em diferentes componentes do mesmo problema maior. Em vez de uma empresa queimar bilhões lutando contra o mundo, temos centenas de colaboradores alinhados construindo ferramentas interoperáveis.

É como um mosaico. Uma equipe trabalha na reputação do agente, outra no armazenamento descentralizado, outra nas primitivas de identidade – e podemos unir tudo isso.

Esse é o superpoder.

A segunda vantagem é a experiência do usuário. OpenAI está preso em seu fosso. Eles não podem permitir que você transfira seu contexto do ChatGPT para Grok ou Anthropic – isso prejudicaria sua defesa. Mas não nos importamos com o aprisionamento do fornecedor.

Em nosso sistema, você poderá possuir seu contexto, levá-lo com você e conectá-lo a qualquer agente que desejar. Isso contribui para uma experiência melhor. As pessoas vão escolher isso.

NC: E os custos de infraestrutura? Executar modelos grandes é extremamente caro. Você vê um mundo onde modelos menores rodam localmente?

BL: Sim, 100%. Na verdade, acho que é para lá que estamos indo — em direção a muitos modelos pequenos executados localmente, conectados como neurônios em um enxame distribuído.

Em vez de um grande data center monolítico, você tem bilhões de dispositivos de consumo contribuindo com computação. Se pudermos coordená-los – que é a excelência da criptografia – isso se tornará uma arquitetura superior.

E é por isso que também estamos construindo camadas de reputação dos agentes. As solicitações podem ser encaminhadas para o agente especializado certo para o trabalho. Você não precisa de um modelo enorme para fazer tudo. Você só precisa de um sistema inteligente para roteamento de tarefas, como uma camada de API entre milhões de agentes.

CN: E quanto ao determinismo? LLMs não são ótimos para tarefas como matemática, nas quais você deseja respostas exatas. Podemos combinar código determinístico com IA?

BL: Isso é o que eu quero. Precisamos trazer de volta o determinismo ao circuito.

Começamos com o raciocínio simbólico – totalmente determinístico – e depois avançamos fortemente para o aprendizado profundo, que é não determinístico. Isso nos deu a explosão que estamos vendo agora. Mas o futuro é neurosimbólico – combinando o melhor de ambos.

Deixe a IA lidar com o raciocínio confuso. Mas também deixe que ele acione módulos determinísticos — scripts, funções, mecanismos lógicos — onde você precisar de precisão. Pense: “Qual dos meus amigos gosta deste restaurante?” Isso deve ser 100% determinístico.

CN: Diminuindo o zoom: vimos empresas integrarem IA em suas operações. Mas os resultados foram mistos. Você acha que a geração atual de LLMs realmente aumenta a produtividade?

BL: Absolutamente. A singularidade já está aqui – está apenas distribuída de forma desigual.

Se você não usa IA em seu fluxo de trabalho, especialmente para código ou conteúdo, você está trabalhando em uma fração da velocidade dos outros. A tecnologia é real e os ganhos de eficiência são enormes. A interrupção já aconteceu. As pessoas simplesmente ainda não perceberam isso completamente.

CN: Pergunta final. Muitas pessoas estão dizendo que isso é uma bolha. O capital de risco está secando. OpenAI está queimando dinheiro. A Nvidia está financiando seus próprios clientes. Como isso termina?

BL: Sim, há uma bolha – mas a tecnologia é real. Cada bolha estoura, mas o que resta depois são as tecnologias fundamentais. A IA será uma delas. O dinheiro idiota – todos aqueles aplicativos empacotados sem nenhuma inovação real – está sendo desperdiçado. Mas equipes de infraestrutura profunda? Eles sobreviverão.

Na verdade, isto poderia acontecer de duas maneiras: obtemos uma correção suave e voltamos à realidade, mas o progresso continua. Ou os ganhos de produtividade são tão imensos que a IA se torna uma força deflacionária na economia. O PIB poderia ser 10x ou 100x em capacidade de produção. Se isso acontecer, o gasto valeu a pena – subimos de nível como sociedade.

De qualquer forma, estou otimista. Haverá caos e deslocamento de empregos, sim – mas também o potencial para um mundo abundante e pós-escassez se construirmos as bases certas.

Fontecrypto.news

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *