Para a maioria dos usuários da web, IA generativa é IA. Grandes Modelos de Linguagem (LLMs) como GPT e Claude são os de fato porta de entrada para a inteligência artificial e as infinitas possibilidades que ela tem a oferecer. Depois de dominar nossa sintaxe e remixar nossos memes, os LLMs capturaram a imaginação do público.
Eles são fáceis de usar e divertidos. E – deixando de lado a estranha alucinação – eles são inteligentes. Mas enquanto o público brinca com seu sabor favorito de LLM, aqueles que vivem, respiram e dormem com IA – pesquisadores, chefes de tecnologia, desenvolvedores – estão focados em coisas maiores. Isso ocorre porque o objetivo final dos máximos de IA é a inteligência artificial geral (AGI). Esse é o fim do jogo.
Para os profissionais, os LLMs são um espetáculo à parte. Divertido e eminentemente útil, mas, em última análise, ‘IA estreita’. Eles são bons no que fazem porque foram treinados em conjuntos de dados específicos, mas são incapazes de se desviar do caminho e tentar resolver problemas maiores.
Os retornos decrescentes e as limitações inerentes aos modelos de aprendizagem profunda estão a levar à exploração de soluções mais inteligentes, capazes de cognição real. Modelos que ficam em algum lugar entre o LLM e o AGI. Um sistema que se enquadra nessa categoria – mais inteligente que um LLM e uma amostra da IA do futuro – é o OpenCog Hyperon, uma estrutura de código aberto desenvolvida pela SingularityNET.
Com sua abordagem “neural-simbólica”, o Hyperon foi projetado para preencher a lacuna entre a correspondência estatística de padrões e o raciocínio lógico, oferecendo um roteiro que une os pontos entre os chatbots de hoje e as infinitas máquinas pensantes de amanhã.
Arquitetura híbrida para AGI
SingularityNET posicionou o OpenCog Hyperon como uma plataforma de pesquisa AGI de próxima geração que integra vários modelos de IA em uma arquitetura cognitiva unificada. Ao contrário dos sistemas centrados em LLM, o Hyperon é construído em torno da integração neural-simbólica na qual a IA pode aprender com os dados e raciocinar sobre o conhecimento.
Isso ocorre porque com a IA neural-simbólica, os componentes de aprendizagem neural e os mecanismos de raciocínio simbólico estão interligados para que um possa informar e aprimorar o outro. Isto supera uma das principais limitações dos modelos puramente estatísticos, incorporando processos de raciocínio estruturados e interpretáveis.
Em sua essência, o OpenCog Hyperon combina lógica probabilística e raciocínio simbólico com síntese evolutiva de programas e aprendizagem multiagente. São muitos termos para entender, então vamos tentar explicar como tudo isso funciona na prática. Para entender o OpenCog Hyperon – e especificamente por que a IA neural-simbólica é tão importante – precisamos entender como os LLMs funcionam e onde eles falham.
Os limites dos LLMs
A IA generativa opera principalmente em associações probabilísticas. Quando um LLM responde a uma pergunta, ele não “sabe” a resposta da mesma forma que um ser humano sabe instintivamente. Em vez disso, ele calcula a sequência de palavras mais provável para seguir o prompt com base nos dados de treinamento. Na maioria das vezes, esta “personificação de uma pessoa” surge de forma muito convincente, proporcionando ao utilizador humano não apenas o resultado que espera, mas também um resultado que seja correto.
Os LLMs são especializados em reconhecimento de padrões em escala industrial e são muito bons nisso. Mas as limitações destes modelos estão bem documentadas. Há a alucinação, é claro, que já mencionamos, onde são apresentadas informações que parecem plausíveis, mas factualmente incorretas. Nada é mais difícil do que um LLM ansioso para agradar seu mestre.
Mas um problema maior, especialmente quando você entra na resolução de problemas mais complexos, é a falta de raciocínio. Os LLMs não são adeptos da dedução lógica de novas verdades a partir de fatos estabelecidos se esses padrões específicos não estivessem no conjunto de treinamento. Se já viram o padrão antes, podem prever sua aparência novamente. Se não o fizerem, eles baterão em uma parede.
AGI, em comparação, descreve a inteligência artificial que pode genuinamente compreender e aplicar o conhecimento. Ele não apenas adivinha a resposta certa com um alto grau de certeza – ele sabe disso e tem o trabalho para apoiá-lo. Naturalmente, esta capacidade exige competências de raciocínio explícito e gestão de memória – para não mencionar a capacidade de generalizar quando dados dados limitados. É por isso que a AGI ainda está um pouco distante – o quão longe depende de qual humano (ou LLM) você pergunta.
Mas, entretanto, quer a AGI esteja a meses, anos ou décadas de distância, temos a IA neural-simbólica, que tem o potencial de colocar o seu LLM na sombra.
Conhecimento dinâmico sob demanda
Para entender a IA neural-simbólica em ação, vamos voltar ao OpenCog Hyperon. Em seu cerne está o Atomspace Metagraph, uma estrutura gráfica flexível que representa diversas formas de conhecimento, incluindo declarativo, processual, sensorial e direcionado a objetivos, todos contidos em um único substrato. O metagráfico pode codificar relacionamentos e estruturas de maneiras que apoiam não apenas a inferência, mas também a dedução lógica e o raciocínio contextual.
Se isso parece muito com AGI, é porque é. ‘Diet AGI’, se você preferir, fornece uma amostra do próximo destino da inteligência artificial. Para que os desenvolvedores possam construir com o Atomspace Metagraph e usar seu poder expressivo, a Hyperon criou o MeTTa (Meta Type Talk), uma nova linguagem de programação projetada especificamente para o desenvolvimento de AGI.
Ao contrário de linguagens de uso geral como Python, MeTTa é um substrato cognitivo que combina elementos de lógica e programação probabilística. Os programas em MeTTa operam diretamente no metagráfico, consultando e reescrevendo estruturas de conhecimento e suportando código automodificável, o que é essencial para sistemas que aprendem como se aprimorar.
Raciocínio robusto como porta de entrada para AGI
A abordagem neural-simbólica no cerne do Hyperon aborda uma limitação importante da IA puramente estatística, nomeadamente que os modelos estreitos lutam com tarefas que exigem raciocínio em várias etapas. Problemas abstratos confundem os LLMs com seu puro reconhecimento de padrões. Adicione o aprendizado neural à mistura, entretanto, e o raciocínio se tornará mais inteligente e mais humano. Se a IA estreita faz uma boa representação de uma pessoa, a IA neural-simbólica faz uma representação estranha.
Dito isto, é importante contextualizar a IA neural-simbólica. O design híbrido do Hyperon não significa que um avanço AGI seja iminente. Mas representa uma direção de pesquisa promissora que aborda explicitamente a representação cognitiva e a aprendizagem autodirigida, não dependendo apenas da correspondência estatística de padrões. E no aqui e agora, esse conceito não está restrito a algum grande documento técnico – ele está disponível e sendo usado ativamente para criar soluções poderosas.
O LLM não está morto – a IA estreita continuará a melhorar – mas os seus dias estão contados e a sua obsolescência é inevitável. É apenas uma questão de tempo. Primeira IA neural-simbólica. Então, esperançosamente, AGI – o chefe final da inteligência artificial.
Fonte da imagem: Depositphotos
Fontesartificialintelligence



