Para a maioria dos usuários da web, IA generativa é IA. Grandes Modelos de Linguagem (LLMs) como GPT e Claude são os de fato porta de entrada para a inteligência artificial e as infinitas possibilidades que ela tem a oferecer. Depois de dominar nossa sintaxe e remixar nossos memes, os LLMs capturaram a imaginação do público.

Eles são fáceis de usar e divertidos. E – deixando de lado a estranha alucinação – eles são inteligentes. Mas enquanto o público brinca com seu sabor favorito de LLM, aqueles que vivem, respiram e dormem com IA – pesquisadores, chefes de tecnologia, desenvolvedores – estão focados em coisas maiores. Isso ocorre porque o objetivo final dos máximos de IA é a inteligência artificial geral (AGI). Esse é o fim do jogo.

Para os profissionais, os LLMs são um espetáculo à parte. Divertido e eminentemente útil, mas, em última análise, ‘IA estreita’. Eles são bons no que fazem porque foram treinados em conjuntos de dados específicos, mas são incapazes de se desviar do caminho e tentar resolver problemas maiores.

Os retornos decrescentes e as limitações inerentes aos modelos de aprendizagem profunda estão a levar à exploração de soluções mais inteligentes, capazes de cognição real. Modelos que ficam em algum lugar entre o LLM e o AGI. Um sistema que se enquadra nessa categoria – mais inteligente que um LLM e uma amostra da IA ​​do futuro – é o OpenCog Hyperon, uma estrutura de código aberto desenvolvida pela SingularityNET.

Com sua abordagem “neural-simbólica”, o Hyperon foi projetado para preencher a lacuna entre a correspondência estatística de padrões e o raciocínio lógico, oferecendo um roteiro que une os pontos entre os chatbots de hoje e as infinitas máquinas pensantes de amanhã.

Arquitetura híbrida para AGI

SingularityNET posicionou o OpenCog Hyperon como uma plataforma de pesquisa AGI de próxima geração que integra vários modelos de IA em uma arquitetura cognitiva unificada. Ao contrário dos sistemas centrados em LLM, o Hyperon é construído em torno da integração neural-simbólica na qual a IA pode aprender com os dados e raciocinar sobre o conhecimento.

Isso ocorre porque com a IA neural-simbólica, os componentes de aprendizagem neural e os mecanismos de raciocínio simbólico estão interligados para que um possa informar e aprimorar o outro. Isto supera uma das principais limitações dos modelos puramente estatísticos, incorporando processos de raciocínio estruturados e interpretáveis.

Em sua essência, o OpenCog Hyperon combina lógica probabilística e raciocínio simbólico com síntese evolutiva de programas e aprendizagem multiagente. São muitos termos para entender, então vamos tentar explicar como tudo isso funciona na prática. Para entender o OpenCog Hyperon – e especificamente por que a IA neural-simbólica é tão importante – precisamos entender como os LLMs funcionam e onde eles falham.

Os limites dos LLMs

A IA generativa opera principalmente em associações probabilísticas. Quando um LLM responde a uma pergunta, ele não “sabe” a resposta da mesma forma que um ser humano sabe instintivamente. Em vez disso, ele calcula a sequência de palavras mais provável para seguir o prompt com base nos dados de treinamento. Na maioria das vezes, esta “personificação de uma pessoa” surge de forma muito convincente, proporcionando ao utilizador humano não apenas o resultado que espera, mas também um resultado que seja correto.

Os LLMs são especializados em reconhecimento de padrões em escala industrial e são muito bons nisso. Mas as limitações destes modelos estão bem documentadas. Há a alucinação, é claro, que já mencionamos, onde são apresentadas informações que parecem plausíveis, mas factualmente incorretas. Nada é mais difícil do que um LLM ansioso para agradar seu mestre.

Mas um problema maior, especialmente quando você entra na resolução de problemas mais complexos, é a falta de raciocínio. Os LLMs não são adeptos da dedução lógica de novas verdades a partir de fatos estabelecidos se esses padrões específicos não estivessem no conjunto de treinamento. Se já viram o padrão antes, podem prever sua aparência novamente. Se não o fizerem, eles baterão em uma parede.

AGI, em comparação, descreve a inteligência artificial que pode genuinamente compreender e aplicar o conhecimento. Ele não apenas adivinha a resposta certa com um alto grau de certeza – ele sabe disso e tem o trabalho para apoiá-lo. Naturalmente, esta capacidade exige competências de raciocínio explícito e gestão de memória – para não mencionar a capacidade de generalizar quando dados dados limitados. É por isso que a AGI ainda está um pouco distante – o quão longe depende de qual humano (ou LLM) você pergunta.

Mas, entretanto, quer a AGI esteja a meses, anos ou décadas de distância, temos a IA neural-simbólica, que tem o potencial de colocar o seu LLM na sombra.

Conhecimento dinâmico sob demanda

Para entender a IA neural-simbólica em ação, vamos voltar ao OpenCog Hyperon. Em seu cerne está o Atomspace Metagraph, uma estrutura gráfica flexível que representa diversas formas de conhecimento, incluindo declarativo, processual, sensorial e direcionado a objetivos, todos contidos em um único substrato. O metagráfico pode codificar relacionamentos e estruturas de maneiras que apoiam não apenas a inferência, mas também a dedução lógica e o raciocínio contextual.

Se isso parece muito com AGI, é porque é. ‘Diet AGI’, se você preferir, fornece uma amostra do próximo destino da inteligência artificial. Para que os desenvolvedores possam construir com o Atomspace Metagraph e usar seu poder expressivo, a Hyperon criou o MeTTa (Meta Type Talk), uma nova linguagem de programação projetada especificamente para o desenvolvimento de AGI.

Ao contrário de linguagens de uso geral como Python, MeTTa é um substrato cognitivo que combina elementos de lógica e programação probabilística. Os programas em MeTTa operam diretamente no metagráfico, consultando e reescrevendo estruturas de conhecimento e suportando código automodificável, o que é essencial para sistemas que aprendem como se aprimorar.

Raciocínio robusto como porta de entrada para AGI

A abordagem neural-simbólica no cerne do Hyperon aborda uma limitação importante da IA ​​puramente estatística, nomeadamente que os modelos estreitos lutam com tarefas que exigem raciocínio em várias etapas. Problemas abstratos confundem os LLMs com seu puro reconhecimento de padrões. Adicione o aprendizado neural à mistura, entretanto, e o raciocínio se tornará mais inteligente e mais humano. Se a IA estreita faz uma boa representação de uma pessoa, a IA neural-simbólica faz uma representação estranha.

Dito isto, é importante contextualizar a IA neural-simbólica. O design híbrido do Hyperon não significa que um avanço AGI seja iminente. Mas representa uma direção de pesquisa promissora que aborda explicitamente a representação cognitiva e a aprendizagem autodirigida, não dependendo apenas da correspondência estatística de padrões. E no aqui e agora, esse conceito não está restrito a algum grande documento técnico – ele está disponível e sendo usado ativamente para criar soluções poderosas.

O LLM não está morto – a IA estreita continuará a melhorar – mas os seus dias estão contados e a sua obsolescência é inevitável. É apenas uma questão de tempo. Primeira IA neural-simbólica. Então, esperançosamente, AGI – o chefe final da inteligência artificial.

Fonte da imagem: Depositphotos



Fontesartificialintelligence

By AI News

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *