<span class="image__credit--f62c527bbdd8413eb6b6fa545d044c69">Stephanie Arnett/MIT Technology Review | Adobe Stock</span>

“À medida que esses sistemas de IA se tornam mais poderosos, eles serão cada vez mais integrados em domínios muito importantes”, disse Leo Gao, cientista pesquisador da OpenAI. Revisão de tecnologia do MIT em uma prévia exclusiva do novo trabalho. “É muito importante garantir que eles estejam seguros.”

Esta ainda é uma pesquisa inicial. O novo modelo, chamado de transformador de peso escasso, é muito menor e muito menos capaz do que os modelos de mercado de massa de primeira linha, como o GPT-5 da empresa, o Claude da Anthropic e o Gemini do Google DeepMind. No máximo, é tão capaz quanto o GPT-1, um modelo que a OpenAI desenvolveu em 2018, diz Gao (embora ele e seus colegas não tenham feito uma comparação direta).

Mas o objetivo não é competir com os melhores da categoria (pelo menos ainda não). Em vez disso, ao observar como funciona este modelo experimental, a OpenAI espera aprender sobre os mecanismos ocultos dentro dessas versões maiores e melhores da tecnologia.

É uma pesquisa interessante, diz Elisenda Grigsby, matemática do Boston College que estuda como funcionam os LLMs e que não esteve envolvida no projeto: “Tenho certeza de que os métodos introduzidos terão um impacto significativo”.

Lee Sharkey, cientista pesquisador da startup de IA Goodfire, concorda. “Este trabalho visa o alvo certo e parece bem executado”, diz ele.

Por que os modelos são tão difíceis de entender

O trabalho da OpenAI faz parte de um novo campo de pesquisa conhecido como interpretabilidade mecanicista, que tenta mapear os mecanismos internos que os modelos usam quando realizam diferentes tarefas.

Isso é mais difícil do que parece. Os LLMs são construídos a partir de redes neurais, que consistem em nós, chamados neurônios, dispostos em camadas. Na maioria das redes, cada neurônio está conectado a todos os outros neurônios em suas camadas adjacentes. Essa rede é conhecida como rede densa.

Redes densas são relativamente eficientes para treinar e operar, mas espalham o que aprendem por um vasto nó de conexões. O resultado é que conceitos ou funções simples podem ser divididos entre neurônios em diferentes partes de um modelo. Ao mesmo tempo, neurônios específicos também podem acabar representando múltiplas características diferentes, um fenômeno conhecido como superposição (um termo emprestado da física quântica). O resultado é que não é possível relacionar partes específicas de um modelo a conceitos específicos.

technologyreview

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *