Are SLMs the future of AI? Nvidia researchers think so. Here's why - 1

Especialistas da NVIDIA afirmam que os pequenos modelos de idiomas (SLMs) são essenciais para o futuro do setor de inteligência artificial (AI).

No entanto, a maioria dos investimentos ainda está sendo transformada em grandes modelos de idiomas (LLMS). Se essa situação persistir, a indústria pode desacelerar e posteriormente prejudicar a economia dos EUA.

Resumo

  • A maioria dos investidores de IA é atraída por empresas que trabalham em produtos baseados em LLM.
  • Os agentes SLM são mais baratos e geralmente mais eficientes para tarefas específicas que o LLMS.
  • A NVIDIA chama SLMs o futuro da IA ​​e exorta as empresas a trabalharem com modelos menores.

SLMS vs. LLMS

Os SLMs são treinados em até 40 bilhões de parâmetros, destacando -se em um conjunto estreito de tarefas especificadas, consumindo significativamente menos recursos. Em outras palavras, eles são mais baratos.

Os LLMs são caros. Em abril, o CEO da Openai, Sam Altman, disse que o principal produto de sua empresa, ChatGPT, custa dezenas de milhões de dólares quando os usuários dizem “por favor” e “Obrigado. Isso dá uma pista ao custo do LLMS. É aí que o SLMS roubou o programa, pois eles não exigem data centers caros para concluir as tarefas.

O SLMS, por exemplo, pode servir como chatbots de suporte ao cliente e não precisa aprender muito sobre uma variedade de tópicos.

De acordo com um artigo de pesquisa da NVIDIA divulgado em junho, os agentes da SLM são o futuro da IA, não os agentes da LLM:

“… os pequenos modelos de idiomas (SLMs) são suficientemente poderosos, inerentemente mais adequados e necessariamente mais econômicos para muitas invocações em sistemas agênticos e, portanto, são o futuro da IA ​​agêntica”.

Os LLMs também ajudam a treinar SLMs para que não precisem absorver todos os dados do zero. Eles aprendem com modelos grandes com eficiência e rapidez e se tornam quase tão bons em resolver tarefas específicas sem ter que gastar muitos recursos.

Os menores modelos de idiomas são treinados em um bilhão de parâmetros e podem operar em CPUs regulares.

As empresas não precisam de seres humanos virtuais com conhecimento enciclopédico. Em vez disso, eles precisam de ferramentas que resolvem certas tarefas de maneira rápida e precisamente.

É por isso que agentes baratos de SLM são investimentos muito mais lucrativos do que o LLMS. Notavelmente, o GPT-5 usa vários modelos, incluindo pequenos, dependendo de tarefas específicas.

O que acontece se um setor de IA for necessário um revés?

As empresas de criptografia e blockchain estão cada vez mais alavancando o LLMS para otimizar as operações e aprimorar a tomada de decisões. Plataformas defi como o Zignaly Use LLMs para resumir as negociações e gerenciar informações de investimento social, enquanto empresas de infraestrutura como Platonic e Network3 os empregam para apoiar os desenvolvedores e otimizar os fluxos de trabalho na cadeia.

As empresas comerciais também estão combinando LLMs com outras ferramentas de IA para inteligência de mercado e análise preditiva.

Mas os maiores projetos são os gêmeos do Google, o GPT do Openai, o Anthropic’s Claude e o Xai’s Grok. Cada um requer data centers enormes (muita eletricidade) e uma tonelada de capital.

O setor de IA nos EUA levantou US $ 109 bilhões em investimentos apenas em 2024. Este ano, as empresas americanas de IA já gastaram US $ 400 bilhões em infraestrutura. Em agosto, foi relatado que o Openai está buscando vender US $ 500 bilhões em suas ações. De acordo com as folhas de Andrew de Morgan Stanley, as empresas de IA podem gastar US $ 3 trilhões em data centers até 2029.

De acordo com a IDC Research, até 2030, cada dólar gasto em soluções de negócios baseado em IA trará US $ 4,6 para a economia global.

No entanto, um problema permanece. Se não houver data centers suficientes, pode ter um impacto substancial na economia e assustar grandes investidores. Depois que os investidores reduzem suas alocações nas empresas de IA, os gastos diminuirão.

A desaceleração das empresas de IA que usam LLMs pode ser causada por fatores como suprimentos de eletricidade problemáticos, altas taxas de juros, uma guerra comercial e uma crescente demanda por SLMs, entre outros motivos.

O que é pior, alguns observam que a inflação dos data centers cria uma bolha, e não é tão adorável quanto a era dos pontocom que ajudou a impulsionar a Internet a novos máximos. O problema com os data centers é que eles usam chips que acabarão se tornando obsoletos.

Levará apenas alguns anos. Assim, embora esses chips sejam caros, eles não serão reutilizados para outros fins.

Como evitar o colapso

Para evitar o colapso, os pesquisadores da NVIDIA recomendam que as empresas de IA optem por usar o SLMS e aumentar a especialização de agentes SLM.

Essa abordagem ajudará a economizar recursos e aumentar a eficiência e a competitividade.

Os pesquisadores sugerem que a criação de sistemas de agentes modulares ajudará a manter a flexibilidade e usar o LLMS apenas para raciocínio complexo.

Fontecrypto.news

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *