Especialistas da NVIDIA afirmam que os pequenos modelos de idiomas (SLMs) são essenciais para o futuro do setor de inteligência artificial (AI).
No entanto, a maioria dos investimentos ainda está sendo transformada em grandes modelos de idiomas (LLMS). Se essa situação persistir, a indústria pode desacelerar e posteriormente prejudicar a economia dos EUA.
Resumo
- A maioria dos investidores de IA é atraída por empresas que trabalham em produtos baseados em LLM.
- Os agentes SLM são mais baratos e geralmente mais eficientes para tarefas específicas que o LLMS.
- A NVIDIA chama SLMs o futuro da IA e exorta as empresas a trabalharem com modelos menores.
SLMS vs. LLMS
Os SLMs são treinados em até 40 bilhões de parâmetros, destacando -se em um conjunto estreito de tarefas especificadas, consumindo significativamente menos recursos. Em outras palavras, eles são mais baratos.
Os LLMs são caros. Em abril, o CEO da Openai, Sam Altman, disse que o principal produto de sua empresa, ChatGPT, custa dezenas de milhões de dólares quando os usuários dizem “por favor” e “Obrigado. Isso dá uma pista ao custo do LLMS. É aí que o SLMS roubou o programa, pois eles não exigem data centers caros para concluir as tarefas.
O SLMS, por exemplo, pode servir como chatbots de suporte ao cliente e não precisa aprender muito sobre uma variedade de tópicos.
De acordo com um artigo de pesquisa da NVIDIA divulgado em junho, os agentes da SLM são o futuro da IA, não os agentes da LLM:
“… os pequenos modelos de idiomas (SLMs) são suficientemente poderosos, inerentemente mais adequados e necessariamente mais econômicos para muitas invocações em sistemas agênticos e, portanto, são o futuro da IA agêntica”.
Os LLMs também ajudam a treinar SLMs para que não precisem absorver todos os dados do zero. Eles aprendem com modelos grandes com eficiência e rapidez e se tornam quase tão bons em resolver tarefas específicas sem ter que gastar muitos recursos.
Os menores modelos de idiomas são treinados em um bilhão de parâmetros e podem operar em CPUs regulares.
As empresas não precisam de seres humanos virtuais com conhecimento enciclopédico. Em vez disso, eles precisam de ferramentas que resolvem certas tarefas de maneira rápida e precisamente.
É por isso que agentes baratos de SLM são investimentos muito mais lucrativos do que o LLMS. Notavelmente, o GPT-5 usa vários modelos, incluindo pequenos, dependendo de tarefas específicas.
O que acontece se um setor de IA for necessário um revés?
As empresas de criptografia e blockchain estão cada vez mais alavancando o LLMS para otimizar as operações e aprimorar a tomada de decisões. Plataformas defi como o Zignaly Use LLMs para resumir as negociações e gerenciar informações de investimento social, enquanto empresas de infraestrutura como Platonic e Network3 os empregam para apoiar os desenvolvedores e otimizar os fluxos de trabalho na cadeia.
As empresas comerciais também estão combinando LLMs com outras ferramentas de IA para inteligência de mercado e análise preditiva.
Mas os maiores projetos são os gêmeos do Google, o GPT do Openai, o Anthropic’s Claude e o Xai’s Grok. Cada um requer data centers enormes (muita eletricidade) e uma tonelada de capital.
O setor de IA nos EUA levantou US $ 109 bilhões em investimentos apenas em 2024. Este ano, as empresas americanas de IA já gastaram US $ 400 bilhões em infraestrutura. Em agosto, foi relatado que o Openai está buscando vender US $ 500 bilhões em suas ações. De acordo com as folhas de Andrew de Morgan Stanley, as empresas de IA podem gastar US $ 3 trilhões em data centers até 2029.
De acordo com a IDC Research, até 2030, cada dólar gasto em soluções de negócios baseado em IA trará US $ 4,6 para a economia global.
No entanto, um problema permanece. Se não houver data centers suficientes, pode ter um impacto substancial na economia e assustar grandes investidores. Depois que os investidores reduzem suas alocações nas empresas de IA, os gastos diminuirão.
A desaceleração das empresas de IA que usam LLMs pode ser causada por fatores como suprimentos de eletricidade problemáticos, altas taxas de juros, uma guerra comercial e uma crescente demanda por SLMs, entre outros motivos.
O que é pior, alguns observam que a inflação dos data centers cria uma bolha, e não é tão adorável quanto a era dos pontocom que ajudou a impulsionar a Internet a novos máximos. O problema com os data centers é que eles usam chips que acabarão se tornando obsoletos.
Levará apenas alguns anos. Assim, embora esses chips sejam caros, eles não serão reutilizados para outros fins.
Como evitar o colapso
Para evitar o colapso, os pesquisadores da NVIDIA recomendam que as empresas de IA optem por usar o SLMS e aumentar a especialização de agentes SLM.
Essa abordagem ajudará a economizar recursos e aumentar a eficiência e a competitividade.
Os pesquisadores sugerem que a criação de sistemas de agentes modulares ajudará a manter a flexibilidade e usar o LLMS apenas para raciocínio complexo.
Fontecrypto.news