<span class="image__credit--f62c527bbdd8413eb6b6fa545d044c69">Stephanie Arnett/MIT Technology Review | Getty Images</span>

Esta história apareceu originalmente em The Algorithm, nosso boletim informativo semanal sobre IA. Para receber histórias como essa em sua caixa de entrada primeiro, inscreva-se aqui.

Numa indústria que não pára, o Índice de IA de Stanford, um resumo anual dos principais resultados e tendências, é uma oportunidade para respirar. (Afinal, é uma maratona, não uma corrida.)

O relatório deste ano, divulgado hoje, está repleto de estatísticas impressionantes. Muito do valor vem de ter números para respaldar os sentimentos que você já pode ter, como a sensação de que os EUA estão se esforçando mais para a IA do que qualquer outro país: eles hospedam 5.427 data centers (e aumentando). Isso é mais de 10 vezes mais que qualquer outro país.

Há também um lembrete de que a cadeia de fornecimento de hardware da qual a indústria de IA depende tem alguns pontos de estrangulamento importantes. Aqui está talvez o fato mais notável: “Uma única empresa, a TSMC, fabrica quase todos os principais chips de IA, tornando a cadeia global de fornecimento de hardware de IA dependente de uma fundição em Taiwan”. Uma fundição! Isso é simplesmente selvagem.

Mas a principal conclusão que tenho do Índice de IA de 2026 é que o estado da IA ​​neste momento está repleto de inconsistências. Como disse hoje a minha colega Michelle Kim no seu artigo sobre o relatório: “Se você está acompanhando as notícias sobre IA, provavelmente está sofrendo uma chicotada. A IA é uma corrida do ouro. A IA é uma bolha. A IA está tomando seu trabalho. A IA nem consegue ler um relógio.” (O relatório de Stanford observa que o principal modelo de raciocínio do Google DeepMind, Gemini Deep Think, conquistou uma medalha de ouro na Olimpíada Internacional de Matemática, mas é incapaz de ler relógios analógicos na metade do tempo.)

Michelle faz um ótimo trabalho ao cobrir os destaques do relatório. Mas eu queria me debruçar sobre uma questão da qual não consigo me livrar. Por que é tão difícil saber exatamente o que está acontecendo na IA neste momento?

A maior lacuna parece ser entre especialistas e não especialistas. “Os especialistas em IA e o público em geral veem a trajetória da tecnologia de forma muito diferente”, escrevem os autores do AI Index. “Avaliando o impacto da IA ​​no emprego, 73% dos especialistas dos EUA são positivos, em comparação com apenas 23% do público, uma diferença de 50 pontos percentuais. Divisas semelhantes surgem no que diz respeito à economia e aos cuidados médicos.”

Isso é um enorme brecha. O que está acontecendo? O que os especialistas sabem que o público não sabe? (“Especialistas” aqui significa pesquisadores baseados nos EUA que participaram de conferências de IA em 2023 e 2024.)

Suspeito que parte do que se passa é que especialistas e não especialistas baseiam as suas opiniões em experiências muito diferentes. “O grau em que você fica impressionado com a IA está perfeitamente correlacionado com o quanto você usa a IA para codificar”, postou um desenvolvedor de software no X outro dia. Talvez isso seja irônico, mas definitivamente há algo nisso.

Os modelos mais recentes dos principais laboratórios estão agora melhores do que nunca na produção de código. Como tarefas técnicas como codificação têm resultados certos ou errados, é mais fácil treinar modelos para realizá-las, em comparação com tarefas mais abertas. Além do mais, os modelos que podem codificar estão provando ser lucrativos, então os fabricantes de modelos estão investindo recursos para melhorá-los.

Isso significa que as pessoas que usam essas ferramentas para codificação ou outro trabalho técnico estão experimentando o que essa tecnologia tem de melhor. Fora desses casos de uso, você obtém uma mistura mais variada. LLMs ainda cometem erros idiotas. Este fenómeno ficou conhecido como “fronteira irregular”: os modelos são muito bons a fazer algumas coisas e menos bons noutras.

O influente pesquisador de IA Andrej Karpathy também teve algumas ideias. “A julgar pela minha (linha do tempo), há uma lacuna crescente na compreensão da capacidade da IA”, escreveu ele em resposta ao post X. Ele observou que os usuários avançados (leia-se: pessoas que usam LLMs para codificação, matemática ou pesquisa) não apenas se mantêm atualizados com os modelos mais recentes, mas geralmente pagam US$ 200 por mês pelas melhores versões. “As recentes melhorias nestes domínios a partir deste ano foram simplesmente surpreendentes”, continuou ele.

Como os LLMs ainda estão melhorando rapidamente, alguém que paga para usar o Claude Code estará, na verdade, usando uma tecnologia diferente de alguém que tentou usar a versão gratuita do Claude para planejar um casamento há seis meses. Esses dois grupos estão falando um pelo outro.

Onde isso nos deixa? Acho que existem duas realidades. Sim, a IA é muito melhor do que muitas pessoas imaginam. E sim, ainda é muito ruim em muitas coisas com as quais muitas pessoas se preocupam (e pode continuar assim). Qualquer pessoa que faça apostas sobre o futuro de qualquer um dos lados deve ter isso em mente.

technologyreview

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *