Se você está acompanhando as notícias sobre IA, provavelmente está sofrendo uma chicotada. A IA é uma corrida do ouro. IA é uma bolha. A IA está assumindo seu trabalho. A IA nem consegue ler um relógio. O Índice de IA de 2026 do Instituto de Inteligência Artificial Centrada no Ser Humano da Universidade de Stanford, o boletim anual da IA, foi lançado hoje e elimina parte desse ruído.
Apesar das previsões de que o desenvolvimento da IA pode atingir um impasse, o relatório diz que os modelos de topo estão cada vez melhores. As pessoas estão adotando a IA mais rápido do que adotaram o computador pessoal ou a Internet. As empresas de IA estão a gerar receitas mais rapidamente do que as empresas em qualquer boom tecnológico anterior, mas também estão a gastar centenas de milhares de milhões de dólares em centros de dados e chips. Os parâmetros de referência concebidos para medir a IA, as políticas destinadas a governá-la e o mercado de trabalho estão a lutar para acompanhar. A IA está correndo e o resto de nós está tentando encontrar nossos sapatos.
Toda essa velocidade tem um custo. Os data centers de IA em todo o mundo podem agora consumir 29,6 gigawatts de energia, o suficiente para operar todo o estado de Nova York no pico da demanda. Somente o uso anual de água proveniente do funcionamento do GPT-4o da OpenAI pode exceder as necessidades de água potável de 12 milhões de pessoas. Ao mesmo tempo, a cadeia de abastecimento de chips é alarmantemente frágil. Os EUA hospedam a maioria dos data centers de IA do mundo, e uma empresa em Taiwan, a TSMC, fabrica quase todos os principais chips de IA.
Os dados revelam uma tecnologia que evolui mais rapidamente do que conseguimos gerir. Aqui estão alguns dos pontos-chave do relatório deste ano.
Os EUA e a China estão quase empatados
Numa corrida longa e acirrada com imensos riscos geopolíticos, os EUA e a China estão quase cabeça a cabeça no desempenho do modelo de IA, de acordo com a Arena, uma plataforma de classificação dirigida pela comunidade que permite aos utilizadores comparar os resultados de grandes modelos linguísticos em prompts idênticos. No início de 2023, a OpenAI liderava com o ChatGPT, mas essa lacuna diminuiu em 2024, quando o Google e a Anthropic lançaram seus próprios modelos. Em fevereiro de 2025, R1, um modelo de IA construído pelo laboratório chinês DeepSeek, correspondeu brevemente ao principal modelo dos EUA, ChatGPT. Em março de 2026, a Anthropic liderava, seguida de perto por xAI, Google e OpenAI. Modelos chineses como DeepSeek e Alibaba ficam apenas modestamente atrás. Com os melhores modelos de IA separados nas classificações por margens mínimas, eles agora estão competindo em custo, confiabilidade e utilidade no mundo real.
O índice observa que os EUA e a China têm vantagens diferentes em IA. Embora os EUA tenham modelos de IA mais poderosos, mais capital e cerca de 5.427 centros de dados (mais de 10 vezes mais do que qualquer outro país), a China lidera em publicações de investigação de IA, patentes e robótica.
À medida que a concorrência se intensifica, empresas como OpenAI, Anthropic e Google não divulgam mais seus códigos de treinamento, contagens de parâmetros ou tamanhos de conjuntos de dados. “Não sabemos muitas coisas sobre a previsão de comportamentos de modelos”, diz Yolanda Gil, cientista da computação da Universidade do Sul da Califórnia e coautora do relatório. Esta falta de transparência torna difícil para investigadores independentes estudarem como tornar os modelos de IA mais seguros, diz ela.
Os modelos de IA estão avançando muito rápido
Apesar das previsões de que o desenvolvimento irá estagnar, os modelos de IA estão cada vez melhores. Em alguns aspectos, eles agora alcançam ou superam o desempenho de especialistas humanos em testes que visam medir ciências, matemática e compreensão linguística em nível de doutorado. SWE-bench Verified, um benchmark de engenharia de software para modelos de IA, viu as pontuações máximas saltarem de cerca de 60% em 2024 para quase 100% em 2025. Em 2025, um sistema de IA produziu sozinho uma previsão do tempo.
“Estou surpreso que esta tecnologia continue a melhorar e não esteja estagnando de forma alguma”, diz Gil.
No entanto, a IA ainda enfrenta dificuldades em muitas outras áreas. Como os modelos aprendem processando enormes quantidades de texto e imagens, em vez de experimentar o mundo físico, a IA exibe “inteligência irregular”. Os robôs ainda estão em seus primórdios e conseguem realizar apenas 12% das tarefas domésticas. Os carros autônomos estão mais avançados: Waymos agora circulam por cinco cidades dos EUA, e os veículos Apollo Go do Baidu estão transportando passageiros pela China. A IA também está a expandir-se para domínios profissionais como o direito e as finanças, mas ainda nenhum modelo domina o campo.
Mas a forma como testamos a IA está quebrada
Estes relatórios de progresso devem ser encarados com cautela. Os benchmarks projetados para acompanhar o progresso da IA estão lutando para acompanhar à medida que os modelos ultrapassam rapidamente seus limites, diz o relatório de Stanford. Alguns são mal construídos – um benchmark popular que testa as habilidades matemáticas de um modelo tem uma taxa de erro de 42%. Outros podem ser manipulados: quando os modelos são treinados em dados de testes de benchmark, por exemplo, eles podem aprender a pontuar bem sem ficarem mais inteligentes.
As empresas de IA também estão compartilhando menos sobre como seus modelos são treinados, e os testes independentes às vezes contam uma história diferente daquela que relatam. “Muitas empresas não estão divulgando o desempenho de seus modelos em determinados benchmarks, especialmente os benchmarks de IA responsável”, diz Gil. “A ausência do desempenho do seu modelo em um benchmark talvez diga alguma coisa.”
A IA está começando a afetar os empregos
Três anos depois de se tornar popular, a IA é agora utilizada por mais de metade das pessoas em todo o mundo, uma taxa de adoção mais rápida do que a do computador pessoal ou da Internet. Estima-se que 88% das organizações utilizam agora IA, e quatro em cada cinco estudantes universitários a utilizam.
Ainda é cedo para a implantação e o impacto da IA nos empregos é difícil de medir. Ainda assim, alguns estudos sugerem que a IA está a começar a afectar os jovens trabalhadores em determinadas profissões. De acordo com um estudo de 2025 realizado por economistas de Stanford, o emprego para programadores de software com idades entre os 22 e os 25 anos caiu quase 20% desde 2022. O declínio pode não ser atribuído apenas à IA, uma vez que as condições macroeconómicas mais amplas podem ser as culpadas, mas a IA parece estar a desempenhar um papel.
Os empregadores dizem que as contratações podem continuar a diminuir. De acordo com um inquérito de 2025 realizado pela McKinsey & Company, um terço das organizações espera que a IA diminua a sua força de trabalho no próximo ano, especialmente em operações de serviços e cadeias de fornecimento e engenharia de software. A IA está a aumentar a produtividade em 14% no atendimento ao cliente e em 26% no desenvolvimento de software, de acordo com uma investigação citada pelo índice, mas esses ganhos não são observados em tarefas que exigem mais julgamento. No geral, ainda é muito cedo para compreender o maior impacto económico da IA.
As pessoas têm sentimentos complicados sobre IA
Em todo o mundo, as pessoas sentem-se optimistas e ansiosas em relação à IA: 59% das pessoas pensam que esta proporcionará mais benefícios do que desvantagens, enquanto 52% dizem que as deixa nervosas, de acordo com um inquérito da Ipsos citado no índice.
Notavelmente, os especialistas e o público veem o futuro da IA de forma muito diferente, de acordo com uma pesquisa da Pew. A maior lacuna gira em torno do futuro do trabalho: embora 73% dos especialistas pensem que a IA terá um impacto positivo na forma como as pessoas realizam o seu trabalho, apenas 23% do público americano pensa assim. Os especialistas também estão mais optimistas do que o público quanto ao impacto da IA na educação e nos cuidados médicos, mas concordam que a IA prejudicará as eleições e as relações pessoais.
Entre todos os países pesquisados, os americanos são os que menos confiam no seu governo para regular adequadamente a IA, de acordo com outra pesquisa da Ipsos. Mais americanos temem que a regulamentação federal sobre IA não vá longe o suficiente do que temem que vá longe demais.
Os governos estão lutando para regulamentar a IA
Os governos de todo o mundo estão a lutar para regulamentar a IA, mas houve alguns pequenos sucessos no ano passado. As primeiras proibições da Lei de IA da UE, que proíbem o uso de IA no policiamento preditivo e no reconhecimento de emoções, entrou em vigor. Japão, Coreia do Sul e Itália também aprovaram leis nacionais de IA. Entretanto, o governo federal dos EUA avançou no sentido da desregulamentação, com o Presidente Trump a emitir uma ordem executiva visando impedir os estados de regulamentar a IA.
Apesar desta ação federal, as legislaturas estaduais dos EUA aprovaram um recorde de 150 projetos de lei relacionados com a IA. A Califórnia promulgou uma legislação histórica, incluindo a SB 53, que exige divulgações de segurança e proteções a denunciantes para desenvolvedores de modelos de IA. Nova York aprovou a Lei RAISE, exigindo que as empresas de IA publiquem protocolos de segurança e relatem incidentes críticos de segurança.
Mas, apesar de toda a actividade legislativa, diz Gil, a regulamentação está atrás da tecnologia porque não compreendemos realmente como ela funciona. “Os governos são cautelosos ao regulamentar a IA porque… não entendemos muito bem muitas coisas”, diz ela. “Não temos um bom controle sobre esses sistemas.”


