A suposição de que os EUA detêm uma liderança duradoura no desempenho do modelo de IA não é bem apoiada pelos dados, e essa é apenas uma das descobertas desconfortáveis do Relatório do Índice de IA de 2026 da Universidade de Stanford, publicado esta semana.
O relatório, produzido pelo Instituto de Inteligência Artificial Centrada no Ser Humano de Stanford, é uma avaliação anual de 423 páginas sobre a posição da inteligência artificial. Abrange resultados de pesquisa, desempenho de modelos, fluxos de investimento, sentimento público e IA responsável. As descobertas das manchetes são impressionantes.
Mas as percepções mais importantes situam-se nas secções que a maior parte da cobertura omitiu, especialmente sobre a segurança da IA, onde a lacuna entre o que os modelos podem fazer e o rigor com que são avaliados quanto aos danos não foi eliminada, mas sim alargada.
Dito isto, três descobertas merecem mais atenção do que estão recebendo.
A lacuna de desempenho do modelo EUA-China foi efetivamente eliminada
O enquadramento de que os EUA lideram a China no desenvolvimento da IA precisa de ser actualizado. De acordo com o relatório, os modelos dos EUA e da China negociaram a posição de desempenho superior várias vezes desde o início de 2025. Em fevereiro de 2025, o DeepSeek-R1 igualou-se brevemente ao modelo de topo dos EUA. Em março de 2026, o modelo top da Anthropic liderava por apenas 2,7%.
Os EUA ainda produzem mais modelos de IA de primeira linha – 50 modelos em 2025 contra 30 da China – e retém patentes de maior impacto. Mas a China lidera agora em volume de publicações, quota de citações e concessão de patentes. A participação da China nos 100 artigos mais citados sobre IA cresceu de 33 em 2021 para 41 em 2024. A Coreia do Sul, nomeadamente, lidera o mundo em patentes de IA per capita.
A implicação prática é que a suposição de uma liderança tecnológica duradoura dos EUA no desempenho do modelo de IA não é bem apoiada pelos dados. A lacuna que existia há dois anos diminuiu para uma margem que muda a cada lançamento de modelo importante.
Há outra vulnerabilidade estrutural que o relatório identifica. Os EUA hospedam 5.427 data centers – mais de dez vezes qualquer outro país – mas uma única empresa, a TSMC, fabrica quase todos os principais chips de IA dentro deles. Toda a cadeia global de fornecimento de hardware de IA passa por uma fundição em Taiwan, embora uma expansão da TSMC nos EUA tenha iniciado operações em 2025.
O benchmarking de segurança de IA não está acompanhando o ritmo, e os números mostram isso
Quase todos os desenvolvedores de modelos de fronteira relatam resultados em benchmarks de capacidade. O mesmo não se aplica aos benchmarks de IA responsável, e o Índice 2026 documenta a lacuna com alguma precisão.
A tabela de referência do relatório para segurança e IA responsável mostra que a maioria das entradas está simplesmente vazia. Apenas Claude Opus 4.5 relata resultados em mais de dois dos benchmarks de IA responsáveis monitorados. Somente GPT-5.2 relata StrongREJECT. Nos parâmetros de referência que medem a justiça, a segurança e a agência humana, a maioria dos modelos de fronteira não informa nada.
Isso não significa que a Frontier Labs não esteja realizando nenhum trabalho de segurança interna. O relatório reconhece que os testes de red teaming e de alinhamento acontecem, mas que “estes esforços raramente são divulgados utilizando um conjunto de benchmarks comum e externamente comparável”. O efeito é que a comparação externa nas dimensões de segurança da IA é efetivamente impossível para a maioria dos modelos.
Os incidentes documentados de IA aumentaram para 362 em 2025, contra 233 em 2024, de acordo com o banco de dados de incidentes de IA. O Monitor de Incidentes e Riscos de IA da OCDE, que utiliza um pipeline automatizado mais amplo, registou um pico de 435 incidentes mensais em Janeiro de 2026, com uma média móvel de seis meses de 326.
A resposta da governação a nível organizacional está a lutar para corresponder. De acordo com uma pesquisa realizada pelo AI Index e pela McKinsey, a parcela de organizações que classificam sua resposta a incidentes de IA como “excelente” caiu de 28% em 2024 para 18% em 2025. Aquelas que relataram respostas “boas” também caíram, de 39% para 24%. Enquanto isso, a proporção de três a cinco incidentes aumentou de 30% para 50%.
O relatório também identifica um problema estrutural na própria melhoria responsável da IA: os ganhos numa dimensão tendem a reduzir o desempenho noutra. Melhorar a segurança pode degradar a precisão, ou melhorar a privacidade pode reduzir a justiça, por exemplo. Não existe um quadro estabelecido para a gestão de tais compromissos e, em diversas dimensões, incluindo a justiça e a explicabilidade, ainda não existem os dados padronizados necessários para acompanhar o progresso ao longo do tempo.
A ansiedade do público aumenta com a adoção e a lacuna entre especialistas e público
Globalmente, 59% das pessoas inquiridas afirmam que os benefícios da IA superam as suas desvantagens, contra 55% em 2024. Ao mesmo tempo, 52% afirmam que os produtos e serviços de IA os deixam nervosos, um aumento de dois pontos percentuais num ano. Ambos os números estão a subir simultaneamente, o que reflete um público que está a utilizar mais a IA, ao mesmo tempo que se torna mais incerto sobre o seu rumo.
A divisão entre especialistas e público sobre os efeitos da IA no emprego é particularmente acentuada. De acordo com o relatório, 73% dos especialistas em IA esperam que a IA tenha um impacto positivo na forma como as pessoas realizam o seu trabalho, em comparação com apenas 23% do público em geral – uma diferença de 50 pontos. Na economia, a diferença é de 48 pontos (69% dos especialistas são positivos contra 21% do público). Quanto aos cuidados médicos, os especialistas estão consideravelmente mais optimistas, com 84%, contra 44% do público.
Essas lacunas são importantes porque a confiança pública molda os resultados regulamentares e os resultados regulamentares moldam a forma como a IA é implementada. Nessa dimensão, o relatório assinala algo surpreendente: os EUA relataram o nível mais baixo de confiança no seu próprio governo para regular a IA de forma responsável de qualquer país pesquisado, com 31%. A média global foi de 54%. Os países do Sudeste Asiático foram os mais confiantes, com Singapura com 81% e a Indonésia com 76%.
Globalmente, a UE é mais confiável do que os EUA ou a China para regular eficazmente a IA. Entre os 25 países incluídos no inquérito de 2025 do Pew Research Centre, uma mediana de 53% confiava na UE para regular a IA, em comparação com 37% para os EUA e 27% para a China.
O relatório encerra o seu capítulo sobre opinião pública observando que os países do Sudeste Asiático continuam entre os mais optimistas do mundo em relação à IA. Na China, Malásia, Tailândia, Indonésia e Singapura, mais de 80% dos entrevistados afirmam que a IA mudará profundamente as suas vidas nos próximos três a cinco anos. A Malásia registou o maior aumento nesta visão de 2024 a 2025.
Veja também: IBM: Como a governança robusta de IA protege as margens empresariais
Quer saber mais sobre IA e big data dos líderes do setor? Confira a AI & Big Data Expo que acontece em Amsterdã, Califórnia e Londres. O evento abrangente faz parte da TechEx e está localizado junto com outros eventos de tecnologia líderes, incluindo o Cyber Security & Cloud Expo. Clique aqui para mais informações.
AI News é desenvolvido pela TechForge Media. Explore outros eventos e webinars de tecnologia empresarial futuros aqui.
Fontesartificialintelligence



