A escassez de chips de IA tornou-se a restrição definidora para implantações empresariais de IA em 2025, forçando os CTOs a enfrentar uma realidade desconfortável: a geopolítica de semicondutores e a física da cadeia de suprimentos são mais importantes do que os roteiros de software ou os compromissos dos fornecedores.
O que começou como controlos de exportação dos EUA que restringiam chips avançados de IA à China evoluiu para uma crise de infra-estruturas mais ampla que afecta as empresas a nível mundial – não apenas devido à política, mas devido à colisão da procura explosiva com a capacidade de produção que não consegue escalar à velocidade do software.
No final do ano, a dupla pressão das restrições geopolíticas e da escassez de componentes tinha remodelado fundamentalmente a economia da IA empresarial. Os números contam uma história dura. O gasto médio empresarial com IA está previsto em US$ 85.521 mensais em 2025, um aumento de 36% em relação a 2024, de acordo com a pesquisa da CloudZero que entrevistou 500 profissionais de engenharia.
As organizações que planeiam investir mais de 100.000 dólares mensais mais do que duplicaram, passando de 20% em 2024 para 45% em 2025 – não porque a IA se tornou mais valiosa, mas porque os custos dos componentes e os prazos de implementação dispararam para além das projeções iniciais.
Os controles de exportação remodelam o acesso ao chip
A decisão da administração Trump de dezembro de 2025 de permitir vendas condicionais de chips H200 da Nvidia para a China – o chip de IA mais poderoso já aprovado para exportação – ilustrou a rapidez com que a política de semicondutores pode mudar. O acordo exige uma partilha de receitas de 25% com o governo dos EUA e aplica-se apenas a compradores chineses aprovados, revertendo um congelamento de exportações anterior em Abril de 2025.
No entanto, a inversão da política chegou demasiado tarde para evitar perturbações generalizadas. O secretário de Comércio dos EUA, Howard Lutnick, testemunhou que a chinesa Huawei produzirá apenas 200.000 chips de IA em 2025, enquanto a China importou legalmente cerca de um milhão de chips Nvidia rebaixados, projetados especificamente para conformidade de exportação.
A lacuna de produção forçou as empresas chinesas a operações de contrabando em grande escala – promotores federais revelaram documentos em dezembro revelando uma quadrilha que tentou exportar pelo menos 160 milhões de dólares em GPUs Nvidia H100 e H200 entre outubro de 2024 e maio de 2025.
Para as empresas globais, estas restrições criaram desafios de aquisição imprevisíveis. As empresas com operações ou centros de dados baseados na China enfrentaram limitações de acesso repentinas, enquanto outras descobriram que os seus planos de implementação global presumiam uma disponibilidade de chips que a geopolítica já não garantia.
Crise do chip de memória agrava problemas na infraestrutura de IA
Embora os controlos às exportações dominassem as manchetes, surgiu uma crise de abastecimento mais profunda: os chips de memória tornaram-se o constrangimento vinculativo à infraestrutura de IA a nível mundial. A memória de alta largura de banda (HBM), a memória especializada que permite o funcionamento dos aceleradores de IA, enfrentou graves escassezes, já que os fabricantes Samsung, SK Hynix e Micron operavam perto da capacidade total, reportando prazos de entrega de seis a doze meses.
Os preços das memórias subiram de acordo. Os preços da DRAM subiram mais de 50% em 2025 em algumas categorias, com os preços dos contratos de servidores subindo até 50% trimestralmente, de acordo com Pesquisa de contraponto. A Samsung supostamente aumentou os preços dos chips de memória para servidores em 30% a 60%. A empresa prevê que os preços das memórias continuarão a subir mais 20% no início de 2026, à medida que a procura continua a ultrapassar a expansão da capacidade.
A escassez não se limitou a componentes especializados de IA. Os estoques de fornecedores de DRAM caíram para duas a quatro semanas em outubro de 2025, abaixo das 13 a 17 semanas no final de 2024, de acordo com dados da TrendForce citados por Reuters. SK Hynix disse aos analistas que a escassez pode persistir até o final de 2027, relatando que toda a memória programada para produção em 2026 já está esgotada.
Os laboratórios empresariais de IA vivenciaram isso em primeira mão. Os principais provedores de nuvem Google, Amazon, Microsoft e Meta emitiram pedidos abertos para a Micron, afirmando que farão todo o estoque que a empresa puder fornecer. As empresas chinesas Alibaba, Tencent e ByteDance pressionaram a Samsung e a SK Hynix por acesso prioritário.
A pressão se estendeu aos anos futuros, com a OpenAI assinando acordos preliminares com a Samsung e a SK Hynix para seu projeto Stargate, exigindo até 900.000 wafers mensais até 2029 – aproximadamente o dobro da produção mensal global de HBM atual.
Os cronogramas de implantação vão além das projeções
A escassez de chips de IA não apenas aumentou os custos – ela alterou fundamentalmente os cronogramas de implantação empresarial. As soluções de IA personalizadas de nível empresarial que normalmente exigiam de seis a doze meses para implantação completa no início de 2025 se estenderam para 12 a 18 meses ou mais até o final do ano, de acordo com analistas do setor.
O sócio da Bain & Company, Peter Hanbury, falando com CNBCobservou que os prazos de ligação dos serviços públicos se tornaram o maior constrangimento ao crescimento dos centros de dados, com alguns projetos enfrentando atrasos de cinco anos apenas para garantir o acesso à eletricidade. A empresa prevê um aumento de 163 GW na procura global de eletricidade para centros de dados até 2030, grande parte deste aumento ligado aos requisitos intensivos de computação da IA generativa.
O CEO da Microsoft, Satya Nadella, capturou o paradoxo em termos claros: “O maior problema que estamos enfrentando agora não é um excesso de computação, mas seu poder – é a capacidade de fazer as compilações com rapidez suficiente e perto da energia. Se você não puder fazer isso, você pode realmente ter um monte de chips em estoque que eu não consigo conectar. Na verdade, esse é o meu problema hoje.”
Os compradores tradicionais de tecnologia em ambientes empresariais enfrentaram desafios ainda mais difíceis. “Os compradores neste ambiente terão de exagerar e fazer algumas apostas agora para garantir o fornecimento mais tarde”, alertou Chad Bickley, da Bain & Company, numa análise de março de 2025.
“Planejar com antecedência os atrasos na produção pode exigir que os compradores assumam alguns estoques caros de produtos de tecnologia de ponta que podem se tornar obsoletos em pouco tempo.”
Custos ocultos agravam as pressões orçamentárias
Os aumentos visíveis de preços – aumento de 20 a 30% da HBM ano após ano, aumento dos custos de nuvem de GPU de 40 a 300% dependendo da região – representaram apenas parte do impacto total nos custos. As organizações descobriram diversas categorias de despesas ocultas que as cotações dos fornecedores não haviam capturado.
A capacidade avançada de embalagem surgiu como um gargalo crítico. O pacote CoWoS da TSMC, essencial para empilhar HBM ao lado de processadores de IA, estava totalmente reservado até o final de 2025. A demanda por essa técnica de integração explodiu à medida que a produção de wafer aumentava, criando um ponto de estrangulamento secundário que acrescentou meses aos prazos de entrega.
Os custos de infraestrutura além dos chips aumentaram acentuadamente. Os SSDs NVMe de nível empresarial viram os preços subir de 15 a 20% em comparação com o ano anterior, já que as cargas de trabalho de IA exigiam resistência e largura de banda significativamente maiores do que os aplicativos tradicionais. As organizações que planejam implantações de IA descobriram que seus custos com listas de materiais aumentaram de 5 a 10% apenas devido ao aumento dos componentes de memória, de acordo com a análise da Bain.
Os custos de implementação e governação agravaram-se ainda mais. As organizações gastam entre US$ 50 mil e US$ 250 mil anualmente em monitoramento, governança e infraestrutura de capacitação, além das taxas básicas de licenciamento. Os excedentes baseados no uso fizeram com que as cobranças mensais aumentassem inesperadamente para equipes com alta densidade de interação de IA, especialmente aquelas envolvidas em treinamento pesado de modelos ou cargas de trabalho de inferência frequentes.
Lições estratégicas para 2026 e além
Os líderes empresariais que navegaram com sucesso pela escassez de chips de IA em 2025 emergiram com insights arduamente conquistados que moldarão a estratégia de compras nos próximos anos.
Diversifique as relações de fornecimento desde o início: As organizações que garantiram acordos de fornecimento de longo prazo com vários fornecedores antes da intensificação da escassez mantiveram cronogramas de implantação mais previsíveis do que aquelas que dependiam de compras pontuais.
Orçamento para volatilidade dos componentes: A era de preços de infraestrutura estáveis e previsíveis terminou para cargas de trabalho de IA. Os CTOs aprenderam a criar reservas de custos de 20 a 30% nos orçamentos de infraestrutura de IA para absorver flutuações de preços de memória e lacunas de disponibilidade de componentes.
Otimize antes de dimensionar: Técnicas como quantização de modelo, poda e otimização de inferência reduzem as necessidades de GPU em 30-70% em algumas implementações. As organizações que investiram em eficiência antes de lançar o hardware para resolver os problemas alcançaram melhores resultados económicos do que aquelas focadas exclusivamente em aquisições.
Considere modelos de infraestrutura híbrida: Estratégias multinuvem e configurações híbridas que combinam GPUs em nuvem com clusters dedicados melhoraram a confiabilidade e a previsibilidade de custos. Para cargas de trabalho de IA de alto volume, possuir ou alugar infraestrutura tem se mostrado cada vez mais econômico do que alugar GPUs em nuvem a preços spot inflacionados.
Fatore a geopolítica nas decisões de arquitetura: As rápidas mudanças políticas em torno das exportações de chips ensinaram às empresas que a infraestrutura global de IA não pode assumir ambientes regulatórios estáveis. As organizações com exposição na China aprenderam a projetar arquiteturas de implantação tendo em mente a flexibilidade regulatória.
Perspectivas para 2026: Restrições contínuas
O desequilíbrio entre oferta e procura não mostra sinais de resolução rápida. Novas fábricas de chips de memória levam anos para serem construídas – a maioria das expansões de capacidade anunciadas em 2025 só entrarão em operação em 2027 ou mais tarde. A orientação da SK Hynix sugere que a escassez persistirá pelo menos até o final de 2027.
A política de controlo das exportações permanece fluida. Uma nova regra “Trump AI Controls” para substituir as estruturas anteriores é esperada no final de 2025, juntamente com potenciais controlos sobre as exportações para a Malásia e a Tailândia identificadas como rotas de desvio para a China. Cada mudança política cria novas incertezas em matéria de aquisições para as empresas globais.
As implicações macroeconómicas vão além dos orçamentos de TI. A escassez de memória poderá atrasar centenas de milhares de milhões de investimentos em infraestruturas de IA, retardando os ganhos de produtividade em que as empresas apostaram para justificar gastos massivos em IA. O aumento dos custos dos componentes ameaça aumentar a pressão inflacionista num momento em que as economias globais permanecem sensíveis aos aumentos de preços.
Para os líderes empresariais, a escassez de chips de IA em 2025 proporcionou uma lição definitiva: o software move-se à velocidade digital, mas o hardware move-se à velocidade física e a geopolítica move-se à velocidade política. A lacuna entre esses três cronogramas define o que é realmente implementável, independentemente do que os fornecedores prometem ou dos projetos de roteiro.
As organizações que prosperaram não foram aquelas com os maiores orçamentos ou as visões de IA mais ambiciosas. Foram eles que compreenderam que, em 2025, a realidade da cadeia de abastecimento superou a ambição estratégica – e planearam em conformidade.
(Foto de Igor Omilaev/Unsplash)
Veja também: Os EUA podem realmente impor uma proibição global de chips de IA?
Quer saber mais sobre IA e big data dos líderes do setor? Confira a AI & Big Data Expo que acontece em Amsterdã, Califórnia e Londres. O evento abrangente faz parte da TechEx e é realizado junto com outros eventos líderes de tecnologia. Clique aqui para obter mais informações.
AI News é desenvolvido pela TechForge Media. Explore outros eventos e webinars de tecnologia empresarial futuros aqui.
Fontesartificialintelligence



