A guerra dos chips de IA acaba de ganhar um novo concorrente de peso pesado. A Qualcomm, a empresa que alimenta milhares de milhões de smartphones em todo o mundo, deu um salto audacioso para os chips de centros de dados de IA – um mercado onde a Nvidia tem cunhado dinheiro a um ritmo quase insondável e onde as fortunas aumentam e diminuem com promessas de supremacia computacional.

Em 28 de outubro de 2025, a Qualcomm lançou o desafio com suas soluções AI200 e AI250, sistemas em escala de rack projetados especificamente para cargas de trabalho de inferência de IA. A reacção de Wall Street foi imediata: o preço das acções da Qualcomm subiu aproximadamente 11%, à medida que os investidores apostavam que mesmo uma fatia modesta do crescente mercado de infra-estruturas de IA poderia transformar a trajectória da empresa.

O lançamento do produto poderá redefinir a identidade da Qualcomm. A gigante dos chips de San Diego tem sido sinônimo de tecnologia móvel, aproveitando a onda dos smartphones para dominar. Mas com esse mercado estagnado, o CEO Cristiano Amon está a fazer uma aposta calculada em chips de centros de dados de IA, apoiados por uma parceria multibilionária com uma potência saudita de IA que sinaliza intenções sérias.

Duas fichas, duas apostas diferentes no futuro

É aqui que a estratégia da Qualcomm se torna interessante. Em vez de lançar um único produto e esperar o melhor, a empresa está apostando em duas arquiteturas distintas de chips de data center de IA, cada uma visando diferentes necessidades e cronogramas do mercado.

O AI200, que chega em 2026, adota uma abordagem pragmática. Pense nisso como o pé na porta da Qualcomm – um sistema em escala de rack com 768 GB de memória LPDDR por cartão.

Essa enorme capacidade de memória é crucial para executar os grandes modelos de linguagem e aplicações de IA multimodais que exigem muita memória, e a Qualcomm está apostando que sua abordagem de memória de baixo custo pode superar os concorrentes no custo total de propriedade, ao mesmo tempo em que oferece o desempenho que as empresas exigem.

Mas o AI250, previsto para 2027, é onde os engenheiros da Qualcomm realmente sonham grande. A solução apresenta uma arquitetura de computação de quase memória que promete quebrar as limitações convencionais com largura de banda de memória efetiva mais de 10 vezes maior.

Para chips de data center de IA, a largura de banda da memória costuma ser o gargalo que determina se o seu chatbot responde instantaneamente ou deixa os usuários esperando. A inovação da Qualcomm aqui pode ser uma verdadeira virada de jogo – desde que possa cumprir a promessa.

“Com o Qualcomm AI200 e o AI250, estamos redefinindo o que é possível para inferência de IA em escala de rack”, disse Durga Malladi, vice-presidente sênior e gerente geral de planejamento de tecnologia, soluções de ponta e data center da Qualcomm Technologies. “As novas soluções inovadoras de infraestrutura de IA permitem que os clientes implementem IA com um TCO sem precedentes, ao mesmo tempo que mantêm a flexibilidade e a segurança que os data centers modernos exigem.”

A verdadeira batalha: Economia, não apenas desempenho

Na corrida armamentista da infraestrutura de IA, as especificações brutas de desempenho contam apenas metade da história. A verdadeira guerra é travada em planilhas, onde os operadores de data centers calculam contas de energia, custos de resfriamento e depreciação de hardware. A Qualcomm sabe disso e é por isso que ambas as soluções de chips para data centers de IA ficam obcecadas com o custo total de propriedade.

Cada rack consome 160 kW de energia e emprega refrigeração líquida direta – uma necessidade quando você está transferindo tanto poder computacional através do silício. Os sistemas usam PCIe para escalonamento interno e Ethernet para conectar vários racks, proporcionando flexibilidade de implantação, quer você esteja executando um serviço modesto de IA ou construindo o próximo concorrente ChatGPT.

A segurança também não foi uma reflexão tardia; recursos de computação confidencial são incorporados, atendendo à crescente demanda empresarial por proteger modelos proprietários de IA e dados confidenciais.

A conexão saudita: uma validação de um bilhão de dólares

Os anúncios de parceria em tecnologia podem ser frágeis, mas o acordo da Qualcomm com Humain tem algum peso. A empresa saudita de IA apoiada pelo Estado comprometeu-se a implantar 200 megawatts de chips de data center de IA da Qualcomm – um número que a analista Stacy Rasgon de Sanford C. Bernstein estima que se traduz em cerca de US$ 2 bilhões em receitas para a Qualcomm.

US$ 2 bilhões são transformadores? No contexto do acordo Humain de US$ 10 bilhões da AMD, anunciado no mesmo ano, pode parecer modesto. Mas para uma empresa que está tentando provar que pertence à conversa sobre infraestrutura de IA, garantir um grande compromisso de implantação antes mesmo de seu primeiro produto ser enviado é uma validação que o dinheiro não pode comprar.

“Juntamente com Humain, estamos lançando as bases para uma inovação transformadora impulsionada pela IA que capacitará empresas, organizações governamentais e comunidades na região e globalmente”, declarou Amon em um comunicado que posiciona a Qualcomm não apenas como um fornecedor de chips, mas como um parceiro tecnológico estratégico para economias emergentes de IA.

A colaboração, anunciada pela primeira vez em maio de 2025, transforma a Qualcomm em um importante fornecedor de infraestrutura para os ambiciosos serviços de inferência de IA da Humain – uma função que poderia estabelecer projetos de referência cruciais e padrões de implantação para futuros clientes.

Pilha de software e experiência do desenvolvedor

Além das especificações de hardware, a Qualcomm está apostando em software amigável ao desenvolvedor para acelerar a adoção. A pilha de software de IA da empresa oferece suporte às principais estruturas de aprendizado de máquina e promete “implantação com um clique” de modelos do Hugging Face, um popular repositório de modelos de IA.

O Qualcomm AI Inference Suite e a Efficient Transformers Library visam remover o atrito de integração que historicamente retarda as implantações de IA corporativa.

Davi contra Golias (e outro Golias?)

Sejamos honestos sobre o que a Qualcomm está enfrentando. A capitalização de mercado da Nvidia ultrapassou os US$ 4,5 trilhões, uma avaliação que reflete anos de domínio da IA ​​e um ecossistema tão arraigado que muitos desenvolvedores não conseguem imaginar construir sobre qualquer outra coisa.

A AMD, que já foi uma desafiante, viu suas ações mais que dobrarem de valor em 2025, à medida que conquistava com sucesso seu próprio pedaço do bolo de IA.

A chegada tardia da Qualcomm à festa dos chips de data center de IA significa travar uma batalha difícil contra concorrentes que possuem produtos testados em batalha, pilhas de software maduras e clientes que já executam cargas de trabalho de produção em escala.

O foco da empresa nos smartphones, que já foi seu maior ponto forte, agora parece uma visão estratégica de túnel que a fez perder o boom inicial da infraestrutura de IA. Mesmo assim, os analistas de mercado não estão escrevendo o obituário da Qualcomm. Timothy Arcuri, do UBS, captou o sentimento predominante numa teleconferência: “A maré está subindo tão rápido e continuará a subir tão rápido que levantará todos os barcos”. Tradução: o mercado de IA está se expandindo tão rapidamente que há espaço para vários vencedores – até mesmo os retardatários com tecnologia atraente e preços competitivos.

A Qualcomm está jogando um jogo longo, apostando que a inovação sustentada em chips de data center de IA pode gradualmente conquistar clientes que procuram alternativas ao duopólio Nvidia-AMD. Para as empresas que avaliam opções de infraestrutura de IA, a ênfase da Qualcomm na otimização de inferências, na eficiência energética e no TCO apresenta uma alternativa que vale a pena observar – especialmente à medida que o AI200 se aproxima da sua data de lançamento, em 2026.

(Foto da Qualcomm)

Veja também: Migrando IA da Nvidia para Huawei: oportunidades e compensações

Quer saber mais sobre IA e big data dos líderes do setor? Confira a AI & Big Data Expo que acontece em Amsterdã, Califórnia e Londres. O evento abrangente faz parte da TechEx e é realizado junto com outros eventos líderes de tecnologia. Clique aqui para obter mais informações.

AI News é desenvolvido pela TechForge Media. Explore outros eventos e webinars de tecnologia empresarial futuros aqui

Fontesartificialintelligence

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *