A OpenAI está gastando muito para proteger sua cadeia de suprimentos de computação de IA, assinando um novo acordo com a AWS como parte de sua estratégia multinuvem.

A empresa encerrou recentemente sua parceria exclusiva de computação em nuvem com a Microsoft. Desde então, alocou US$ 250 bilhões de volta à Microsoft, US$ 300 bilhões à Oracle e agora US$ 38 bilhões à Amazon Web Services (AWS) em um novo pacto plurianual. Este acordo de US$ 38 bilhões com a AWS, embora seja o menor dos três, faz parte do plano de diversificação da OpenAI.

Para os líderes da indústria, as ações da OpenAI mostram que o acesso a GPUs de alto desempenho não é mais uma mercadoria sob demanda. É agora um recurso escasso que exige um enorme compromisso de capital a longo prazo.

O acordo da AWS fornece à OpenAI acesso a centenas de milhares de GPUs NVIDIA, incluindo os novos GB200 e GB300, e a capacidade de utilizar dezenas de milhões de CPUs.

Esta poderosa infra-estrutura não serve apenas para treinar os modelos de amanhã; ele é necessário para executar as enormes cargas de trabalho de inferência do ChatGPT atual. Como afirmou o cofundador e CEO da OpenAI, Sam Altman, “escalar a IA de fronteira requer computação massiva e confiável”.

Esta onda de gastos está forçando uma resposta competitiva por parte dos hiperescaladores. Embora a AWS continue sendo o maior provedor de nuvem do setor, a Microsoft e o Google registraram recentemente um crescimento mais rápido nas receitas da nuvem, muitas vezes através da captura de novos clientes de IA. Este acordo com a AWS é uma tentativa clara de proteger uma carga de trabalho de IA fundamental e provar seus recursos de IA em grande escala, que afirma incluir a execução de clusters de mais de 500.000 chips.

A AWS não fornece apenas servidores padrão. Ela está construindo uma arquitetura sofisticada e específica para OpenAI, usando EC2 UltraServers para conectar as GPUs para a rede de baixa latência que o treinamento em grande escala exige.

“A amplitude e a disponibilidade imediata da computação otimizada demonstram por que a AWS está posicionada de forma única para oferecer suporte às vastas cargas de trabalho de IA da OpenAI”, disse Matt Garman, CEO da AWS.

Mas “imediato” é relativo. A capacidade total do mais recente acordo de IA na nuvem da OpenAI não será totalmente implementada até o final de 2026, com opções de expansão ainda mais até 2027. Este cronograma oferece uma dose de realismo para qualquer executivo que planeje uma implementação de IA: a cadeia de fornecimento de hardware é complexa e opera em cronogramas plurianuais.

O que, então, os líderes empresariais deveriam tirar disso?

Primeiro, o debate “construir versus comprar” para a infraestrutura de IA está praticamente encerrado. A OpenAI está gastando centenas de bilhões para construir com base em hardware alugado. Poucas ou nenhumas outras empresas podem ou devem seguir o exemplo. Isto empurra firmemente o resto do mercado para plataformas geridas como Amazon Bedrock, Google Vertex AI ou IBM watsonx, onde os hiperscaladores absorvem este risco de infraestrutura.

Em segundo lugar, os dias do fornecimento de uma única nuvem para cargas de trabalho de IA podem estar contados. A mudança da OpenAI para um modelo multi-provedor é um exemplo clássico de mitigação do risco de concentração. Para um CIO, depender de um fornecedor para a computação que executa um processo comercial central está se tornando uma aposta.

Finalmente, o orçamento de IA deixou o domínio da TI departamental e entrou no mundo do planeamento de capital corporativo. Não são mais despesas operacionais variáveis. Proteger a computação da IA ​​é agora um compromisso financeiro de longo prazo, tal como construir uma nova fábrica ou centro de dados.

Veja também: Qualcomm revela chips de data center de IA para quebrar o mercado de inferência

Quer saber mais sobre IA e big data dos líderes do setor? Confira a AI & Big Data Expo que acontece em Amsterdã, Califórnia e Londres. O evento abrangente faz parte da TechEx e está localizado junto com outros eventos de tecnologia líderes, incluindo a Cyber ​​Security Expo. Clique aqui para obter mais informações.

AI News é desenvolvido pela TechForge Media. Explore outros eventos e webinars de tecnologia empresarial futuros aqui.

Fontesartificialintelligence

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *