A Amazon Web Services obteve outra grande vitória para seus aceleradores AWS Trainium personalizados depois de fechar um acordo com a startup de vídeo AI Decart. A parceria verá a Decart otimizar seu principal modelo Lucy no AWS Trainium3 para suportar a geração de vídeo em tempo real e destacar a crescente popularidade dos aceleradores de IA em relação às unidades de processamento gráfico da Nvidia.

A Decart está basicamente apostando tudo na AWS e, como parte do acordo, a empresa também disponibilizará seus modelos por meio da plataforma Amazon Bedrock. Os desenvolvedores podem integrar os recursos de geração de vídeo em tempo real da Decart em praticamente qualquer aplicativo em nuvem sem se preocupar com a infraestrutura subjacente.

A distribuição por meio da Bedrock aumenta os recursos plug-and-play da AWS, demonstrando a confiança da Amazon na crescente demanda por vídeo de IA em tempo real. Também permite que a Decart expanda o alcance e aumente a adoção entre a comunidade de desenvolvedores. O AWS Trainium fornece a Lucy o processamento extra necessário para gerar vídeo de alta fidelidade sem sacrificar a qualidade ou a latência.

Aceleradores de IA personalizados como o Trainium fornecem uma alternativa às GPUs da Nvidia para cargas de trabalho de IA. Embora a Nvidia ainda domine o mercado de IA, com suas GPUs processando a grande maioria das cargas de trabalho de IA, ela enfrenta uma ameaça crescente de processadores personalizados.

Por que tanto alarido em torno dos aceleradores de IA?

O AWS Trainium não é a única opção que os desenvolvedores têm. A linha de produtos Tensor Processing Unit (TPU) do Google e os chips Training and Inference Accelerator (MTIA) da Meta são outros exemplos de silício personalizado, cada um com uma vantagem semelhante sobre as GPUs da Nvidia – sua arquitetura ASIC (Application-Specific Integrated Circuit). Como o nome sugere, o hardware ASIC é projetado especificamente para lidar com um tipo de aplicação e fazê-lo com mais eficiência do que os processadores de uso geral.

Embora as unidades centrais de processamento sejam geralmente consideradas o canivete suíço do mundo da computação devido à sua capacidade de lidar com vários aplicativos, as GPUs são mais parecidas com uma poderosa furadeira elétrica. Eles são muito mais poderosos que as CPUs, projetados para processar grandes quantidades de cálculos repetitivos e paralelos, tornando-os adequados para aplicativos de IA e tarefas de renderização gráfica.

Se a GPU for uma furadeira, o ASIC pode ser considerado um bisturi, projetado para procedimentos extremamente precisos. Ao construir ASICs, os fabricantes de chips eliminam todas as unidades funcionais irrelevantes para a tarefa para maior eficiência – todas as suas operações são dedicadas à tarefa.

Isso gera enormes benefícios de desempenho e eficiência energética em comparação com GPUs e pode explicar sua crescente popularidade. Um exemplo disso é a Anthropic, que fez parceria com a AWS no Projeto Rainier, um enorme cluster composto por centenas de milhares de processadores Trainium2.

A Anthropic afirma que o Projeto Rainier fornecerá centenas de exaflops de poder computacional para executar seus modelos de IA mais avançados, incluindo Claude Opus-4.5.

A startup de codificação de IA Poolside também está usando o AWS Trainium2 para treinar seus modelos e tem planos de usar sua infraestrutura para inferência também no futuro. Enquanto isso, a Anthropic está protegendo suas apostas, também buscando treinar futuros modelos Claude em um cluster de até um milhão de Google TPUs. A Meta Platforms está colaborando com a Broadcom para desenvolver um processador de IA personalizado para treinar e executar seus modelos Llama, e a OpenAI tem planos semelhantes.

A vantagem do Trainium

A Decart escolheu o AWS Trainium2 devido ao seu desempenho, que permitiu à Decart atingir a baixa latência exigida pelos modelos de vídeo em tempo real. Lucy tem um tempo até o primeiro quadro de 40 ms, o que significa que ela começa a gerar vídeo quase instantaneamente após a solicitação. Ao simplificar o processamento de vídeo no Trainium, Lucy também pode igualar a qualidade de modelos de vídeo muito mais lentos e estabelecidos, como o Sora 2 da OpenAI e o Veo-3 do Google, com Decart gerando saída de até 30 fps.

Decart acredita que Lucy vai melhorar. Como parte do acordo com a AWS, a empresa obteve acesso antecipado ao recém-anunciado processador Trainium3, capaz de produzir até 100 fps e menor latência. “A arquitetura de próxima geração do Trainium3 oferece maior rendimento, menor latência e maior eficiência de memória – permitindo-nos alcançar uma geração de quadros até 4x mais rápida pela metade do custo das GPUs”, disse o cofundador e CEO da Decart, Dean Leitersdorf, em um comunicado.

A Nvidia pode não estar muito preocupada com processadores de IA personalizados. A gigante dos chips de IA está projetando seus próprios chips ASIC para rivalizar com os concorrentes em nuvem. Além disso, os ASICs não substituirão completamente as GPUs, pois cada chip tem seus próprios pontos fortes. A flexibilidade das GPUs significa que elas continuam sendo a única opção real para modelos de uso geral como GPT-5 e Gemini 3, e ainda são dominantes no treinamento de IA. No entanto, muitas aplicações de IA têm requisitos de processamento estáveis, o que significa que são particularmente adequadas para execução em ASICs.

Espera-se que o surgimento de processadores de IA personalizados tenha um impacto profundo na indústria. Ao impulsionar o design do chip para uma maior personalização e melhorar o desempenho de aplicações especializadas, eles estão preparando o terreno para uma nova onda de inovação em IA, com vídeo em tempo real na vanguarda.

Foto cortesia AWS re:invent

Fontesartificialintelligence

By AI News

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *