O Ant Group entrou na arena do modelo de IA de trilhões de parâmetros com o Ling-1T, um novo modelo de linguagem de código aberto que a gigante fintech chinesa posiciona como um avanço no equilíbrio da eficiência computacional com capacidades de raciocínio avançadas.
O anúncio de 9 de outubro marca um marco significativo para a operadora Alipay, que tem vindo a construir rapidamente a sua infraestrutura de inteligência artificial através de múltiplas arquiteturas de modelos.
O modelo de IA de trilhões de parâmetros demonstra desempenho competitivo em tarefas complexas de raciocínio matemático, alcançando 70,42% de precisão no benchmark American Invitational Mathematics Examination (AIME) de 2025 – um padrão usado para avaliar as habilidades de resolução de problemas dos sistemas de IA.
De acordo com as especificações técnicas do Ant Group, o Ling-1T mantém esse nível de desempenho enquanto consome uma média de mais de 4.000 tokens de saída por problema, colocando-o ao lado do que a empresa descreve como “os melhores modelos de IA” em termos de qualidade de resultado.
Abordagem dupla para o avanço da IA
O lançamento do modelo de IA de trilhões de parâmetros coincide com o lançamento do dInfer pelo Ant Group, uma estrutura de inferência especializada projetada para modelos de linguagem de difusão. Esta estratégia de lançamento paralelo reflete a aposta da empresa em múltiplas abordagens tecnológicas, em vez de um único paradigma arquitetónico.
Os modelos de linguagem de difusão representam um afastamento dos sistemas autorregressivos que sustentam chatbots amplamente utilizados como o ChatGPT. Ao contrário da geração sequencial de texto, os modelos de difusão produzem resultados em paralelo – uma abordagem já predominante em ferramentas de geração de imagens e vídeos, mas menos comum no processamento de linguagem.
As métricas de desempenho do Ant Group para dInfer sugerem ganhos substanciais de eficiência. Os testes no modelo de difusão LLaDA-MoE da empresa renderam 1.011 tokens por segundo no benchmark de codificação HumanEval, contra 91 tokens por segundo para a estrutura Fast-dLLM da Nvidia e 294 para o modelo Qwen-2.5-3B do Alibaba rodando na infraestrutura vLLM.
“Acreditamos que o dInfer fornece um kit de ferramentas prático e uma plataforma padronizada para acelerar a pesquisa e o desenvolvimento no campo de rápido crescimento dos dLLMs”, observaram pesquisadores do Ant Group na documentação técnica que o acompanha.
Expansão do ecossistema além dos modelos de linguagem
O modelo de IA de trilhões de parâmetros Ling-1T faz parte de uma família mais ampla de sistemas de IA que o Ant Group montou nos últimos meses.
O portfólio da empresa agora abrange três séries principais: os modelos de não-pensamento Ling para tarefas de linguagem padrão, modelos de pensamento em anel projetados para raciocínio complexo (incluindo a prévia do Ring-1T lançada anteriormente) e modelos multimodais Ming capazes de processar imagens, texto, áudio e vídeo.
Essa abordagem diversificada se estende a um modelo experimental denominado LLaDA-MoE, que emprega arquitetura Mixture-of-Experts (MoE) – uma técnica que ativa apenas partes relevantes de um grande modelo para tarefas específicas, melhorando teoricamente a eficiência.
He Zhengyu, diretor de tecnologia do Ant Group, articulou o posicionamento da empresa em torno desses lançamentos. “No Ant Group, acreditamos que a Inteligência Geral Artificial (AGI) deve ser um bem público – um marco compartilhado para o futuro inteligente da humanidade”, afirmou ele, acrescentando que os lançamentos de código aberto do modelo de IA de trilhões de parâmetros e da visualização do Ring-1T representam passos em direção ao “avanço aberto e colaborativo”.
Dinâmica competitiva em um ambiente restrito
O momento e a natureza dos lançamentos do Ant Group iluminam os cálculos estratégicos no setor de IA da China. Com o acesso à tecnologia de ponta de semicondutores limitado pelas restrições à exportação, as empresas tecnológicas chinesas têm enfatizado cada vez mais a inovação algorítmica e a otimização de software como diferenciais competitivos.
A ByteDance, controladora da TikTok, também introduziu um modelo de linguagem de difusão chamado Seed Diffusion Preview em julho, alegando melhorias de velocidade cinco vezes maiores em relação a arquiteturas autorregressivas comparáveis. Estes esforços paralelos sugerem um interesse de toda a indústria em paradigmas de modelos alternativos que possam oferecer vantagens de eficiência.
No entanto, a trajetória prática de adoção de modelos de linguagem de difusão permanece incerta. Os sistemas autorregressivos continuam dominando as implantações comerciais devido ao desempenho comprovado na compreensão e geração de linguagem natural – os principais requisitos para aplicativos voltados para o cliente.
Estratégia de código aberto como posicionamento de mercado
Ao disponibilizar publicamente o modelo de IA de trilhões de parâmetros juntamente com a estrutura dInfer, o Ant Group está buscando um modelo de desenvolvimento colaborativo que contrasta com as abordagens fechadas de alguns concorrentes.
Esta estratégia acelera potencialmente a inovação, ao mesmo tempo que posiciona as tecnologias da Ant como infraestrutura fundamental para a comunidade mais ampla de IA.
A empresa está simultaneamente desenvolvendo o AWorld, uma estrutura destinada a apoiar o aprendizado contínuo em agentes autônomos de IA – sistemas projetados para concluir tarefas de forma independente em nome dos usuários.
Se estes esforços combinados podem estabelecer o Ant Group como uma força significativa no desenvolvimento global de IA depende, em parte, da validação no mundo real das reivindicações de desempenho e, em parte, das taxas de adoção entre os desenvolvedores que buscam alternativas às plataformas estabelecidas.
A natureza de código aberto do modelo de IA de trilhões de parâmetros pode facilitar esse processo de validação ao mesmo tempo em que constrói uma comunidade de usuários investidos no sucesso da tecnologia.
Por enquanto, os lançamentos demonstram que as principais empresas tecnológicas chinesas veem o cenário atual da IA como fluido o suficiente para acomodar novos participantes dispostos a inovar em múltiplas dimensões simultaneamente.
Veja também: Ant Group usa chips nacionais para treinar modelos de IA e cortar custos
Quer saber mais sobre IA e big data dos líderes do setor? Confira a AI & Big Data Expo que acontece em Amsterdã, Califórnia e Londres. O evento abrangente faz parte da TechEx e está localizado junto com outros eventos de tecnologia líderes, incluindo a Cyber Security Expo. Clique aqui para obter mais informações.
AI News é desenvolvido pela TechForge Media. Explore outros eventos e webinars de tecnologia empresarial futuros aqui.
Fontesartificialintelligence