Em resumo
- O DeepSeek V4 pode cair em semanas, visando desempenho de codificação de nível elite.
- Pessoas internas afirmam que ele poderia vencer Claude e ChatGPT em tarefas de código de longo contexto.
- Os desenvolvedores já estão entusiasmados antes de uma possível interrupção.
A DeepSeek está planejando abandonar seu modelo V4 em meados de fevereiro, e se os testes internos servirem de indicação, os gigantes de IA do Vale do Silício deveriam estar nervosos.
A startup de IA com sede em Hangzhou pode ter como meta um lançamento por volta de 17 de fevereiro – Ano Novo Lunar, naturalmente – com um modelo projetado especificamente para tarefas de codificação, de acordo com A Informação. Pessoas com conhecimento direto do projeto afirmam que o V4 supera as séries Claude da Anthropic e GPT da OpenAI em benchmarks internos, especialmente ao lidar com prompts de código extremamente longos.
É claro que nenhum benchmark ou informação sobre o modelo foi partilhado publicamente, pelo que é impossível verificar diretamente tais afirmações. DeepSeek também não confirmou os rumores.
Ainda assim, a comunidade de desenvolvedores não está esperando por uma palavra oficial. O r/DeepSeek e o r/LocalLLaMA do Reddit já estão esquentando, os usuários estão acumulando créditos de API e os entusiastas do X foram rápidos em compartilhar suas previsões de que o V4 poderia consolidar a posição do DeepSeek como o azarão que se recusa a seguir as regras de bilhões de dólares do Vale do Silício.
A Anthropic bloqueou assinaturas de Claude em aplicativos de terceiros como OpenCode e supostamente cortou o acesso xAI e OpenAI.
Claude e Claude Code são ótimos, mas ainda não são 10 vezes melhores. Isso apenas fará com que outros laboratórios avancem mais rapidamente em seus modelos/agentes de codificação.
Há rumores de que DeepSeek V4 será lançado…
-Yuchen Jin (@Yuchenj_UW) 9 de janeiro de 2026
Esta não seria a primeira interrupção do DeepSeek. Quando a empresa lançou o seu modelo de raciocínio R1 em janeiro de 2025, desencadeou uma liquidação de 1 bilião de dólares nos mercados globais.
A razão? O R1 da DeepSeek correspondeu ao modelo o1 da OpenAI em benchmarks de matemática e raciocínio, apesar de custar apenas US$ 6 milhões para ser desenvolvido – cerca de 68 vezes mais barato do que o que os concorrentes estavam gastando. Seu modelo V3 posteriormente atingiu 90,2% no benchmark MATH-500, ultrapassando os 78,3% de Claude e a recente atualização “V3.2 Speciale” melhorou ainda mais seu desempenho.
O foco de codificação da V4 seria um pivô estratégico. Enquanto R1 enfatizava o raciocínio puro – lógica, matemática, provas formais – V4 é um modelo híbrido (tarefas de raciocínio e não raciocínio) voltado para o mercado de desenvolvedores corporativos, onde a geração de código de alta precisão se traduz diretamente em receita.
Para reivindicar o domínio, o V4 precisaria vencer Claude Opus 4.5, que atualmente detém o recorde verificado no banco SWE de 80,9%. Mas se os lançamentos anteriores do DeepSeek servirem de guia, então isso pode não ser impossível de alcançar, mesmo com todas as restrições que um laboratório chinês de IA enfrentaria.
O molho não tão secreto
Supondo que os rumores sejam verdadeiros, como esse pequeno laboratório pode conseguir tal feito?
A arma secreta da empresa pode estar contida em seu artigo de pesquisa de 1º de janeiro: Manifold-Constrained Hyper-Connections, ou mHC. De coautoria do fundador Liang Wenfeng, o novo método de treinamento aborda um problema fundamental no dimensionamento de grandes modelos de linguagem: como expandir a capacidade de um modelo sem que ele se torne instável ou exploda durante o treinamento.
As arquiteturas tradicionais de IA forçam todas as informações por um único caminho estreito. O mHC amplia esse caminho em múltiplos fluxos que podem trocar informações sem causar colapso no treinamento.
Wei Sun, principal analista de IA da Counterpoint Research, chamou o mHC de um “avanço notável” em comentários ao Insider de negócios. A técnica, disse ela, mostra que o DeepSeek pode “contornar gargalos computacionais e desbloquear saltos em inteligência”, mesmo com acesso limitado a chips avançados devido às restrições de exportação dos EUA.
Lian Jye Su, analista-chefe da Omdia, observou que a disposição da DeepSeek em publicar seus métodos sinaliza uma “nova confiança na indústria chinesa de IA”. A abordagem de código aberto da empresa tornou-a uma queridinha entre os desenvolvedores que a veem como a personificação do que o OpenAI costumava ser, antes de se transformar em modelos fechados e rodadas de arrecadação de fundos de bilhões de dólares.
Nem todo mundo está convencido. Alguns desenvolvedores do Reddit reclamam que os modelos de raciocínio do DeepSeek desperdiçam computação em tarefas simples, enquanto os críticos argumentam que os benchmarks da empresa não refletem a confusão do mundo real. Uma postagem do Medium intitulada “DeepSeek é uma merda – e parei de fingir que não” se tornou viral em abril de 2025, acusando os modelos de produzir “bobagens padronizadas com bugs” e “bibliotecas alucinadas”.
DeepSeek também carrega bagagem. As preocupações com a privacidade atormentaram a empresa, com alguns governos proibindo o aplicativo nativo do DeepSeek. Os laços da empresa com a China e as questões sobre a censura nos seus modelos acrescentam fricção geopolítica aos debates técnicos.
Ainda assim, o impulso é inegável. O Deepseek foi amplamente adotado na Ásia e, se o V4 cumprir suas promessas de codificação, a adoção empresarial no Ocidente poderá ocorrer.
Há também o momento. De acordo com Reutersa DeepSeek havia planejado originalmente lançar seu modelo R2 em maio de 2025, mas estendeu a pista depois que o fundador Liang ficou insatisfeito com seu desempenho. Agora, com o V4 supostamente direcionado para fevereiro e o R2 potencialmente em agosto, a empresa está avançando em um ritmo que sugere urgência – ou confiança. Talvez ambos.
Geralmente inteligente Boletim informativo
Uma jornada semanal de IA narrada por Gen, um modelo generativo de IA.
Fontedecrypt




