A DeepSeek deu mais um salto na disputa de modelos de linguagem ao lançar o DeepSeek V3.1, descrito como seu sistema mais ambicioso até agora, com 685 bilhões de parâmetros (37 bilhões ativos) e uma arquitetura híbrida inédita.
O V3.1, disponibilizado discretamente via Hugging Face, surpreendeu a comunidade global de IA ao alcançar 71,6% de acurácia no prestigiado benchmark Aider de programação, resultado que ultrapassa o desempenho do Claude 4 (Anthropic), sendo obtido a um custo 68 vezes menor por tarefa de código.
Desenvolvedores relataram que rodar o modelo para resolver um problema de programação complexo custa em média US$ 1,01, em contraste com cerca de US$ 70 usando serviços equivalentes dos concorrentes americanos.
O DeepSeek V3.1 diferencia-se por integrar, em um único modelo, capacidades de chatbot conversacional, raciocínio lógico e geração de código.
Essa “arquitetura híbrida” rompe com tentativas anteriores (de outras empresas) que combinavam habilidades diferentes em um só modelo às custas de desempenho inconsistente. No caso do V3.1, testes iniciais indicam que ele mantém alta proficiência em múltiplas tarefas simultaneamente.
Um fator-chave é a possibilidade de processar até 128 mil tokens de contexto (cerca de 400 páginas de texto) com velocidade significativa, graças a melhorias internas e suporte a formatos de precisão mista – desde cálculos em BF16 padrão até inferência otimizada em FP8 para tirar proveito máximo do hardware.
Especialistas em IA consideram o V3.1 um divisor de águas para modelos open-source. Michael Nuñez, jornalista especializado, escreveu que este lançamento “redefine expectativas de desempenho de sistemas abertos”, ao rivalizar de igual para igual com modelos proprietários de ponta da OpenAI e Anthropic em vários quesitos.
Pesquisadores independentes elogiaram especialmente as capacidades de codificação: o V3.1 não só se sai bem em desafios de programação competitiva, como também pode executar operações de ferramenta em tempo real, graças a tokens especiais de “pesquisa” incorporados que habilitam integração com a web e raciocínio interno avançado.
Isso sugere que a DeepSeek implementou mecanismos para o modelo realizar buscas e raciocinar em etapas, superando limitações que afetaram sistemas híbridos anteriores.
O timing do lançamento foi calculado. A DeepSeek posicionou o V3.1 poucas semanas após anúncios do GPT-5 (OpenAI) e do Claude 4 (Anthropic), sinalizando um desafio direto aos gigantes americanos.
Ao tornar seu modelo abertamente acessível, a empresa contrasta com a estratégia fechada dos rivais, oferecendo a desenvolvedores e organizações a possibilidade de baixar e hospedar localmente um modelo de desempenho de elite, sem custos de licença ou restrições geográficas.
Sam Altman, CEO da OpenAI, reconheceu em entrevista recente o impacto da concorrência chinesa aberta, admitindo que a pressão de iniciativas como o DeepSeek influenciou a decisão da OpenAI de considerar liberar versões open-weight de alguns de seus modelos.
A recepção à novidade tem sido extremamente positiva na comunidade técnica chinesa e internacional. No Hugging Face, o DeepSeek V3.1 rapidamente escalou nas listas de popularidade, com milhares de downloads nas primeiras horas.
Fóruns de engenharia apontam que a hospedagem do modelo requer infraestrutura robusta (cerca de 700 GB de VRAM), mas provedores de nuvem já estão se movimentando: empresas locais e globais planejam oferecer o V3.1 como serviço para facilitar a adoção por quem não dispõe de clusters próprios.
Com essa combinação de acessibilidade e potência, o DeepSeek V3.1 consolida a presença da China na vanguarda da IA aberta em 2025, e eleva a pressão sobre seus concorrentes a inovar e talvez repensar seus paradigmas de distribuição.