Na documentação oficial atual, os IDs públicos centrais da API são deepseek-chat e deepseek-reasoner, ambos associados ao DeepSeek-V3.2 com contexto de 128K tokens. Portanto, qualquer exemplo moderno com esses IDs representa a camada atual da API, não o DeepSeek Coder original.
O DeepSeek Coder foi uma das primeiras grandes famílias open-weight da DeepSeek voltadas especificamente para código, completação de projetos, infilling e assistência de programação. No material técnico oficial, a série foi apresentada como um conjunto de modelos treinados do zero em 2 trilhões de tokens, com forte predominância de código, janela de contexto de 16K e uma tarefa adicional de fill-in-the-blank para reforçar a completude de trechos no meio do arquivo.
Hoje, o papel correto desta página é explicar o que foi o DeepSeek Coder, por que ele foi importante na história da DeepSeek e em quais cenários ainda faz sentido estudá-lo, compará-lo ou executá-lo localmente. O objetivo não é competir com a documentação atual da API, e sim funcionar como um arquivo técnico dentro do cluster do site.
Resumo rápido: como interpretar o DeepSeek Coder hoje
| Item | Leitura correta em 2026 |
|---|---|
| Natureza desta página | Arquivo histórico e guia técnico sobre a família DeepSeek Coder. |
| Foco original | Modelos especializados em programação, code completion, infilling, explicação de código e tarefas de engenharia de software. |
| Base técnica | Treinamento do zero em 2T tokens, 87% código e 13% linguagem natural, janela de 16K e etapa extra de fill-in-the-blank. |
| Uso coerente hoje | Pesquisa, benchmarking histórico, self-hosting, comparação entre gerações e estudo da evolução da DeepSeek em código. |
| API pública atual | A documentação oficial atual gira em torno de deepseek-chat e deepseek-reasoner, ambos em DeepSeek-V3.2. |
| História na API | O endpoint deepseek-coder existiu em 2024, foi atualizado para Coder-V2 e depois fundido com deepseek-chat em DeepSeek-V2.5. |
| Licença | O código do repositório é MIT; os pesos seguem a Model License da DeepSeek e suportam uso comercial, com restrições específicas. |
| Preços | Não use esta página como referência de preço atual. Consulte sempre a página oficial de pricing e a página Preços do DeepSeek. |
O que foi o DeepSeek Coder?
O DeepSeek Coder foi apresentado publicamente como uma família de modelos de código aberta, pensada para elevar a inteligência de programação no ecossistema open-weight. O artigo técnico da série descreve modelos variando de 1.3B a 33B parâmetros, treinados do zero em 2 trilhões de tokens. O projeto oficial destaca ainda que o treinamento combinou 87% de código e 13% de linguagem natural em inglês e chinês, o que ajudou a família a responder tanto a prompts de programação quanto a instruções textuais relacionadas a código.
Em vez de funcionar como um LLM genérico para “todo tipo de tarefa”, o DeepSeek Coder foi desenhado para cenários muito específicos de desenvolvimento: gerar funções, completar arquivos, preencher lacunas no meio do código, explicar trechos, comparar abordagens de implementação e servir como assistente local ou integrado ao fluxo de IDE.
Nos materiais oficiais, a DeepSeek também destaca que a série foi pré-treinada em corpus de código em nível de repositório/projeto, usando janela de 16K e uma etapa extra de fill-in-the-blank. Depois, a equipe realizou instruction fine-tuning em 2B tokens de dados de instrução, produzindo a linha DeepSeek-Coder-Instruct, mais adequada para prompts em linguagem natural e diálogos de assistência.

Capacidades históricas que tornaram a série relevante
- Code completion em nível de projeto: a combinação de corpus em nível de repositório e janela de 16K ajudou a série a completar trechos em arquivos relativamente grandes.
- Infilling / fill-in-the-middle: o treinamento com tarefa extra de preenchimento reforçou a habilidade de completar código no meio de blocos já existentes.
- Explicação e refatoração: a família Instruct tornou a série mais útil para prompts descritivos, documentação e reescrita de trechos.
- Multilinguagem: o material oficial enfatiza suporte amplo a linguagens de programação e bom desempenho em benchmarks como HumanEval, MultiPL-E, MBPP, DS-1000 e APPS.
- Uso aberto e comercial: o projeto foi lançado com código MIT e licença de modelo própria, permitindo uso comercial sob os termos específicos da DeepSeek.
Em benchmarks históricos apresentados no repositório oficial e no paper, a DeepSeek posicionou o DeepSeek Coder como state-of-the-art entre modelos abertos de código naquele momento, chegando a superar referências anteriores como Codex e GPT-3.5 em parte das avaliações reportadas. Esse contexto é importante, mas deve ser lido como um retrato do período de lançamento — não como uma comparação operacional automática com a camada atual da API.

Como a família foi organizada
Para fins editoriais, vale pensar no DeepSeek Coder como uma família e não como um único checkpoint. A organização técnica mais importante era esta:
| Camada | Função histórica | Leitura correta hoje |
|---|---|---|
| DeepSeek-Coder-Base | Modelos voltados a continuação de código, completion e infilling. | Úteis para estudo, experimentos de completion e pipelines locais de código. |
| DeepSeek-Coder-Instruct | Versões ajustadas para seguir instruções e responder melhor a prompts em linguagem natural. | Mais adequadas para chat técnico, explicação de código e assistência local. |
| Checkpoints públicos em múltiplos tamanhos | A coleção pública da DeepSeek destaca checkpoints 1.3B, 6.7B/7B e 33B, além de variações v1.5. | Mostra que a linha podia atender desde testes leves até uso técnico mais pesado. |
Essa tabela resolve um ponto importante de posicionamento: quando alguém pesquisa “DeepSeek Coder”, muitas vezes mistura o nome da família, os checkpoints originais, as variantes v1.5 e o DeepSeek-Coder-V2. Nesta página, o termo “DeepSeek Coder” deve priorizar a família original de 2023/2024, com menção clara de que houve evoluções posteriores.
Linha de evolução da família Coder
Uma boa forma de evitar ambiguidade nesta página é mostrar a evolução da linha de código da DeepSeek em etapas:
| Etapa | O que aconteceu | Como deve ser explicado no site |
|---|---|---|
| DeepSeek Coder (família original) | Série open-weight focada em código, com 2T tokens, 16K e tarefas de completion/infilling. | Página histórica principal da primeira grande família de código da DeepSeek. |
| DeepSeek-Coder-V2 | Continuação do trabalho a partir de um checkpoint intermediário de DeepSeek-V2 com mais 6T tokens. | Sucessor técnico da família original, com salto grande em contexto e abrangência. |
| DeepSeek-V2.5 | Fusão do Chat V2 com o Coder V2, acessível por deepseek-coder ou deepseek-chat em 2024. | Momento em que a linha “Coder” deixa de viver separada na camada hospedada. |
| API oficial atual | Documentação atual centrada em deepseek-chat e deepseek-reasoner, ambos em V3.2. | Direcionamento atual para integrações hospedadas e produção. |
No caso do DeepSeek-Coder-V2, os materiais oficiais descrevem um salto relevante: continuação de pré-treinamento com 6 trilhões de tokens adicionais, expansão do suporte de linguagens de programação para 338 linguagens, contexto de 128K e lançamento de versões de 16B e 236B parâmetros, com 2.4B e 21B parâmetros ativos, respectivamente. Isso ajuda a contextualizar que a página “DeepSeek Coder” precisa olhar para trás, não fingir que a família original permaneceu estática ou como padrão hospedado até hoje.
DeepSeek Coder na API: o que era e o que é hoje
Esta é a seção mais importante para corrigir a mensagem editorial da página antiga. Oficialmente, existiu sim um endpoint deepseek-coder na API pública da DeepSeek em 2024. Porém, a própria história oficial da API mostra que esse endpoint foi evoluindo e depois perdeu seu papel de “modelo separado” na camada hospedada.
| Data | Evento oficial | Interpretação editorial correta |
|---|---|---|
| 14 de junho de 2024 | deepseek-coder foi atualizado para DeepSeek-Coder-V2-0614. | Havia uma rota oficial dedicada para código. |
| 24 de julho de 2024 | deepseek-coder foi atualizado para DeepSeek-Coder-V2-0724. | A linha continuou evoluindo dentro da API. |
| 25 de julho de 2024 | JSON Output, Function Calling, Chat Prefix Completion e FIM foram liberados para deepseek-chat e deepseek-coder. | Mostra que o endpoint de código tinha vida operacional real em 2024. |
| 5 de setembro de 2024 | deepseek-coder e deepseek-chat foram fundidos em DeepSeek-V2.5, mantendo compatibilidade retroativa. | A camada hospedada começou a unificar chat geral e coding. |
| 17 de abril de 2026 | Documentação atual da API. | Os IDs públicos centrais documentados são deepseek-chat e deepseek-reasoner em DeepSeek-V3.2. |
Em outras palavras: esta página não deve vender o DeepSeek Coder como endpoint atual independente. A forma correta de explicar é dizer que ele foi uma fase importante da API e da linha open-weight, mas que a documentação atual da própria DeepSeek já se organiza em torno de modelos mais recentes.
O que usar hoje para tarefas de código na camada hospedada
Se o visitante quer usar a API oficial hoje para explicar código, gerar funções, produzir JSON, fazer automações ou trabalhar com completions modernas, a orientação editorial correta é apontar para a camada atual, não para o DeepSeek Coder histórico.
Na documentação oficial atual, deepseek-chat corresponde ao DeepSeek-V3.2 em modo non-thinking, com 128K de contexto, suporte a JSON Output, Tool Calls, Chat Prefix Completion e FIM Completion (Beta). Para muitos fluxos de desenvolvimento, isso já cobre boa parte dos casos de uso que, em 2024, fariam alguém procurar diretamente o DeepSeek Coder.
from openai import OpenAI
client = OpenAI(
api_key="SEU_TOKEN_DE_API",
base_url="https://api.deepseek.com"
)
response = client.chat.completions.create(
model="deepseek-chat",
messages=[
{"role": "system", "content": "Você é um assistente de programação útil."},
{
"role": "user",
"content": "Explique esta função Python e sugira uma versão mais legível."
}
]
)
print(response.choices[0].message.content)
Importante: esse snippet mostra o formato atual de integração hospedada. Ele permanece nesta página apenas para orientar o leitor sobre o caminho moderno. Não deve ser descrito como “uso direto do DeepSeek Coder original”.
Exemplo histórico de uso local do DeepSeek Coder original
Quando a intenção é trabalhar com a família original, o caminho correto deixa de ser a API hospedada atual e passa a ser o uso de checkpoints públicos no Hugging Face ou em infraestrutura própria, respeitando a licença da DeepSeek.
from transformers import AutoTokenizer, AutoModelForCausalLM
import torch
model_name = "deepseek-ai/deepseek-coder-6.7b-instruct"
tokenizer = AutoTokenizer.from_pretrained(model_name, trust_remote_code=True)
model = AutoModelForCausalLM.from_pretrained(
model_name,
trust_remote_code=True,
torch_dtype=torch.bfloat16
).cuda()
messages = [
{"role": "user", "content": "Write a quick sort algorithm in Python."}
]
inputs = tokenizer.apply_chat_template(
messages,
add_generation_prompt=True,
return_tensors="pt"
).to(model.device)
outputs = model.generate(
inputs,
max_new_tokens=512,
do_sample=False,
top_k=50,
top_p=0.95,
num_return_sequences=1,
eos_token_id=tokenizer.eos_token_id
)
print(tokenizer.decode(outputs[0][len(inputs[0]):], skip_special_tokens=True))
Esse exemplo é coerente com o posicionamento correto da página: uso local, pesquisa, comparação histórica e estudo de checkpoints abertos. Em geral, versões menores da família são mais práticas para experimentos próprios; versões maiores exigem infraestrutura mais robusta.
Quando ainda faz sentido estudar ou rodar o DeepSeek Coder?
- Benchmarking histórico: comparar a série original com DeepSeek-Coder-V2, DeepSeek-V2.5, DeepSeek V3, V3.1 e V3.2.
- Pesquisa em code intelligence: entender como a DeepSeek estruturou completion, infilling e instruction tuning em sua primeira grande família de código.
- Self-hosting e controle local: experimentar checkpoints abertos em ambiente próprio, sem depender do serviço hospedado atual.
- Educação técnica: estudar diferenças entre modelos Base e Instruct em workflows de programação.
- SEO e cluster temático: manter uma página forte sobre “DeepSeek Coder” sem conflitar com páginas atuais como V3.2 e Pricing.
Cuidados editoriais: o que esta página não deve fazer
- Não apresentar DeepSeek Coder como endpoint principal atual. Isso contradiz a documentação mais recente da própria DeepSeek.
- Não reutilizar tabelas antigas de preço. O tema de preços deve ficar concentrado em Preços do DeepSeek.
- Não igualar
deepseek-chatao DeepSeek Coder. Hoje,deepseek-chaté a camada atual documentada do V3.2. - Não simplificar a licença como se tudo fosse MIT. O código do repositório é MIT, mas os pesos seguem a Model License.
- Não confundir DeepSeek Coder com DeepSeek-Coder-V2. O segundo é continuação posterior da linha, não sinônimo do modelo original.
- Não usar linguagem no presente operacional. Prefira “foi”, “representou”, “serviu como”, “ocupou um papel importante”, em vez de “é o endpoint oficial atual”.
Perguntas frequentes sobre o DeepSeek Coder
O DeepSeek Coder ainda existe?
Sim, como família histórica/open-weight e como referência importante na evolução da DeepSeek em programação. O que mudou foi o papel da série na API pública hospedada, que hoje é documentada de outra forma.
Ainda posso usar o DeepSeek Coder via API oficial atual?
Para a leitura mais segura e atualizada, a documentação oficial centraliza a integração hospedada em deepseek-chat e deepseek-reasoner. Portanto, esta página deve direcionar o visitante à camada atual da API, e tratar o Coder como capítulo histórico e técnico.
Qual é a diferença entre DeepSeek Coder e DeepSeek-Coder-V2?
O DeepSeek Coder original foi a primeira grande família aberta focada em programação. O DeepSeek-Coder-V2 foi uma evolução posterior, construída a partir de DeepSeek-V2 com mais 6T tokens, contexto de 128K e cobertura muito maior de linguagens de programação.
Vale mais a pena usar o modelo original localmente ou a API atual?
Se você quer o DeepSeek Coder original, a rota coerente é usar checkpoints abertos em ambiente próprio. Se a prioridade é uma integração hospedada atual, o caminho correto é seguir a documentação atual da API da DeepSeek.
Fontes oficiais e leituras recomendadas
- DeepSeek Coder — project page oficial
- DeepSeek-Coder no GitHub — README oficial
- Paper: DeepSeek-Coder — When the Large Language Model Meets Programming
- Coleção DeepSeek-Coder no Hugging Face
- DeepSeek-Coder-V2 no GitHub
- Change Log oficial da API
- DeepSeek-V2.5 — fusão de Chat e Coder
- Models & Pricing — estado atual da API
- GET /models — referência de modelos atuais
Leia também no deepseek-portugues.chat
- DeepSeek V2
- DeepSeek V3
- DeepSeek V3.1
- DeepSeek V3.2
- DeepSeek R1
- Preços do DeepSeek
- FAQ
- Todos os modelos
- Segurança
Conclusão
O DeepSeek Coder continua sendo uma peça importante para entender a história técnica da DeepSeek em programação. Ele ajudou a consolidar uma visão open-weight para code intelligence, completion e infilling, abriu espaço para famílias mais poderosas como DeepSeek-Coder-V2 e influenciou a evolução que levou a modelos hospedados mais amplos e recentes.
Mas esse valor, hoje, é sobretudo histórico e técnico. Por isso, o melhor posicionamento desta página é mantê-la como arquivo de referência, ao mesmo tempo em que direciona quem quer integração atual para V3.2, pricing, chat, app e a documentação oficial. Assim, o conteúdo continua forte para SEO, pesquisa e educação sem entrar em conflito com as informações atuais do restante do site.
deepseek-portugues.chat é um projeto independente, sem afiliação oficial com a DeepSeek ou seus desenvolvedores. Esta página é histórica e informativa; para disponibilidade atual de modelos, limites de API, preços e políticas oficiais, consulte sempre as fontes oficiais da DeepSeek.