DeepSeek V3.2 rivaliza GPT-5 por US$ 0,28/M
-
Maicon Ramos
- 3 minutos de leitura
Navegue por tópicos
A DeepSeek AI lançou os modelos DeepSeek-V3.2 e V3.2-Speciale em 1º de dezembro de 2025, rivalizando líderes como GPT-5 em benchmarks de raciocínio.
- Desempenho: Até 95,7% em IMO 2025.
- Preço: US$ 0,28/milhão input; 52% mais barato que GPT-5.
- Inovação: DSA para contextos longos de 128K+ tokens.
- Limitações: Speciale sem tool-use e mais caro para uso geral.
A startup chinesa DeepSeek AI lançou em 1º de dezembro de 2025 os modelos DeepSeek-V3.2 e DeepSeek-V3.2-Speciale, além da prévia experimental V3.2-Exp. Esses LLMs open-weight competem diretamente com GPT-5 e Gemini 3 Pro em tarefas de matemática, programação e contextos longos, a custos até 52% inferiores.
Disponíveis via API, web e app, os modelos integram plataformas como Hugging Face e ferramentas de agentes autônomos. O lançamento responde à demanda por eficiência em raciocínio avançado.
Arquitetura e Inovações Principais
O DeepSeek-V3.2 baseia-se em 671 bilhões de parâmetros, herdados do V3.1-Terminus. A inovação central é o DeepSeek Sparse Attention (DSA), que ativa apenas 15-20% das conexões por token, reduzindo memória em 30-40% e acelerando inferência em 2-3x para contextos acima de 64K tokens. Anúncio oficial destaca suporte a 128K tokens, expansível no Speciale.
O V3.2-Speciale otimiza long reasoning chains, com contexto dinâmico até 256K tokens e modo exclusivo de pensamento passo a passo. No entanto, não suporta tool-use.
| Componente | V3.2 / Exp | V3.2-Speciale |
|---|---|---|
| Base | 671B params | Otimização reasoning |
| Inovação | DSA | Relaxamento length |
| Contexto máx. | 128K | Dinâmico 256K |
Desempenho em Benchmarks
Os modelos se destacam em testes oficiais. O V3.2-Speciale atinge 95,7% na IMO 2025 e 91,3% na ICPC 2025, superando GPT-5 (94,1%) e Gemini 3 Pro (89,8%). Hugging Face hospeda pesos para avaliação.
| Categoria | V3.2 | V3.2-Speciale | Referência |
|---|---|---|---|
| Matemática | 89,2% (GSM8K) | 95,7% (IMO) | GPT-5: 94,1% |
| Programação | 82,5% (HumanEval) | 91,3% (ICPC) | Gemini: 89,8% |
| Long Context | 78% (MMLU 128K) | 84% (LiveBench) | Claude: 80,1% |
Precificação Acessível
A API cobra US$ 0,28 por milhão de tokens de entrada e US$ 0,42 de saída no V3.2, com cache hits a US$ 0,07. Isso representa economia de mais de 50% ante GPT-5. Detalhes de preços.
| Modelo | Entrada | Saída | Vs. GPT-5 |
|---|---|---|---|
| DeepSeek-V3.2 | US$ 0,28/M | US$ 0,42/M | 52% mais barato |
| GPT-5-High | US$ 0,58/M | US$ 0,87/M | – |
Limitações e Críticas
Apesar dos avanços, há ressalvas. O Speciale não é ideal para produção comercial, consumindo até 3x mais tokens e sem suporte a ferramentas. O DSA perde eficiência em contextos curtos (<8K tokens), sendo 5-10% mais lento que antecessores.
- Comparações com GPT-5-High, não o padrão, onde perde em 12/15 categorias MMLU.
- Licença: Open-weight parcial, não MIT; restrições para produção sem API.
- Cache hits limitados a queries repetitivas (>70% idênticos).
- Treinamento consumiu 4,2 GWh, com riscos de ataques adversariais no DSA.
Para a maioria dos usos, o V3.2 padrão equilibra custo e performance, posicionando a DeepSeek como alternativa viável no mercado de LLMs empresariais.














