DeepSeek V3.2 rivaliza GPT-5 por US$ 0,28/M

DeepSeek V3.2 rivaliza GPT-5 por US$ 0,28/M

Navegue por tópicos

A DeepSeek AI lançou os modelos DeepSeek-V3.2 e V3.2-Speciale em 1º de dezembro de 2025, rivalizando líderes como GPT-5 em benchmarks de raciocínio.

  • Desempenho: Até 95,7% em IMO 2025.
  • Preço: US$ 0,28/milhão input; 52% mais barato que GPT-5.
  • Inovação: DSA para contextos longos de 128K+ tokens.
  • Limitações: Speciale sem tool-use e mais caro para uso geral.

A startup chinesa DeepSeek AI lançou em 1º de dezembro de 2025 os modelos DeepSeek-V3.2 e DeepSeek-V3.2-Speciale, além da prévia experimental V3.2-Exp. Esses LLMs open-weight competem diretamente com GPT-5 e Gemini 3 Pro em tarefas de matemática, programação e contextos longos, a custos até 52% inferiores.

Disponíveis via API, web e app, os modelos integram plataformas como Hugging Face e ferramentas de agentes autônomos. O lançamento responde à demanda por eficiência em raciocínio avançado.

Arquitetura e Inovações Principais

O DeepSeek-V3.2 baseia-se em 671 bilhões de parâmetros, herdados do V3.1-Terminus. A inovação central é o DeepSeek Sparse Attention (DSA), que ativa apenas 15-20% das conexões por token, reduzindo memória em 30-40% e acelerando inferência em 2-3x para contextos acima de 64K tokens. Anúncio oficial destaca suporte a 128K tokens, expansível no Speciale.

O V3.2-Speciale otimiza long reasoning chains, com contexto dinâmico até 256K tokens e modo exclusivo de pensamento passo a passo. No entanto, não suporta tool-use.

Componente V3.2 / Exp V3.2-Speciale
Base 671B params Otimização reasoning
Inovação DSA Relaxamento length
Contexto máx. 128K Dinâmico 256K

Desempenho em Benchmarks

Os modelos se destacam em testes oficiais. O V3.2-Speciale atinge 95,7% na IMO 2025 e 91,3% na ICPC 2025, superando GPT-5 (94,1%) e Gemini 3 Pro (89,8%). Hugging Face hospeda pesos para avaliação.

Categoria V3.2 V3.2-Speciale Referência
Matemática 89,2% (GSM8K) 95,7% (IMO) GPT-5: 94,1%
Programação 82,5% (HumanEval) 91,3% (ICPC) Gemini: 89,8%
Long Context 78% (MMLU 128K) 84% (LiveBench) Claude: 80,1%

Precificação Acessível

A API cobra US$ 0,28 por milhão de tokens de entrada e US$ 0,42 de saída no V3.2, com cache hits a US$ 0,07. Isso representa economia de mais de 50% ante GPT-5. Detalhes de preços.

Modelo Entrada Saída Vs. GPT-5
DeepSeek-V3.2 US$ 0,28/M US$ 0,42/M 52% mais barato
GPT-5-High US$ 0,58/M US$ 0,87/M

Limitações e Críticas

Apesar dos avanços, há ressalvas. O Speciale não é ideal para produção comercial, consumindo até 3x mais tokens e sem suporte a ferramentas. O DSA perde eficiência em contextos curtos (<8K tokens), sendo 5-10% mais lento que antecessores.

  • Comparações com GPT-5-High, não o padrão, onde perde em 12/15 categorias MMLU.
  • Licença: Open-weight parcial, não MIT; restrições para produção sem API.
  • Cache hits limitados a queries repetitivas (>70% idênticos).
  • Treinamento consumiu 4,2 GWh, com riscos de ataques adversariais no DSA.

Para a maioria dos usos, o V3.2 padrão equilibra custo e performance, posicionando a DeepSeek como alternativa viável no mercado de LLMs empresariais.

Foto de Maicon Ramos

Maicon Ramos

Infoprodutor e especialista em automações de Marketing, fundador do Automação sem Limites, uma comunidade para ajudar empreendedores e startup.