Z AI Lança GLM-5.1, Modelo Open-Source Líder em Codificação
-
Maicon Ramos
- 3 minutos de leitura
Navegue por tópicos
O GLM-5.1 da Z AI marca avanço em IA open-source para codificação, liderando o SWE-Bench Pro e realizando tarefas autônomas longas.
- Lançado em 7 de abril de 2026, superando GPT-5.4 e Claude em benchmark rigoroso.
- Execução autônoma de até 8 horas com melhorias iterativas.
- Custo significativamente menor que concorrentes proprietários.
- Desempenho inferior em raciocínio matemático puro.
Lide
A Z AI, laboratório de inteligência artificial chinês, lançou em 7 de abril de 2026 o modelo open-source de codificação GLM-5.1. O modelo alcançou o primeiro lugar no SWE-Bench Pro, benchmark global para avaliação de modelos de IA em tarefas práticas de engenharia de software, superando referências como GPT-5.4 e Claude Opus 4.6.
Desempenho e Capacidades Técnicas
O GLM-5.1 obteve 58,4% no SWE-Bench Pro, contra 57,7% do GPT-5.4 e 57,3% do Claude Opus 4.6. Ele se destaca especialmente em cenários que envolvem longas sequências de código e automação, capaz de executar tarefas de programação complexas de forma autônoma por até 8 horas, incluindo o desenvolvimento de uma aplicação web para desktop Linux sem supervisão humana.
Além disso, o modelo apresentou desempenho expressivo em benchmarks complementares, como CyberGym e Terminal-Bench 2.0, reforçando sua robustez para tarefas práticas e de cibersegurança.
Tabela de Comparação em Benchmarks Selecionados
| Benchmark | GLM-5.1 | GPT-5.4 | Claude Opus 4.6 | Gemini 3.1 Pro |
|---|---|---|---|---|
| SWE-Bench Pro | 58,4% | 57,7% | 57,3% | 54,2% |
| CyberGym | 68,7% | — | 66,6% | — |
| Terminal-Bench 2.0 | 66,5% | — | — | — |
| GPQA-Diamond | 86,2% | 92,0% | 91,3% | — |
| AIME 2026 | 95,3% | 98,7% | — | — |
| HLE (Raciocínio) | 31,0% | 39,8% | 36,7% | — |
Avanços e Economia
Comparado ao modelo base GLM-5, o GLM-5.1 melhorou seu desempenho no SWE-Bench Pro em mais de 16 pontos percentuais. Além do desempenho superior, sua utilização representa uma redução de custos de aproximadamente 80% a 87% em relação a modelos concorrentes, com preços estimados em $1.00 a $3.20 por milhão de tokens, contra até $25 em modelos proprietários como o Claude Opus 4.6.
Limitações e Considerações
O modelo apresenta desempenho inferior em tarefas que exigem raciocínio matemático puro, ficando atrás de concorrentes como GPT-5.4 em benchmarks como HLE e AIME 2026. Além disso, embora haja menção sobre alta performance em avaliações criativas de design web, não foram encontrados dados independentes para validar essa afirmação.
Por fim, a liderança do GLM-5.1 em um benchmark global simboliza o avanço competitivo da indústria chinesa de IA open-source frente a players tradicionais dos EUA e Europa, porém o mercado segue diversificado com múltiplas métricas coexistentes.
FAQ
- GLM-5.1 é melhor que Claude Opus 4.6? Sim, em codificação prática, mas perde em raciocínio matemático.
- Pode executar tarefas autônomas longas? Sim, por até 8 horas com melhorias iterativas.
- Qual economia no custo? Cerca de 80-87% em relação aos concorrentes.
- É open-source verdadeiro? Sim, o modelo é aberto com licença não especificada.
- Quando estará disponível comercialmente? Desde 7 de abril de 2026, com expectativa de APIs comerciais iminentes.








