MiniMax Lança M2.7, Primeiro Modelo de IA com Autoevolução
-
Maicon Ramos
- 3 minutos de leitura
Navegue por tópicos
MiniMax apresentou o M2.7, modelo de linguagem com capacidade de autoevolução que reescreve seu próprio código de treinamento, alcançando 30% mais precisão.
- Atua autonomamente em até 50% do fluxo de desenvolvimento.
- Concorre diretamente com GPT-5.4 e Opus 4.6 em benchmarks técnicos.
- Disponível em API, integrações e open-source parcial via Ollama.
- Apresenta riscos de segurança e limitações em autonomia total.
MiniMax Lança M2.7, Modelo de IA que se Autoevolui
A empresa chinesa MiniMax anunciou o lançamento do M2.7, um modelo de linguagem grande (LLM) pioneiro em autoevolução, capaz de participar de até 50% do processo de seu próprio desenvolvimento. O anúncio oficial ocorreu recentemente no blog da MiniMax com disponibilidade via API e integrações em plataformas como Ollama (Leia mais no site oficial).
Principais Características e Capacidades
- Autoevolução: O M2.7 escreve código de treinamento, constrói harnesses agentes complexos, e executa loops de melhoria baseados em feedback autônomo.
- Performance: Aumentou em 30% a precisão em benchmarks chave como SWE-Pro, VIBE-Pro e MLE Bench Lite, competindo com modelos ocidentais de ponta como Opus 4.6 e GPT-5.4.
- Multimodalidade: Suporta processamento multimodal, incluindo análise de imagens e raciocínio em sistemas complexos.
- Escalabilidade: Mantém estabilidade em workflows com 50+ skills e 60-150 features em ambientes de produção simulados.
Desempenho em Benchmarks
| Benchmark | Desempenho (%) | Contexto |
|---|---|---|
| SWE-Pro | 56.22 | Tarefas reais de engenharia de software, perto dos líderes GPT-5.3-Codex e Opus. |
| VIBE-Pro | 55.6 | Compreensão de sistemas de engenharia complexos. |
| Terminal Bench 2 | 57.0 | Uso avançado de terminal em cenários técnicos. |
| MLE Bench Lite | 66.6 (medalhas) | Segundo lugar em 22 competições ML, empatando com Gemini 3.1. |
| Toolathon | 46.3 | Acima da média global em acurácia. |
Como Funciona a Autoevolução
O modelo opera com um loop de self-evolution que engloba módulos de memória de curto prazo, autocrítica e otimização. Após cada experimento, gera registros markdown para avaliar e ajustar seu próprio código e habilidades, permitindo melhorias contínuas sem intervenção humana direta em cada etapa.
Além disso, a arquitetura permite atualizações recursivas no harness, criando novas skills para tarefas complexas como engenharia de software e manipulação de documentos office.
Disponibilidade e Acesso
M2.7 está disponível via API da MiniMax, com planos de tokens e versões de alta velocidade para casos de uso intensivo. Também pode ser baixado para uso local via Ollama. Integrações já funcionam em ferramentas de programação e agentes autônomos.
Limitações e Críticas
- Autonomia Parcial: Humanos ainda definem decisões críticas, limitando a autoevolução a metade do workflow.
- Segurança: Possíveis riscos de loops de código inseguros e amplificação de vieses, com poucos detalhes públicos sobre salvaguardas.
- Escalabilidade: Pode enfrentar degradação em cenários com mais de 150 features complexas.
- Benchmark: Alguns especialistas consideram alguns dos benchmarks usados como simplificados para desafios de robustez real.
Vídeo Oficial
O funcionamento do loop de autoevolução do M2.7 e seus testes em competições Kaggle-like podem ser conferidos no vídeo oficial disponibilizado pela MiniMax no YouTube:









