MiniMax-M2.7 是我们首个深度参与自身进化过程的模型。M2.7 具备构建复杂智能体应用框架的能力,能够借助智能体团队、复杂技能以及动态工具搜索,完成高度精细的生产力任务。更多详情,请参阅我们的 博客文章。
M2.7 开启了模型自我进化的循环:在开发过程中,我们让模型自主更新自身记忆,为强化学习实验构建数十项复杂技能,并根据实验结果改进自身学习过程。一个内部版本的 M2.7 自主优化了一个编程框架,历经 100 多轮迭代——分析失败轨迹、修改代码、运行评估并决定保留或回滚——最终实现了30% 的性能提升。在 MLE Bench Lite(22 项机器学习竞赛)中,M2.7 获得了66.6% 的奖牌率,仅次于 Opus-4.6 和 GPT-5.4。
M2.7 展现出卓越的实际编程能力,涵盖日志分析、故障排查、代码重构、代码安全和机器学习等多个领域。除了代码生成,M2.7 还表现出强大的系统级推理能力——关联监控指标、进行追踪分析、在数据库中验证根本原因,并做出 SRE 级别的决策。借助 M2.7,我们已多次将生产环境事件的恢复时间缩短至三分钟以内。
在 SWE-Pro 基准测试中,M2.7 达到了56.22%,与 GPT-5.3-Codex 相当,在实际工程基准测试中表现更为出色:SWE 多语言(76.5) 和多 SWE 基准(52.7)。在 VIBE-Pro(55.6%) 上,M2.7 几乎与 Opus 4.6 持平。在 Terminal Bench 2(57.0%) 和 NL2Repo(39.8%) 上,M2.7 展现出对复杂工程系统的深刻理解。M2.7 还原生支持智能体团队(Agent Teams),实现多智能体协作,具备稳定的角色认同和自主决策能力。
在 GDPval-AA 上,M2.7 获得了1495 的 ELO 分数(在开源权重模型中最高),超过了 GPT5.3。它能够处理 Word、Excel 和 PPT,进行高保真的多轮编辑,并生成可编辑的成果物。在 Toolathon 上,M2.7 达到了46.3% 的准确率(全球顶级水平),并且在 MM Claw 的 40 多项复杂技能中保持97% 的技能合规率。在 MM Claw 端到端基准测试中,M2.7 达到了62.7%,接近 Sonnet 4.6。
M2.7 强化了角色一致性与情感智能。我们开源了 OpenRoom——这是一款交互式演示产品,将 AI 交互融入具备实时视觉反馈与场景互动的 Web GUI 空间。欢迎访问 openroom.ai 体验。
从 HuggingFace 仓库下载模型:https://huggingface.co/MiniMaxAI/MiniMax-M2.7
我们建议使用以下推理框架(按字母顺序排列)来部署模型:
我们推荐使用 SGLang 部署 MiniMax-M2.7。请参考我们的 SGLang 部署指南。
我们推荐使用 vLLM 部署 MiniMax-M2.7。请参考我们的 vLLM 部署指南。
我们推荐使用 Transformers 部署 MiniMax-M2.7。请参考我们的 Transformers 部署指南。
您也可以从 modelscope 获取模型权重。
MiniMax M2.7 也可在 NVIDIA NIM 端点 获取。
为获得最佳性能,我们建议使用以下参数:temperature=1.0,top_p = 0.95,top_k = 40。默认系统提示词:
You are a helpful assistant. Your name is MiniMax-M2.7 and is built by MiniMax.请参考我们的工具调用指南。
请通过model@minimax.io与我们联系。