发布详情
2026 年 4 月 12 日,MiniMax 正式开源 M2.7——一款具有自我进化能力的 AI Agent 模型,也是首个参与自身开发周期的大模型,标志着向自主 AI 自我演化迈出关键一步。
模型权重已发布在 Hugging Face,支持 SGLang、vLLM、Transformers、NVIDIA NIM 等部署方案。
模型规格
- 架构:Mixture-of-Experts(MoE)
- 总参数:2290 亿(229B)
- 开源协议:宽松开源协议
- Hugging Face 地址:
unsloth/MiniMax-M2.7 - 部署支持:SGLang、vLLM、Transformers、NVIDIA NIM
性能表现
编程能力
| 基准测试 | M2.7 得分 | 对比 |
|---|---|---|
| SWE-Pro | 56.22% | 开源模型领先 |
| Terminal Bench 2 | 57.0% | 顶级表现 |
GDPval-AA 领域专业知识
在 45 个模型的领域专业评估中:
- ELO 1495:开源模型最高分
- 仅次于 Claude Opus 4.6、Sonnet 4.6、GPT-5.4
- 超越所有其他开源模型
在主流基准中的位置
综合评分 56.22%,66.6% 奖牌率(三次试验):
- 与 Gemini-3.1 持平
- 仅次于 Claude Opus-4.6(75.7%)和 GPT-5.4(71.2%)
自我进化能力
M2.7 最大的亮点是自我进化能力。MiniMax 让 M2.7 的内部版本优化一个编程脚手架:
- 自主运行 100+ 轮
- 分析失败轨迹
- 修改脚手架代码
- 运行评估
- 决定保留或回滚每次变更
结果:内部评估集性能提升 30%——完全由模型自主完成。
实际应用
在 MiniMax 的强化学习团队内:
- M2.7 端到端处理 30-50% 的日常工作流
- 研究人员只在关键决策时介入
- 模型管理:文献综述、实验跟踪、数据管道、调试、合并请求
这代表了 AI 从"辅助工具"到"自主研究员"的转变。
在 OpenClaw 中使用
OpenClaw 用户可以通过多种方式接入 M2.7:
方式 1:通过 vLLM 本地部署
providers:
minimax-m27:
baseUrl: "http://your-vllm-server:8000/v1"
apiKey: "placeholder"
defaultModel: "MiniMax-M2.7"
方式 2:通过 SGLang
SGLang 针对 MoE 模型有特殊优化,适合本地高性能部署:
providers:
minimax-m27-sglang:
baseUrl: "http://your-sglang:30000/v1"
方式 3:通过 OpenRouter
OpenRouter 很可能快速上架 M2.7,届时可以直接使用:
providers:
openrouter:
apiKey: "$OPENROUTER_KEY"
# 使用 minimax/m27 路由
硬件需求
229B MoE 模型需要相当的硬件:
- FP16 推理:约 458GB 显存(需要多卡)
- INT8 量化:约 229GB 显存
- INT4 量化:约 115GB 显存(单台 8×A100 可跑)
个人用户通常通过云服务或 API 使用,自部署门槛较高。
许可证变动
值得注意的是,MiniMax 在开源后静悄悄地修改了许可证。用户在生产环境使用前务必:
- 阅读最新许可证
- 确认商用允许范围
- 关注许可证后续变化
行业意义
开源 vs 闭源差距缩小
M2.7 让开源模型在 Agent 编程领域接近了 Claude 和 GPT-5 的水平:
- 闭源:Claude Opus 4.6、GPT-5.4
- 开源领先:M2.7
- 这是开源社区的重要里程碑
自我进化的意义
M2.7 展示了 AI 可以:
- 自主分析失败
- 自主改进代码
- 自主决定变更
这让"AI 研究 AI"从理论走向实践。
对中国 AI 生态的贡献
MiniMax 作为中国 AI 公司,此次开源:
- 加强了中国在顶级开源 AI 领域的位置
- 与阿里 Qwen 3.6、智谱 GLM-5 形成合力
- 中国开源模型正集体冲击全球前列
注意事项
- 许可证变动:使用前再次确认最新许可证条款
- 硬件门槛:229B 模型个人部署困难
- Agent 安全:自我进化能力需要审慎使用,避免失控
- 生产环境:建议先在受控环境验证