MiniMax M2.7 简介
MiniMax M2.7 是 2026 年 4 月 12 日开源的自我进化Agent 模型:
- 架构:MoE(Mixture of Experts)
- 总参数:2290 亿
- 基准表现:SWE-Pro 56.22%、Terminal Bench 2 57.0%
- 开源协议:宽松商用协议(注意许可证有变动,使用前复核)
在开源模型中,M2.7 接近 Claude 和 GPT-5 的编程能力。
接入方式选择
OpenClaw 接入 M2.7 有三种方式:
| 方式 | 适合场景 | 硬件要求 |
|---|---|---|
| vLLM 自部署 | 有 GPU 资源、注重性能 | 8×A100 或同级 |
| SGLang 自部署 | MoE 优化、最佳性能 | 8×A100 或同级 |
| OpenRouter | 无硬件门槛、按量付费 | 仅需 API Key |
方式 1:vLLM 部署
安装 vLLM
pip install vllm
启动服务器
# FP16 部署(需要 ~460GB 显存)
vllm serve unsloth/MiniMax-M2.7 \
--tensor-parallel-size 8 \
--host 0.0.0.0 \
--port 8000
# INT4 量化(需要 ~115GB 显存,单台 8×A100 可跑)
vllm serve unsloth/MiniMax-M2.7-INT4 \
--tensor-parallel-size 4 \
--host 0.0.0.0 \
--port 8000
OpenClaw 配置
providers:
minimax-m27:
baseUrl: "http://your-vllm-server:8000/v1"
apiKey: "placeholder" # vLLM 默认无需 Key
defaultModel: "MiniMax-M2.7"
agents:
coder:
provider: "minimax-m27"
model: "MiniMax-M2.7"
systemPrompt: "你是一个专业的软件工程师"
方式 2:SGLang 部署
SGLang 对 MoE 模型有特殊优化,性能通常优于 vLLM。
安装 SGLang
pip install sglang[all]
启动服务器
python -m sglang.launch_server \
--model-path unsloth/MiniMax-M2.7 \
--tensor-parallel-size 8 \
--host 0.0.0.0 \
--port 30000
OpenClaw 配置
providers:
minimax-m27-sglang:
baseUrl: "http://your-sglang-server:30000/v1"
apiKey: "placeholder"
defaultModel: "MiniMax-M2.7"
方式 3:OpenRouter
对于没有 GPU 资源的用户,OpenRouter 是最便捷方式。
配置 OpenRouter
providers:
openrouter:
apiKey: "$OPENROUTER_API_KEY"
使用 M2.7
agents:
coder:
provider: "openrouter"
model: "minimax/m2.7" # 具体路由名以 OpenRouter 为准
适用场景
1. 编程助手
M2.7 在 SWE-Pro 上 56.22% 的得分意味着:
- 能完成大部分真实软件工程任务
- 适合替代 GPT-4 级别模型
- 成本比 Claude Opus 低很多(自部署后更低)
用户:实现一个用户认证模块
Agent:[M2.7 生成完整代码、测试、文档]
2. 终端操作
Terminal Bench 2 57.0% 的表现:
- 熟练使用命令行
- 能进行复杂的 Shell 操作
- 适合 DevOps 自动化
3. Agent 系统核心
MiniMax 自己用 M2.7 处理 30-50% 的日常工作流,说明它适合作为:
- 主力 Agent 的大脑
- 长任务的决策者
- 多 Agent 系统的协调者
与其他模型对比
vs Claude Opus 4.6
| 维度 | M2.7 | Claude Opus 4.6 |
|---|---|---|
| SWE-Pro | 56.22% | 75.7% |
| 开源 | 是 | 否 |
| 自部署成本 | 一次性硬件 | 不可 |
| API 成本 | 低 | 高 |
| 数据隐私 | 完全本地 | 云端 |
vs GPT-5.4
| 维度 | M2.7 | GPT-5.4 |
|---|---|---|
| SWE-Pro | 56.22% | 71.2% |
| 开源 | 是 | 否 |
| 部署自由度 | 高 | 低 |
vs Qwen 3.6-Plus
| 维度 | M2.7 | Qwen 3.6-Plus |
|---|---|---|
| 参数 | 229B MoE | 闭源 |
| 编程 | 接近顶级 | 接近 Claude |
| 中文 | 优秀 | 优秀 |
| 部署 | 可本地 | 仅阿里云 |
实际性能优化
上下文长度
M2.7 支持较长上下文(具体以 HuggingFace 页为准):
providers:
minimax-m27:
defaultContextLength: 32768
批处理
vLLM 和 SGLang 都支持批处理,提高吞吐:
# vLLM 批处理
vllm serve ... --max-num-seqs 32
量化选择
如果硬件资源有限:
- INT8:几乎无精度损失,节省 50% 显存
- INT4:可接受精度损失,节省 75% 显存
- AWQ/GPTQ:专门优化的量化方案
成本估算
自部署成本
以 8×A100 配置为例:
- 硬件:约 10-15 万美元(一次性)
- 电力:约 $5-10/天
- 维护:约 $500-1000/月
OpenRouter 成本
预计定价(以 OpenRouter 实际为准):
- 输入:$0.5-1.0 / 百万 Token
- 输出:$1.5-3.0 / 百万 Token
比 Claude 便宜 70-90%。
注意事项
- 许可证变动:MiniMax 开源后修改过许可证,商用前务必确认最新条款
- 自我进化功能:OpenClaw 接入时建议禁用 M2.7 的自我修改能力,防止失控
- 硬件门槛:229B 模型自部署对个人用户几乎不现实
- 中文能力:M2.7 中文表现良好但不如 Qwen 系列针对性强
- Agent 安全:建议配合 Microsoft Agent Governance Toolkit 使用
- 备份 Provider:建议配置备用 Provider,M2.7 服务异常时自动切换