首页 资讯 下载 教程 Skills 社群

OpenClaw 接入 MiniMax M2.7:自我进化的开源 Agent 模型

MiniMax M2.7 简介

MiniMax M2.7 是 2026 年 4 月 12 日开源的自我进化Agent 模型:

  • 架构:MoE(Mixture of Experts)
  • 总参数:2290 亿
  • 基准表现:SWE-Pro 56.22%、Terminal Bench 2 57.0%
  • 开源协议:宽松商用协议(注意许可证有变动,使用前复核)

在开源模型中,M2.7 接近 Claude 和 GPT-5 的编程能力

接入方式选择

OpenClaw 接入 M2.7 有三种方式:

方式 适合场景 硬件要求
vLLM 自部署 有 GPU 资源、注重性能 8×A100 或同级
SGLang 自部署 MoE 优化、最佳性能 8×A100 或同级
OpenRouter 无硬件门槛、按量付费 仅需 API Key

方式 1:vLLM 部署

安装 vLLM

pip install vllm

启动服务器

# FP16 部署(需要 ~460GB 显存)
vllm serve unsloth/MiniMax-M2.7 \
  --tensor-parallel-size 8 \
  --host 0.0.0.0 \
  --port 8000

# INT4 量化(需要 ~115GB 显存,单台 8×A100 可跑)
vllm serve unsloth/MiniMax-M2.7-INT4 \
  --tensor-parallel-size 4 \
  --host 0.0.0.0 \
  --port 8000

OpenClaw 配置

providers:
  minimax-m27:
    baseUrl: "http://your-vllm-server:8000/v1"
    apiKey: "placeholder"  # vLLM 默认无需 Key
    defaultModel: "MiniMax-M2.7"

agents:
  coder:
    provider: "minimax-m27"
    model: "MiniMax-M2.7"
    systemPrompt: "你是一个专业的软件工程师"

方式 2:SGLang 部署

SGLang 对 MoE 模型有特殊优化,性能通常优于 vLLM。

安装 SGLang

pip install sglang[all]

启动服务器

python -m sglang.launch_server \
  --model-path unsloth/MiniMax-M2.7 \
  --tensor-parallel-size 8 \
  --host 0.0.0.0 \
  --port 30000

OpenClaw 配置

providers:
  minimax-m27-sglang:
    baseUrl: "http://your-sglang-server:30000/v1"
    apiKey: "placeholder"
    defaultModel: "MiniMax-M2.7"

方式 3:OpenRouter

对于没有 GPU 资源的用户,OpenRouter 是最便捷方式。

配置 OpenRouter

providers:
  openrouter:
    apiKey: "$OPENROUTER_API_KEY"

使用 M2.7

agents:
  coder:
    provider: "openrouter"
    model: "minimax/m2.7"  # 具体路由名以 OpenRouter 为准

适用场景

1. 编程助手

M2.7 在 SWE-Pro 上 56.22% 的得分意味着:

  • 能完成大部分真实软件工程任务
  • 适合替代 GPT-4 级别模型
  • 成本比 Claude Opus 低很多(自部署后更低)
用户:实现一个用户认证模块
Agent:[M2.7 生成完整代码、测试、文档]

2. 终端操作

Terminal Bench 2 57.0% 的表现:

  • 熟练使用命令行
  • 能进行复杂的 Shell 操作
  • 适合 DevOps 自动化

3. Agent 系统核心

MiniMax 自己用 M2.7 处理 30-50% 的日常工作流,说明它适合作为:

  • 主力 Agent 的大脑
  • 长任务的决策者
  • 多 Agent 系统的协调者

与其他模型对比

vs Claude Opus 4.6

维度 M2.7 Claude Opus 4.6
SWE-Pro 56.22% 75.7%
开源
自部署成本 一次性硬件 不可
API 成本
数据隐私 完全本地 云端

vs GPT-5.4

维度 M2.7 GPT-5.4
SWE-Pro 56.22% 71.2%
开源
部署自由度

vs Qwen 3.6-Plus

维度 M2.7 Qwen 3.6-Plus
参数 229B MoE 闭源
编程 接近顶级 接近 Claude
中文 优秀 优秀
部署 可本地 仅阿里云

实际性能优化

上下文长度

M2.7 支持较长上下文(具体以 HuggingFace 页为准):

providers:
  minimax-m27:
    defaultContextLength: 32768

批处理

vLLM 和 SGLang 都支持批处理,提高吞吐:

# vLLM 批处理
vllm serve ... --max-num-seqs 32

量化选择

如果硬件资源有限:

  • INT8:几乎无精度损失,节省 50% 显存
  • INT4:可接受精度损失,节省 75% 显存
  • AWQ/GPTQ:专门优化的量化方案

成本估算

自部署成本

以 8×A100 配置为例:

  • 硬件:约 10-15 万美元(一次性)
  • 电力:约 $5-10/天
  • 维护:约 $500-1000/月

OpenRouter 成本

预计定价(以 OpenRouter 实际为准):

  • 输入:$0.5-1.0 / 百万 Token
  • 输出:$1.5-3.0 / 百万 Token

比 Claude 便宜 70-90%。

注意事项

  • 许可证变动:MiniMax 开源后修改过许可证,商用前务必确认最新条款
  • 自我进化功能:OpenClaw 接入时建议禁用 M2.7 的自我修改能力,防止失控
  • 硬件门槛:229B 模型自部署对个人用户几乎不现实
  • 中文能力:M2.7 中文表现良好但不如 Qwen 系列针对性强
  • Agent 安全:建议配合 Microsoft Agent Governance Toolkit 使用
  • 备份 Provider:建议配置备用 Provider,M2.7 服务异常时自动切换