首页 资讯 下载 教程 Skills 社群

OpenClaw 接入 Kimi/Moonshot 模型教程

概述

Moonshot AI 旗下的 Kimi 系列模型以超长上下文窗口著称,支持高达 256K token 的上下文长度,非常适合长文档分析和大型代码库理解等场景。OpenClaw 中提供两个独立的提供者来接入 Moonshot 的模型服务。

两个提供者的区别

Moonshot 在 OpenClaw 中分为两个独立提供者:

提供者 用途 API 端点 模型前缀
moonshot 标准 Moonshot API api.moonshot.ai/v1 moonshot/
kimi-coding Kimi Coding 专用 api.moonshot.cn/v1 kimi-coding/

两个提供者需要分别申请 API Key,互不通用。

可用模型

目前支持以下 5 种模型变体:

模型 ID 特点 上下文窗口 最大输出
kimi-k2.5 最新旗舰模型 256K 8192
kimi-k2-turbo-preview 快速推理预览版 256K 8192
kimi-k2-thinking 深度思考模型 256K 8192
kimi-k2-vision 支持图像理解 256K 8192
kimi-k2-math 数学推理增强 256K 8192

配置步骤

获取 API Key

Moonshot 标准 API: 访问 Moonshot Platform 注册并获取 API Key。

Kimi Coding API: 在 Kimi Coding 开发者页面单独申请 API Key。

环境变量设置

# Moonshot 标准 API
export MOONSHOT_API_KEY="sk-xxxxxxxxxxxxxxxx"

# Kimi Coding API(如需)
export KIMI_CODING_API_KEY="sk-xxxxxxxxxxxxxxxx"

使用 onboard 命令

# 配置 Moonshot 标准提供者
openclaw onboard --provider moonshot --auth-choice api-key

# 配置 Kimi Coding 提供者
openclaw onboard --provider kimi-coding --auth-choice api-key

配置文件示例

{
  providers: {
    moonshot: {
      type: "moonshot",
      apiKey: "${MOONSHOT_API_KEY}",
      baseUrl: "https://api.moonshot.ai/v1"
    },
    "kimi-coding": {
      type: "kimi-coding",
      apiKey: "${KIMI_CODING_API_KEY}",
      baseUrl: "https://api.moonshot.cn/v1"
    }
  },
  agents: {
    default: {
      model: "moonshot/kimi-k2.5"
    },
    coder: {
      model: "kimi-coding/kimi-k2.5"
    }
  }
}

利用超长上下文

256K 的上下文窗口意味着你可以一次性向 Kimi 模型提供大量参考资料。在 OpenClaw 中,可以这样利用这一优势:

长文档分析

# 将整个代码库作为上下文
openclaw chat --model moonshot/kimi-k2.5 \
  --context ./src/ \
  --message "分析这个项目的架构设计"

配合技能插件

{
  agents: {
    analyst: {
      model: "moonshot/kimi-k2.5",
      skills: ["file-reader", "code-analyzer"],
      // 充分利用 256K 上下文
      contextWindow: 256000
    }
  }
}

模型选择建议

  • 日常编码kimi-k2-turbo-preview,响应速度快
  • 复杂推理kimi-k2-thinking,会展示思维过程
  • 图像相关kimi-k2-vision,支持截图和图表理解
  • 数学计算kimi-k2-math,数理逻辑更强
  • 综合任务kimi-k2.5,旗舰级全能选手

常见问题

Q:两个提供者可以共用一个 API Key 吗? 不可以。moonshotkimi-coding 是独立的服务,需要分别在各自平台申请 API Key。

Q:超长上下文会增加费用吗? 是的,token 消耗与输入长度直接相关。虽然 256K 是上限,但实际使用时建议只传入必要的上下文内容,避免不必要的开支。

Q:国内网络可以直接访问吗? 可以。Moonshot 是国内公司,api.moonshot.aiapi.moonshot.cn 在国内均可直接访问,无需代理。

Q:输出长度最大只有 8192 token? 目前 Kimi 系列模型的最大输出限制为 8192 token。对于需要更长输出的场景,可以通过多轮对话拼接或使用任务拆分策略。