概述
火山引擎是字节跳动旗下的云服务平台,通过其大模型服务(方舟)提供豆包(Doubao)系列及第三方开源模型的 API 接入。对于中国大陆用户而言,火山引擎的服务器部署在国内,访问延迟低、无需代理,同时支持 DeepSeek V3、Kimi K2 等热门开源模型,是一个高性价比的选择。
OpenClaw 为火山引擎提供了两个独立的提供者:volcengine(通用任务)和 volcengine-plan(专项编程任务),后者使用专为代码生成优化的独立 API 端点。
快速开始
第一步:获取 API Key
登录 火山引擎控制台,在「方舟大模型服务」中创建 API Key。
第二步:设置环境变量
export VOLCANO_ENGINE_API_KEY="your-volcengine-api-key"
第三步:初始化配置
openclaw onboard --auth-choice volcengine-api-key
配置参数
通用配置(文本推理):
{
env: {
VOLCANO_ENGINE_API_KEY: "your-volcengine-api-key"
},
agents: {
defaults: {
model: {
primary: "volcengine/doubao-seed-1-8"
}
}
}
}
编程专项配置(使用 volcengine-plan):
{
env: {
VOLCANO_ENGINE_API_KEY: "your-volcengine-api-key"
},
agents: {
defaults: {
model: {
primary: "volcengine-plan/ark-code-latest"
}
}
}
}
支持的模型
| 模型 ID | 提供者 | 上下文 | 特点 |
|---|---|---|---|
volcengine/doubao-seed-1-8 |
volcengine | 256K | 豆包通用旗舰 |
volcengine-plan/doubao-seed-code-preview |
volcengine-plan | 128K | 豆包代码专项 |
volcengine-plan/ark-code-latest |
volcengine-plan | 128K | 方舟编程默认模型 |
volcengine/deepseek-v3-2 |
volcengine | 128K | DeepSeek 最新旗舰 |
volcengine/moonshotai/Kimi-K2.5 |
volcengine | 256K | Kimi 超长上下文 |
volcengine/glm-4.7 |
volcengine | 128K | 清华 GLM,中文优化 |
大多数模型支持文本和图像输入,上下文窗口在 128K 至 256K tokens 之间。
两个提供者的区别
volcengine:通用端点ark.cn-beijing.volces.com/api/v3,适合对话、分析、写作等日常任务。volcengine-plan:专项编程端点ark.cn-beijing.volces.com/api/coding/v3,针对代码生成和调试场景优化,建议编程工作流中优先使用。
注意事项
国内访问优势:服务器位于北京,中国大陆用户无需代理即可稳定访问,适合在持续集成(CI/CD)环境中直接使用。
模型申请:部分新发布模型需要在火山引擎控制台手动开通权限,未开通时调用会返回权限错误。
后台守护进程:以 systemd 等方式运行的后台进程需将 VOLCANO_ENGINE_API_KEY 写入 ~/.openclaw/.env,确保进程有权读取。
计费模式:豆包系列模型采用按 token 计费,第三方模型(DeepSeek、Kimi)价格可能有所不同,建议在控制台确认当前费率。