首页 资讯 下载 教程 Skills 社群

DeepSeek / 火山引擎模型配置

概述

火山引擎是字节跳动旗下的云服务平台,通过其大模型服务(方舟)提供豆包(Doubao)系列及第三方开源模型的 API 接入。对于中国大陆用户而言,火山引擎的服务器部署在国内,访问延迟低、无需代理,同时支持 DeepSeek V3、Kimi K2 等热门开源模型,是一个高性价比的选择。

OpenClaw 为火山引擎提供了两个独立的提供者:volcengine(通用任务)和 volcengine-plan(专项编程任务),后者使用专为代码生成优化的独立 API 端点。

快速开始

第一步:获取 API Key

登录 火山引擎控制台,在「方舟大模型服务」中创建 API Key。

第二步:设置环境变量

export VOLCANO_ENGINE_API_KEY="your-volcengine-api-key"

第三步:初始化配置

openclaw onboard --auth-choice volcengine-api-key

配置参数

通用配置(文本推理):

{
  env: {
    VOLCANO_ENGINE_API_KEY: "your-volcengine-api-key"
  },
  agents: {
    defaults: {
      model: {
        primary: "volcengine/doubao-seed-1-8"
      }
    }
  }
}

编程专项配置(使用 volcengine-plan):

{
  env: {
    VOLCANO_ENGINE_API_KEY: "your-volcengine-api-key"
  },
  agents: {
    defaults: {
      model: {
        primary: "volcengine-plan/ark-code-latest"
      }
    }
  }
}

支持的模型

模型 ID 提供者 上下文 特点
volcengine/doubao-seed-1-8 volcengine 256K 豆包通用旗舰
volcengine-plan/doubao-seed-code-preview volcengine-plan 128K 豆包代码专项
volcengine-plan/ark-code-latest volcengine-plan 128K 方舟编程默认模型
volcengine/deepseek-v3-2 volcengine 128K DeepSeek 最新旗舰
volcengine/moonshotai/Kimi-K2.5 volcengine 256K Kimi 超长上下文
volcengine/glm-4.7 volcengine 128K 清华 GLM,中文优化

大多数模型支持文本和图像输入,上下文窗口在 128K 至 256K tokens 之间。

两个提供者的区别

  • volcengine:通用端点 ark.cn-beijing.volces.com/api/v3,适合对话、分析、写作等日常任务。
  • volcengine-plan:专项编程端点 ark.cn-beijing.volces.com/api/coding/v3,针对代码生成和调试场景优化,建议编程工作流中优先使用。

注意事项

国内访问优势:服务器位于北京,中国大陆用户无需代理即可稳定访问,适合在持续集成(CI/CD)环境中直接使用。

模型申请:部分新发布模型需要在火山引擎控制台手动开通权限,未开通时调用会返回权限错误。

后台守护进程:以 systemd 等方式运行的后台进程需将 VOLCANO_ENGINE_API_KEY 写入 ~/.openclaw/.env,确保进程有权读取。

计费模式:豆包系列模型采用按 token 计费,第三方模型(DeepSeek、Kimi)价格可能有所不同,建议在控制台确认当前费率。