首页 资讯 下载 教程 Skills 社群

Together AI 开源模型配置

概述

Together AI 是专注于开源模型推理的云服务平台,汇聚了来自 Meta、DeepSeek、MoonshotAI 等多家机构的热门开源模型。相较于直接调用各家官方 API,Together AI 提供统一接口、竞争力定价,以及针对长上下文任务优化的推理基础设施。OpenClaw 以 together 为提供者 ID,通过 OpenAI 兼容 API 与之通信。

快速开始

第一步:获取 API Key

前往 api.together.xyz 注册并生成 API Key。

第二步:设置环境变量

export TOGETHER_API_KEY="your-together-api-key"

第三步:初始化配置

openclaw onboard --auth-choice together-api-key

非交互式环境可使用完整命令行参数:

openclaw onboard --non-interactive \
  --mode local \
  --auth-choice together-api-key \
  --together-api-key "$TOGETHER_API_KEY"

配置参数

{
  env: {
    TOGETHER_API_KEY: "your-together-api-key"
  },
  agents: {
    defaults: {
      model: {
        primary: "together/moonshotai/Kimi-K2.5"
      }
    }
  }
}

Together AI 上的模型 ID 通常包含组织前缀(如 moonshotai/meta-llama/),引用时格式为 together/<组织>/<模型名>

支持的模型

模型 上下文窗口 特点
together/moonshotai/Kimi-K2.5 262K tokens Kimi 超长上下文,适合文档分析
together/meta-llama/Llama-4-Maverick-17B-128E-Instruct-FP8 128K tokens 视觉+推理双能力
together/meta-llama/Llama-4-Scout-17B-16E-Instruct 128K tokens 支持图像输入
together/meta-llama/Llama-3.3-70B-Instruct-Turbo 128K tokens 高速通用模型
together/deepseek-ai/DeepSeek-V3.1 128K tokens DeepSeek 最新旗舰
together/deepseek-ai/DeepSeek-R1 128K tokens 深度推理模型
together/THUDM/glm-4-9b-chat 200K tokens 清华 GLM 超长上下文

注意事项

模型 ID 大小写敏感:Together AI 的模型 ID 严格区分大小写,务必与官方文档完全一致,否则会返回模型未找到错误。可通过 openclaw models list | grep together 查看当前可用列表。

后台进程配置:守护进程模式下,TOGETHER_API_KEY 须通过 ~/.openclaw/.env 文件注入,而非依赖 shell 启动脚本中的 export 命令。

按量计费:Together AI 按实际消耗 token 计费,不同模型单价差异较大。长上下文模型(如 262K token 的 Kimi K2)在处理大文档时成本较高,建议根据任务规模选择合适的模型。

网络访问:Together AI 服务器位于美国,中国大陆用户建议配合代理访问,或通过在 baseUrl 中配置中转服务来降低延迟。