概述
Anthropic 的 Claude 系列模型是 OpenClaw 中最常用的模型之一。本文将详细介绍如何在 OpenClaw 中完成 Claude 模型的接入配置,涵盖两种认证方式、提示缓存优化以及高级用法。
两种认证方式
OpenClaw 支持两种方式连接 Anthropic Claude,根据你的使用场景选择合适的方式。
方式一:API Key 按量付费
这是最直接的方式,适合有 Anthropic API 账户的用户。你需要在 Anthropic Console 中生成一个 API Key,然后在 OpenClaw 中配置:
openclaw onboard --provider anthropic --auth-choice api-key
系统会提示你输入 API Key,格式以 sk-ant- 开头。配置完成后,密钥会安全存储在本地凭证文件中。
你也可以通过环境变量来设置:
export ANTHROPIC_API_KEY="sk-ant-api03-xxxxxxxxxxxx"
这种方式按实际 token 消耗计费,适合中大规模使用场景。
方式二:Setup Token(Claude 订阅用户)
如果你已经拥有 Claude Pro/Team/Enterprise 订阅,可以使用 Setup Token 方式,无需额外付费。
openclaw onboard --provider anthropic --auth-choice setup-token
系统会引导你通过浏览器完成 OAuth 授权流程。授权成功后,OpenClaw 会自动获取并管理访问令牌。
注意:Setup Token 存在有效期限制。当令牌过期时,OpenClaw 会自动尝试刷新。如果刷新失败,你需要重新执行
openclaw onboard完成授权。
模型引用格式
在 OpenClaw 配置文件中,Anthropic 模型使用以下格式引用:
anthropic/claude-opus-4-5
anthropic/claude-sonnet-4-6
anthropic/claude-haiku-3-5
配置文件示例:
{
providers: {
anthropic: {
type: "anthropic",
// API Key 方式
apiKey: "${ANTHROPIC_API_KEY}"
}
},
agents: {
default: {
model: "anthropic/claude-opus-4-5"
}
}
}
提示缓存策略
OpenClaw 支持 Anthropic 的提示缓存(Prompt Caching)功能,可以显著降低重复上下文的 token 消耗和延迟。共有三种缓存模式:
| 缓存模式 | 有效时间 | 适用场景 |
|---|---|---|
none |
不缓存 | 一次性对话、敏感内容 |
short |
5 分钟 | 日常交互、短时对话 |
long |
1 小时 | 长时间编码会话、文档分析 |
在配置文件中设置缓存策略:
{
providers: {
anthropic: {
type: "anthropic",
promptCaching: "long" // 可选值:none, short, long
}
}
}
建议在编码类任务中使用 long 缓存,可以节省大量系统提示词的重复消耗。
多智能体独立授权
OpenClaw 支持为不同的 Agent 配置独立的 Anthropic 凭证。这在团队协作或多项目隔离场景中非常有用:
{
agents: {
coder: {
model: "anthropic/claude-opus-4-5",
providerConfig: {
apiKey: "${CODER_ANTHROPIC_KEY}"
}
},
reviewer: {
model: "anthropic/claude-sonnet-4-6",
providerConfig: {
apiKey: "${REVIEWER_ANTHROPIC_KEY}"
}
}
}
}
每个 Agent 可以使用不同的 API Key,方便追踪各 Agent 的用量和成本。
验证模型状态
配置完成后,使用以下命令验证模型连接是否正常:
openclaw models status
该命令会列出所有已配置模型的可用状态、延迟及认证信息。如果看到绿色的 connected 标记,说明配置成功。
常见问题排查
Q:提示 401 Unauthorized 错误?
检查 API Key 是否正确,确认未过期。使用 Setup Token 方式时,尝试重新执行 openclaw onboard。
Q:令牌频繁过期怎么办? Setup Token 模式下可能出现此问题。建议切换到 API Key 方式,或确保 OpenClaw 后台进程常驻以自动刷新令牌。
Q:如何查看实际消耗的 token 数?
运行 openclaw usage --provider anthropic 可查看近期的 token 消耗统计。
Q:模型返回速度慢?
启用提示缓存(promptCaching: "long")可显著降低首次响应延迟。此外,检查网络连接是否正常,中国大陆用户可能需要配置代理。