概述
Venice AI 是一个专注于隐私保护的 AI 推理平台。它最显著的特点是提供两种隐私模式:私有模式对话内容全程不落盘,请求和响应均不被存储或记录;匿名模式则通过代理层剥离元数据后再转发给上游提供商(如 Anthropic、OpenAI),适合需要使用主流旗舰模型但又希望减少数据暴露的场景。OpenClaw 原生支持 Venice AI,接入后可直接切换至任意 Venice 托管的模型。
快速开始
前往 Venice AI 官网 注册账号并生成 API Key,密钥格式以 vapi_ 开头。
设置环境变量:
export VENICE_API_KEY="vapi_xxxxxxxxxxxx"
通过 OpenClaw 引导命令完成配置:
openclaw onboard --auth-choice venice-api-key
或使用非交互方式:
openclaw onboard --non-interactive \
--auth-choice venice-api-key \
--venice-api-key "vapi_xxxxxxxxxxxx"
配置完成后,可以用以下命令验证接入是否正常:
openclaw agent --model venice/kimi-k2-5 --message "你好,请做自我介绍"
配置参数
{
agents: {
defaults: {
model: { primary: "venice/kimi-k2-5" },
},
},
models: {
mode: "merge",
providers: {
venice: {
baseUrl: "https://api.venice.ai/api/v1",
apiKey: "${VENICE_API_KEY}",
api: "openai-completions",
},
},
},
}
Venice 的 API 完全兼容 OpenAI /v1 接口规范,支持流式输出、函数调用和 JSON 模式。
支持的模型
私有模式模型(请求不落任何第三方):
venice/kimi-k2-5— Kimi K2.5,256k 上下文,默认推荐venice/qwen3-coder-480b-a35b-instruct— Qwen3 Coder 480B,专为编程优化venice/deepseek-v3.2— DeepSeek V3.2,160k 上下文,推理能力强venice/venice-uncensored— Venice Uncensored(基于 Dolphin-Mistral),32k 上下文
匿名模式模型(通过 Venice 代理访问主流模型,附加 10-50ms 延迟):
venice/claude-opus-4-6— Claude Opus 4.6,1M 上下文venice/openai-gpt-54— GPT-5.4,1M 上下文venice/gemini-3-1-pro-preview— Gemini 3.1 Pro,1M 上下文
查看完整模型列表:
openclaw models list | grep venice
注意事项
模型目录动态更新:Venice 的可用模型列表通过 API 实时获取,无需认证即可查询公开的 /models 端点。若 API 无法访问,系统会回退到内置的静态目录。
速率限制:Venice 没有硬性速率上限,但极端高频调用会触发公平使用节流。
匿名模式延迟:匿名模式相比直连原始 API 会增加约 10-50ms 的代理开销,对延迟敏感的场景建议直接接入原始提供商。
切换模型:可以随时通过命令快速切换默认模型:
openclaw models set venice/deepseek-v3.2