首页 资讯 下载 教程 Skills 社群

Venice AI 隐私模型配置

概述

Venice AI 是一个专注于隐私保护的 AI 推理平台。它最显著的特点是提供两种隐私模式:私有模式对话内容全程不落盘,请求和响应均不被存储或记录;匿名模式则通过代理层剥离元数据后再转发给上游提供商(如 Anthropic、OpenAI),适合需要使用主流旗舰模型但又希望减少数据暴露的场景。OpenClaw 原生支持 Venice AI,接入后可直接切换至任意 Venice 托管的模型。

快速开始

前往 Venice AI 官网 注册账号并生成 API Key,密钥格式以 vapi_ 开头。

设置环境变量:

export VENICE_API_KEY="vapi_xxxxxxxxxxxx"

通过 OpenClaw 引导命令完成配置:

openclaw onboard --auth-choice venice-api-key

或使用非交互方式:

openclaw onboard --non-interactive \
  --auth-choice venice-api-key \
  --venice-api-key "vapi_xxxxxxxxxxxx"

配置完成后,可以用以下命令验证接入是否正常:

openclaw agent --model venice/kimi-k2-5 --message "你好,请做自我介绍"

配置参数

{
  agents: {
    defaults: {
      model: { primary: "venice/kimi-k2-5" },
    },
  },
  models: {
    mode: "merge",
    providers: {
      venice: {
        baseUrl: "https://api.venice.ai/api/v1",
        apiKey: "${VENICE_API_KEY}",
        api: "openai-completions",
      },
    },
  },
}

Venice 的 API 完全兼容 OpenAI /v1 接口规范,支持流式输出、函数调用和 JSON 模式。

支持的模型

私有模式模型(请求不落任何第三方):

  • venice/kimi-k2-5 — Kimi K2.5,256k 上下文,默认推荐
  • venice/qwen3-coder-480b-a35b-instruct — Qwen3 Coder 480B,专为编程优化
  • venice/deepseek-v3.2 — DeepSeek V3.2,160k 上下文,推理能力强
  • venice/venice-uncensored — Venice Uncensored(基于 Dolphin-Mistral),32k 上下文

匿名模式模型(通过 Venice 代理访问主流模型,附加 10-50ms 延迟):

  • venice/claude-opus-4-6 — Claude Opus 4.6,1M 上下文
  • venice/openai-gpt-54 — GPT-5.4,1M 上下文
  • venice/gemini-3-1-pro-preview — Gemini 3.1 Pro,1M 上下文

查看完整模型列表:

openclaw models list | grep venice

注意事项

模型目录动态更新:Venice 的可用模型列表通过 API 实时获取,无需认证即可查询公开的 /models 端点。若 API 无法访问,系统会回退到内置的静态目录。

速率限制:Venice 没有硬性速率上限,但极端高频调用会触发公平使用节流。

匿名模式延迟:匿名模式相比直连原始 API 会增加约 10-50ms 的代理开销,对延迟敏感的场景建议直接接入原始提供商。

切换模型:可以随时通过命令快速切换默认模型:

openclaw models set venice/deepseek-v3.2