Ollama
模型 AI 模型与路由安装命令
npx clawhub@latest install ollama-router
安装说明
1
确认环境
确保已安装 Node.js 22+ 和 OpenClaw。在终端运行 openclaw --version 确认 OpenClaw 正常工作。
2
执行安装
在终端中运行上方安装命令,ClawHub 会自动下载并安装 Ollama 到 ~/.openclaw/skills/ 目录。
3
验证安装
运行 openclaw skills list 查看已安装技能列表,确认 Ollama 已出现在列表中。
4
配置参数(可选)
根据下方介绍中的配置说明,在 ~/.config/openclaw/openclaw.json5 中添加技能的配置项。
手动安装方式:将 Skill 文件夹复制到
~/.openclaw/skills/ 或项目目录下的 skills/ 文件夹,确保文件夹中包含 SKILL.md 文件。
本地推理
零成本
多模型支持
详细介绍
Ollama 是一个本地 LLM 运行时,让你在自己的机器上轻松运行开源模型。OpenClaw 与 Ollama 的原生 API 集成,完全支持流式传输和工具调用。
快速开始
推荐方式:板载向导
openclaw onboard
向导会询问 Ollama 基础 URL(默认 http://127.0.0.1:11434),选择「云+本地」或「仅本地」模式,并自动发现可用模型。
非交互模式
openclaw onboard --non-interactive --auth-choice ollama --accept-risk
手动安装步骤
- 下载 Ollama:前往 ollama.com/download 安装
- 拉取本地模型:
ollama pull llama3.3 - 如需云模型:
ollama signin - 配置 OpenClaw 连接
- 验证模型:
ollama list
配置参数
在 openclaw.json5 中配置 Provider 和模型选择:
{
models: {
providers: {
ollama: {
baseUrl: "http://127.0.0.1:11434", // Ollama 服务地址(不要加 /v1)
apiKey: "ollama-local", // 本地使用保持默认即可
api: "ollama", // API 类型,必须为 ollama
contextWindow: 8192, // 上下文窗口大小
maxTokens: 81920 // 最大生成 token 数
}
}
},
agents: {
defaults: {
model: {
primary: "ollama/llama3.3", // 主模型
fallbacks: ["ollama/qwen2.5"] // 备用模型列表
}
}
}
}
baseUrl:Ollama 服务地址,默认http://127.0.0.1:11434api:必须设为ollama,不要使用 OpenAI 兼容模式model.primary:主模型,格式ollama/模型名model.fallbacks:备用模型列表,主模型不可用时自动切换
支持的模型
- Llama 3、Mistral、Qwen、DeepSeek、GLM、Gemma 等开源模型
- 云模型(Cloud + Local 模式):kimi-k2.5:cloud、minimax-m2.5:cloud、glm-5:cloud
重要提示
不要将
/v1OpenAI 兼容 URL 与 OpenClaw 一起使用,这会破坏工具调用。请使用原生 Ollama API URL:http://host:11434(无/v1)。
本地运行所有成本为 $0,数据完全在本地处理。