首页 资讯 下载 教程 Skills 社群

Ollama

模型 AI 模型与路由

安装命令

npx clawhub@latest install ollama-router

安装说明

1
确认环境

确保已安装 Node.js 22+ 和 OpenClaw。在终端运行 openclaw --version 确认 OpenClaw 正常工作。

2
执行安装

在终端中运行上方安装命令,ClawHub 会自动下载并安装 Ollama 到 ~/.openclaw/skills/ 目录。

3
验证安装

运行 openclaw skills list 查看已安装技能列表,确认 Ollama 已出现在列表中。

4
配置参数(可选)

根据下方介绍中的配置说明,在 ~/.config/openclaw/openclaw.json5 中添加技能的配置项。

手动安装方式:将 Skill 文件夹复制到 ~/.openclaw/skills/ 或项目目录下的 skills/ 文件夹,确保文件夹中包含 SKILL.md 文件。
本地推理 零成本 多模型支持

详细介绍

Ollama 是一个本地 LLM 运行时,让你在自己的机器上轻松运行开源模型。OpenClaw 与 Ollama 的原生 API 集成,完全支持流式传输和工具调用。

快速开始

推荐方式:板载向导

openclaw onboard

向导会询问 Ollama 基础 URL(默认 http://127.0.0.1:11434),选择「云+本地」或「仅本地」模式,并自动发现可用模型。

非交互模式

openclaw onboard --non-interactive --auth-choice ollama --accept-risk

手动安装步骤

  1. 下载 Ollama:前往 ollama.com/download 安装
  2. 拉取本地模型:ollama pull llama3.3
  3. 如需云模型:ollama signin
  4. 配置 OpenClaw 连接
  5. 验证模型:ollama list

配置参数

openclaw.json5 中配置 Provider 和模型选择:

{
  models: {
    providers: {
      ollama: {
        baseUrl: "http://127.0.0.1:11434",  // Ollama 服务地址(不要加 /v1)
        apiKey: "ollama-local",               // 本地使用保持默认即可
        api: "ollama",                        // API 类型,必须为 ollama
        contextWindow: 8192,                  // 上下文窗口大小
        maxTokens: 81920                      // 最大生成 token 数
      }
    }
  },
  agents: {
    defaults: {
      model: {
        primary: "ollama/llama3.3",           // 主模型
        fallbacks: ["ollama/qwen2.5"]         // 备用模型列表
      }
    }
  }
}
  • baseUrl:Ollama 服务地址,默认 http://127.0.0.1:11434
  • api:必须设为 ollama,不要使用 OpenAI 兼容模式
  • model.primary:主模型,格式 ollama/模型名
  • model.fallbacks:备用模型列表,主模型不可用时自动切换

支持的模型

  • Llama 3、Mistral、Qwen、DeepSeek、GLM、Gemma 等开源模型
  • 云模型(Cloud + Local 模式):kimi-k2.5:cloud、minimax-m2.5:cloud、glm-5:cloud

重要提示

不要/v1 OpenAI 兼容 URL 与 OpenClaw 一起使用,这会破坏工具调用。请使用原生 Ollama API URL:http://host:11434(无 /v1)。

本地运行所有成本为 $0,数据完全在本地处理。