模型接入
(28 篇)使用 Ollama 在本地运行 AI 模型
零成本运行 AI 助手:用 Ollama 在你自己的电脑上部署开源大模型,完全离线可用。
OpenClaw AI 模型配置指南
如何在 OpenClaw 中配置 Claude、GPT、本地 Ollama 等多种 AI 模型。
OpenClaw 接入 Claude 模型完全指南
详解 OpenClaw 中接入 Anthropic Claude 模型的两种认证方式、提示缓存策略及多智能体独立授权配置。
OpenClaw 接入 GPT/OpenAI 模型教程
在 OpenClaw 中配置 OpenAI GPT 系列模型的完整教程,包括 API Key 和 Codex 订阅两种接入方式。
通过 OpenRouter 一键接入百种 AI 模型
使用 OpenRouter 统一 API 在 OpenClaw 中同时接入 Claude、GPT、Gemini 及各类开源模型。
OpenClaw 接入 Kimi/Moonshot 模型教程
在 OpenClaw 中配置 Kimi 和 Moonshot 双提供者,详解五种模型变体及 256K 超长上下文的使用方法。
OpenClaw 接入 MiniMax 模型教程
在 OpenClaw 中配置 MiniMax M2.1 模型,涵盖 OAuth 与 API Key 双认证、国内端点及本地推理方案。
OpenClaw 接入通义千问 Qwen 模型教程
在 OpenClaw 中免费接入通义千问 Qwen 模型,包含 OAuth 授权、免费额度使用及 Coder/Vision 模型变体配置。
OpenClaw 接入小米 MiMo 模型教程
在 OpenClaw 中配置小米免费 MiMo 模型,使用 Anthropic Messages API 兼容格式快速接入。
OpenClaw 接入智谱 GLM 模型教程
通过 Z.AI 平台在 OpenClaw 中接入智谱 GLM-4.7 模型,包括 API Key 配置和 onboard 命令使用。
OpenClaw 多模型路由与智能切换
详解 OpenClaw 多模型配置策略,包括主备模型、本地与云端混合部署、成本优化和模型特性利用。
xAI Grok 模型接入指南
在 OpenClaw 中配置 xAI Grok 系列模型,包括 Grok-4 推理模型和 Grok 网络搜索功能的完整接入教程。
vLLM 本地模型部署配置
在 OpenClaw 中配置 vLLM 本地推理服务,实现零成本、无隐私风险的本地大模型调用。
Vercel AI Gateway 配置教程
通过 Vercel AI Gateway 在 OpenClaw 中以统一接口访问数百个 AI 模型,简化多提供商管理。
Venice AI 隐私模型配置
在 OpenClaw 中配置 Venice AI,享受不记录、不存储的隐私推理服务,支持 Llama、DeepSeek、Claude 等主流模型。
Together AI 开源模型配置
在 OpenClaw 中接入 Together AI 平台,调用 Llama 4、DeepSeek、Kimi K2 等百余种开源模型,享受高性价比的推理服务。
SGLang 本地推理引擎配置
在 OpenClaw 中配置 SGLang 本地推理服务,利用其高效调度引擎加速本地开源模型推理。
Perplexity 联网搜索模型配置
在 OpenClaw 中配置 Perplexity 作为网络搜索提供商,为 AI 助手提供实时联网检索能力,支持原生 API 和 OpenRouter 两种接入方式。
NVIDIA NIM 模型配置指南
在 OpenClaw 中接入 NVIDIA NIM 推理服务,使用 Nemotron、Llama 等 GPU 优化模型,获取企业级 AI 推理能力。
Mistral AI 模型配置教程
在 OpenClaw 中接入 Mistral AI 模型,包括 Mistral Large 文本推理、Voxtral 语音转录和 Mistral Embed 向量嵌入功能配置。
LiteLLM 统一模型网关配置
通过 LiteLLM 代理网关在 OpenClaw 中统一管理 100+ 模型提供商,实现本地部署、预算管控和密钥集中管理。
Hugging Face 推理 API 配置
在 OpenClaw 中配置 Hugging Face Inference API,通过统一路由访问 DeepSeek、Qwen、Llama 等开源模型。
Groq 高速推理引擎配置
在 OpenClaw 中接入 Groq 超高速推理服务,运行 Llama、Mixtral 等开源模型,体验极低延迟的 AI 推理。
Google Gemini 模型配置教程
在 OpenClaw 中配置 Google Gemini 系列模型的完整教程,涵盖 API Key 和 OAuth 两种认证方式。
DeepSeek / 火山引擎模型配置
在 OpenClaw 中通过火山引擎(豆包)平台接入 DeepSeek、Doubao 等中文优化模型,适合国内用户低延迟使用。
GitHub Copilot 代理接入指南
通过 GitHub Copilot 订阅在 OpenClaw 中使用 GPT-4o 等模型,无需额外 API 费用,支持设备登录和 VS Code 代理两种方式。
Cloudflare AI Gateway 配置
通过 Cloudflare AI Gateway 在 OpenClaw 中统一管理 AI 请求,获得请求日志、速率控制和缓存加速能力。
Amazon Bedrock 模型接入指南
在 OpenClaw 中通过 AWS 凭证接入 Amazon Bedrock 托管的 Claude、Llama 等模型,支持 IAM 角色和 EC2 实例凭证。