首页 资讯 下载 教程 Skills 社群

模型接入

(44 篇)
OpenClaw 接入 xAI Grok 4.3:实时数据 + X 平台集成
学习配置 OpenClaw v2026.5.2 默认支持的 xAI Grok 4.3 模型,利用其实时数据访问能力和 X 平台集成构建实时信息 Agent。
OpenClaw 多 TTS Provider 配置:从 ElevenLabs 到火山引擎
学习配置 OpenClaw v2026.4.25 新增的 6 个 TTS Provider:Azure Speech、Xiaomi、Volcengine、Inworld、Local CLI、ElevenLabs v3。
OpenClaw 接入 Claude Opus 4.7:最强 Agent 编程模型配置
学习配置 OpenClaw 接入 Claude Opus 4.7,SWE-bench 87.6% 的顶级 Agent 编程模型,含多平台(API、Bedrock、Vertex AI)接入方式。
OpenClaw 接入 GPT-5.5:OpenAI 真正的 Agent 模型
学习在 OpenClaw 中配置使用 GPT-5.5,OpenAI 首个真正意义上的 Agent 模型,配合 Task Flow 处理复杂自主任务。
OpenClaw Gemini TTS 配置教程:Google 语音合成接入
OpenClaw v2026.4.16 正式支持 Google Gemini TTS,本教程教你配置 Gemini 语音合成,支持多种声音、WAV 输出和电话场景 PCM 格式。
OpenClaw 接入 MiniMax M2.7:自我进化的开源 Agent 模型
学习如何在 OpenClaw 中接入 MiniMax M2.7 开源模型,通过 vLLM、SGLang 或 OpenRouter 使用这款 2290 亿参数的自我进化 Agent 模型。
OpenClaw LM Studio Provider 配置:本地大模型零门槛接入
OpenClaw v2026.4.12 内置 LM Studio Provider,本教程教你如何配置本地 LM Studio 运行大模型并接入 OpenClaw,实现零成本私有化部署。
OpenClaw 接入 GPT-5.4-pro:Codex 定价路径与前向兼容配置
OpenClaw v2026.4.14 添加了 GPT-5.4-pro 的前向兼容支持,本教程讲解如何配置以无缝切换到 GPT-5.4-pro,享受 Codex 定价路径。
OpenClaw 集成 Codex CLI:原生线程支持的编程 Agent
学习配置 OpenClaw v2026.4.10 内置的 Codex Provider,让 OpenClaw Agent 与 OpenAI Codex CLI 无缝协作,实现统一的编程 Agent 体验。
OpenClaw Provider Auth 别名配置:简化多 Provider 认证管理
学习使用 OpenClaw v2026.4.9 新增的 Provider Auth Aliases 功能,让多个 Provider 变体共享同一套认证配置,简化模型接入管理。
OpenClaw 视频和音乐生成配置:让 AI Agent 创作多媒体内容
详解 OpenClaw v2026.4.5 内置的视频和音乐生成工具配置,支持 xAI、阿里 Wan、Runway、Google Lyria、MiniMax 及 ComfyUI 工作流。
OpenClaw 新手必读:安装后第一步——配置 AI 模型
OpenClaw 安装后无法直接聊天?因为你还没配置 AI 模型。本文教你从零开始选择平台、获取 API Key 并完成配置。
OpenClaw 多模型路由配置:智能分流与故障自动切换
如何在 OpenClaw 中配置多个 AI 模型并设置智能路由规则,实现按场景分流、成本优化和故障自动切换。
OpenClaw 多认证配置:OAuth、API Key 共存与自动切换
配置多个认证 Profile 实现 OAuth 与 API Key 共存,当一个认证方式失败时自动切换到备用方式。
OpenClaw 自定义模型 Provider:接入 LiteLLM 代理和私有模型
通过 models.providers 配置自定义模型提供商,接入 LiteLLM 代理、LM Studio 本地服务或任何兼容 OpenAI API 的私有模型端点。
使用 Ollama 在本地运行 AI 模型
零成本运行 AI 助手:用 Ollama 在你自己的电脑上部署开源大模型,完全离线可用。
OpenClaw AI 模型配置指南
如何在 OpenClaw 中配置 Claude、GPT、本地 Ollama 等多种 AI 模型。
OpenClaw 接入 Claude 模型完全指南
详解 OpenClaw 中接入 Anthropic Claude 模型的两种认证方式、提示缓存策略及多智能体独立授权配置。
OpenClaw 接入 GPT/OpenAI 模型教程
在 OpenClaw 中配置 OpenAI GPT 系列模型的完整教程,包括 API Key 和 Codex 订阅两种接入方式。
通过 OpenRouter 一键接入百种 AI 模型
使用 OpenRouter 统一 API 在 OpenClaw 中同时接入 Claude、GPT、Gemini 及各类开源模型。
OpenClaw 接入 Kimi/Moonshot 模型教程
在 OpenClaw 中配置 Kimi 和 Moonshot 双提供者,详解五种模型变体及 256K 超长上下文的使用方法。
OpenClaw 接入 MiniMax 模型教程
在 OpenClaw 中配置 MiniMax M2.1 模型,涵盖 OAuth 与 API Key 双认证、国内端点及本地推理方案。
OpenClaw 接入通义千问 Qwen 模型教程
在 OpenClaw 中免费接入通义千问 Qwen 模型,包含 OAuth 授权、免费额度使用及 Coder/Vision 模型变体配置。
OpenClaw 接入小米 MiMo 模型教程
在 OpenClaw 中配置小米免费 MiMo 模型,使用 Anthropic Messages API 兼容格式快速接入。
OpenClaw 接入智谱 GLM 模型教程
通过 Z.AI 平台在 OpenClaw 中接入智谱 GLM-4.7 模型,包括 API Key 配置和 onboard 命令使用。
OpenClaw 多模型路由与智能切换
详解 OpenClaw 多模型配置策略,包括主备模型、本地与云端混合部署、成本优化和模型特性利用。
xAI Grok 模型接入指南
在 OpenClaw 中配置 xAI Grok 系列模型,包括 Grok-4 推理模型和 Grok 网络搜索功能的完整接入教程。
vLLM 本地模型部署配置
在 OpenClaw 中配置 vLLM 本地推理服务,实现零成本、无隐私风险的本地大模型调用。
Vercel AI Gateway 配置教程
通过 Vercel AI Gateway 在 OpenClaw 中以统一接口访问数百个 AI 模型,简化多提供商管理。
Venice AI 隐私模型配置
在 OpenClaw 中配置 Venice AI,享受不记录、不存储的隐私推理服务,支持 Llama、DeepSeek、Claude 等主流模型。
Together AI 开源模型配置
在 OpenClaw 中接入 Together AI 平台,调用 Llama 4、DeepSeek、Kimi K2 等百余种开源模型,享受高性价比的推理服务。
SGLang 本地推理引擎配置
在 OpenClaw 中配置 SGLang 本地推理服务,利用其高效调度引擎加速本地开源模型推理。
Perplexity 联网搜索模型配置
在 OpenClaw 中配置 Perplexity 作为网络搜索提供商,为 AI 助手提供实时联网检索能力,支持原生 API 和 OpenRouter 两种接入方式。
NVIDIA NIM 模型配置指南
在 OpenClaw 中接入 NVIDIA NIM 推理服务,使用 Nemotron、Llama 等 GPU 优化模型,获取企业级 AI 推理能力。
模型故障转移与自动切换配置
深入理解 OpenClaw 的模型故障转移机制,掌握主备模型配置、认证配置轮换、冷却退避策略和账单错误处理的完整配置方法。
Mistral AI 模型配置教程
在 OpenClaw 中接入 Mistral AI 模型,包括 Mistral Large 文本推理、Voxtral 语音转录和 Mistral Embed 向量嵌入功能配置。
LiteLLM 统一模型网关配置
通过 LiteLLM 代理网关在 OpenClaw 中统一管理 100+ 模型提供商,实现本地部署、预算管控和密钥集中管理。
Hugging Face 推理 API 配置
在 OpenClaw 中配置 Hugging Face Inference API,通过统一路由访问 DeepSeek、Qwen、Llama 等开源模型。
Groq 高速推理引擎配置
在 OpenClaw 中接入 Groq 超高速推理服务,运行 Llama、Mixtral 等开源模型,体验极低延迟的 AI 推理。
Google Gemini 模型配置教程
在 OpenClaw 中配置 Google Gemini 系列模型的完整教程,涵盖 API Key 和 OAuth 两种认证方式。
DeepSeek / 火山引擎模型配置
在 OpenClaw 中通过火山引擎(豆包)平台接入 DeepSeek、Doubao 等中文优化模型,适合国内用户低延迟使用。
GitHub Copilot 代理接入指南
通过 GitHub Copilot 订阅在 OpenClaw 中使用 GPT-4o 等模型,无需额外 API 费用,支持设备登录和 VS Code 代理两种方式。
Cloudflare AI Gateway 配置
通过 Cloudflare AI Gateway 在 OpenClaw 中统一管理 AI 请求,获得请求日志、速率控制和缓存加速能力。
Amazon Bedrock 模型接入指南
在 OpenClaw 中通过 AWS 凭证接入 Amazon Bedrock 托管的 Claude、Llama 等模型,支持 IAM 角色和 EC2 实例凭证。

开始使用 OpenClaw

开源免费,一条命令安装,连接微信、钉钉、飞书等 20+ 聊天平台