概述
智谱 AI 的 GLM 系列是国内最具影响力的大语言模型之一。在 OpenClaw 中,GLM 模型通过 Z.AI 平台(zai 提供者)进行接入。本教程将详细介绍如何完成配置并开始使用 GLM 模型。
模型信息
| 项目 | 详情 |
|---|---|
| 提供者名称 | zai |
| 模型引用 | zai/glm-4.7 |
| 认证方式 | API Key |
| 环境变量 | ZAI_API_KEY |
获取 API Key
- 访问 Z.AI 开放平台 注册账号
- 完成实名认证(国内平台通常需要)
- 在 API 管理页面创建新的 API Key
- 新用户通常可以获得一定额度的免费 token
配置步骤
方式一:使用 onboard 命令(推荐)
OpenClaw 提供了便捷的初始化命令:
openclaw onboard --auth-choice zai-api-key
系统会提示你输入 ZAI API Key。输入后密钥会安全存储在本地凭证文件中。
方式二:手动配置
设置环境变量
export ZAI_API_KEY="your-zai-api-key-here"
建议将此行添加到 ~/.bashrc 或 ~/.zshrc 中以持久化。
编写配置文件
在项目根目录或 OpenClaw 全局配置中添加:
{
providers: {
zai: {
type: "zai",
apiKey: "${ZAI_API_KEY}"
}
},
agents: {
default: {
model: "zai/glm-4.7"
}
}
}
验证配置
配置完成后,验证模型连接:
openclaw models status
预期输出:
Provider: zai
Model: glm-4.7
Status: connected
Latency: 120ms
快速测试对话:
openclaw chat --model zai/glm-4.7 --message "你好,请介绍一下你自己"
实用配置
搭配其他模型使用
GLM 可以与其他提供商的模型搭配使用,发挥各自优势:
{
providers: {
zai: {
type: "zai",
apiKey: "${ZAI_API_KEY}"
},
anthropic: {
type: "anthropic",
apiKey: "${ANTHROPIC_API_KEY}"
}
},
agents: {
// 中文内容创作用 GLM
chinese: {
model: "zai/glm-4.7",
description: "处理中文相关任务"
},
// 英文编码用 Claude
coder: {
model: "anthropic/claude-sonnet-4-6",
description: "处理编码和技术任务"
}
}
}
回退配置
{
agents: {
default: {
model: "zai/glm-4.7",
fallback: [
"qwen/qwen-coder",
"xiaomi/mimo-v2-flash"
]
}
}
}
参数调优
{
agents: {
creative: {
model: "zai/glm-4.7",
temperature: 0.9,
topP: 0.95,
maxTokens: 4096
},
precise: {
model: "zai/glm-4.7",
temperature: 0.1,
topP: 0.7,
maxTokens: 8192
}
}
}
GLM 模型的优势
- 中文理解:GLM 在中文自然语言理解方面表现出色,适合处理中文文档和对话
- 国内访问:服务器部署在国内,无需代理,延迟低
- 性价比高:相较于海外模型,GLM 的定价对国内用户更友好
- 工具调用:GLM-4.7 支持函数调用(Function Calling),可以与 OpenClaw 的技能插件配合使用
常见问题
Q:zai 提供者和智谱 API 是什么关系?
zai 是 OpenClaw 中对智谱 Z.AI 平台的提供者标识。Z.AI 是智谱 AI 的开放平台,提供 GLM 系列模型的 API 服务。
Q:GLM-4.7 和 GLM-4 有什么区别? GLM-4.7 是更新版本,在推理能力、指令遵循和代码生成等方面都有提升。建议使用最新版本以获得最佳体验。
Q:API Key 有调用限制吗? Z.AI 平台对不同等级的账户有不同的速率限制。免费额度通常有较低的 QPM(每分钟请求数)限制。如需更高限额,可以在平台中升级账户。
Q:支持流式输出吗? 支持。OpenClaw 默认启用流式输出,GLM 模型可以逐字返回响应,提升交互体验。