概述
v2026.4.12 是一个以质量和可靠性为重点的发布,涵盖插件加载、记忆和 Dreaming 可靠性、新的本地模型选项、以及更顺滑的飞书设置流程。
Active Memory 插件稳定版
v2026.4.10 引入的 Active Memory 插件在 v2026.4.12 进入稳定版:
- 三种上下文模式:message(仅最新消息)、recent(最近几轮)、full(完整对话)
- Live /verbose 检查:实时观察记忆子代理的行为
- 高级 Prompt/Thinking 覆盖:针对特定场景调优
- 可选的对话持久化:调试时开启
plugins:
active-memory:
enabled: true
contextMode: "recent"
verbose: false
捆绑 LM Studio Provider
v2026.4.12 新增 LM Studio 作为内置 Provider,为本地/自托管 OpenAI 兼容模型提供一流支持:
- 引导式配置:开箱即用的 onboarding 流程
- 运行时模型发现:自动识别 LM Studio 加载的模型
- 流式预加载:减少首 Token 延迟
- 记忆搜索嵌入:使用本地模型生成嵌入
providers:
lm-studio:
enabled: true
host: "http://localhost:1234"
这让 Apple Silicon Mac 或本地服务器上的 LM Studio 用户可以无缝接入 OpenClaw。
Codex 原生集成
Codex Provider 和插件拥有的 app-server harness 让 codex/gpt-* 模型使用:
- Codex 管理的认证
- 原生线程(Native Threads)
- 模型发现
- 对话压缩
同时 openai/gpt-* 模型继续走标准 OpenAI Provider 路径,两者互不干扰。
插件权限边界收紧
v2026.4.12 将 CLI、Provider 和频道的激活收窄到 manifest 声明的需求:
- 保留显式的作用域和信任边界
- 集中化 manifest 拥有者策略
- 启动、命令发现、运行时激活避免加载不相关的插件运行时
这意味着:
- 启动速度更快
- 内存占用更低
- 安全边界更清晰
- 插件冲突减少
飞书集成改进
国内用户最关心的飞书体验显著改善:
- 配置流程更顺滑
- 错误提示更清晰
- 消息路由更稳定
升级
npm install -g openclaw@latest
与其他版本的关系
- v2026.4.10 → 4.11 → 4.12:持续快速迭代
- v2026.4.12 → 4.14:质量优先,性能优化
- v2026.4.13 跳过(直接到 4.14)