一次信息量巨大的更新
3 月 23 日,OpenClaw 发布了 v2026.3.22 版本,这是近期最具分量的一次功能更新。从新的通讯插件到沙箱架构重构,从模型提供商扩展到搜索引擎集成,几乎每个核心模块都有重要变化。GitHub 上获得了 200 个 Reaction,其中 148 个点赞。
ClawHub 优先安装插件
从这个版本开始,OpenClaw 在安装插件时会优先使用 ClawHub,而不是 npm。ClawHub 是 OpenClaw 官方的技能市场,所有上架的插件都经过 VirusTotal 代码检测,相比 npm 多了一层品质保障。
当 ClawHub 不可用时,系统会自动回退到 npm 安装,确保兼容性。对于已经从 npm 安装的插件,可以通过 clawhub sync 命令迁移到 ClawHub 管理。
全新 Matrix 插件
Matrix 是一个去中心化的通讯协议,在开源社区和注重隐私的用户群体中非常流行。v2026.3.22 带来了基于官方 matrix-js-sdk 构建的全新 Matrix 插件,替换了此前的第三方实现。
新插件支持:
- 端到端加密消息
- 多房间管理
- 富文本消息格式
- 自动断线重连
对于使用 Element、FluffyChat 等 Matrix 客户端的用户来说,这意味着可以直接在自己熟悉的通讯工具中与 OpenClaw 交互。
可插拔沙箱后端
这可能是本次更新中架构层面最重要的变化。OpenClaw 引入了可插拔的沙箱后端,目前支持两种模式:
OpenShell:NVIDIA 在 GTC 2026 上发布的 NemoClaw 项目中的核心组件。OpenShell 提供了一个受控的执行环境,所有命令在隔离的容器中运行,防止 AI 代理误操作影响宿主系统。
SSH 沙箱:通过 SSH 连接到远程服务器执行命令。这对于需要在特定环境中运行任务(比如在 GPU 服务器上跑模型推理)的用户非常实用。
可插拔的设计意味着未来可以轻松添加更多沙箱后端,比如 Docker、虚拟机等。
Anthropic Vertex 提供商
新增了 Anthropic Vertex 提供商支持,允许通过 Google Cloud Vertex AI 平台访问 Claude 模型。这对企业用户来说意义重大——如果你的公司已经在使用 Google Cloud,可以直接通过企业账号的 Vertex AI 配额使用 Claude,无需单独申请 Anthropic API Key。
配置方式:
{
models: {
providers: {
"vertex-claude": {
api: "anthropic-vertex",
projectId: "your-gcp-project",
region: "us-east5"
}
}
}
}
三大搜索引擎集成
v2026.3.22 新增了三个内置搜索提供商:
- Exa:基于神经网络的语义搜索,擅长理解查询意图而非简单关键词匹配
- Tavily:专为 AI 代理设计的搜索 API,返回结构化的、AI 友好的结果
- Firecrawl:网页深度爬取工具,可以将整个网站转换为 LLM 可用的结构化数据
这些搜索引擎作为 web_search 工具的后端选项,用户可以根据场景选择最合适的搜索引擎。
/btw 快捷侧问
一个小而精致的新功能:/btw 侧问。当你在对话中突然想问一个与当前任务无关的问题时,使用 /btw 前缀可以触发一次快速回答,不消耗工具调用,不打断当前上下文。
比如你正在让 OpenClaw 帮你重构代码,突然想知道明天的天气——输入 /btw 明天北京天气怎么样,OpenClaw 会快速回答后继续之前的任务。
旧版 Chrome 扩展退役
v2026.3.22 移除了旧版的 Chrome 扩展中继路径。此前通过 Chrome 扩展控制浏览器的用户需要迁移到 existing-session 模式。新模式直接连接已有的浏览器实例,性能更好,稳定性更高。
标准化图像生成
图像生成功能统一到了 image_generate 核心工具下。此前不同的图像生成插件(Nano Banana Pro、DALL-E 等)有各自的调用方式,现在统一为一个入口,系统自动根据配置选择最合适的模型。
更新建议
这是一个功能密集的大版本,建议所有用户尽快更新:
npm update -g openclaw
特别推荐使用 Matrix 通讯的用户和需要沙箱环境的企业用户优先体验。