Gemma 4 发布
2026 年 4 月 2 日,谷歌正式发布新一代开源大模型 Gemma 4,称其为迄今"最智能"的开源模型,主要面向高级推理和 AI Agent 工作流场景。
Gemma 4 基于与 Gemini 3 相同的研究和技术体系构建,采用 Apache 2.0 协议开源,商业使用限制较少。
四个版本
| 版本 | 总参数 | 激活参数 | 上下文长度 | 架构 |
|---|---|---|---|---|
| 31B Dense | 310 亿 | 310 亿 | 256K | 全激活 Dense |
| 26B A4B MoE | 252 亿 | 38 亿 | 256K | 混合专家 |
| E4B | 80 亿 | 45 亿 | 128K | 混合专家 |
| E2B | 51 亿 | 23 亿 | 128K | 混合专家 |
其中 E2B 和 E4B 是端侧模型,可以在手机上离线运行。
核心技术特性
超长上下文
- 大模型支持 256K 上下文,小模型支持 128K
- 使用混合注意力机制:局部滑动窗口 + 全局注意力交替
多模态能力
- 所有版本均支持图片和视频输入
- 图片支持可变分辨率和宽高比
- E2B 和 E4B 各自带有约 3 亿参数的音频编码器,支持语音识别和语音翻译(最长 30 秒)
多语言支持
基于超过 140 种语言训练,具备多步规划和复杂逻辑推理能力。
性能表现
- Arena AI 开源排行榜:31B 排名第三、26B MoE 排名第六
- 编程能力表现超越同参数级别的竞品模型
- E2B/E4B 端侧版本在手机上可流畅运行 Agent 工作流
与英伟达合作
谷歌与英伟达合作优化 Gemma 4 的 GPU 推理性能,特别是在 MoE 架构下的高效推理调度。
对 OpenClaw 用户的意义
Gemma 4 的开源为 OpenClaw 提供了更多高质量的本地模型选择:
- 31B Dense 可作为高性能自托管 Provider
- E2B/E4B 适合通过 Ollama 在本地运行,配合 OpenClaw 构建离线 Agent
- 256K 超长上下文非常适合处理长文档和复杂代码库场景
- Apache 2.0 协议确保商业使用无障碍