首页 资讯 下载 教程 Skills 社群

Google 发布开源模型 Gemma 4:256K 超长上下文、MoE 架构,开源模型性能新巅峰

· 2 分钟 行业动态

Gemma 4 发布

2026 年 4 月 2 日,谷歌正式发布新一代开源大模型 Gemma 4,称其为迄今"最智能"的开源模型,主要面向高级推理和 AI Agent 工作流场景。

Gemma 4 基于与 Gemini 3 相同的研究和技术体系构建,采用 Apache 2.0 协议开源,商业使用限制较少。

四个版本

版本 总参数 激活参数 上下文长度 架构
31B Dense 310 亿 310 亿 256K 全激活 Dense
26B A4B MoE 252 亿 38 亿 256K 混合专家
E4B 80 亿 45 亿 128K 混合专家
E2B 51 亿 23 亿 128K 混合专家

其中 E2B 和 E4B 是端侧模型,可以在手机上离线运行。

核心技术特性

超长上下文

  • 大模型支持 256K 上下文,小模型支持 128K
  • 使用混合注意力机制:局部滑动窗口 + 全局注意力交替

多模态能力

  • 所有版本均支持图片和视频输入
  • 图片支持可变分辨率和宽高比
  • E2B 和 E4B 各自带有约 3 亿参数的音频编码器,支持语音识别和语音翻译(最长 30 秒)

多语言支持

基于超过 140 种语言训练,具备多步规划和复杂逻辑推理能力。

性能表现

  • Arena AI 开源排行榜:31B 排名第三、26B MoE 排名第六
  • 编程能力表现超越同参数级别的竞品模型
  • E2B/E4B 端侧版本在手机上可流畅运行 Agent 工作流

与英伟达合作

谷歌与英伟达合作优化 Gemma 4 的 GPU 推理性能,特别是在 MoE 架构下的高效推理调度。

对 OpenClaw 用户的意义

Gemma 4 的开源为 OpenClaw 提供了更多高质量的本地模型选择:

  • 31B Dense 可作为高性能自托管 Provider
  • E2B/E4B 适合通过 Ollama 在本地运行,配合 OpenClaw 构建离线 Agent
  • 256K 超长上下文非常适合处理长文档和复杂代码库场景
  • Apache 2.0 协议确保商业使用无障碍