Google DeepMind 发布 Gemma 4 系列:开源多模态模型,支持 256K 令牌长上下文
AINews2026/04/02 13:44机翻/自动摘要/自动分类
4 阅读
内容评分
技术含量
8/10
营销水分
5/10
摘要
Google DeepMind 开源了 Gemma 4 系列多模态模型,提供 256K 令牌长上下文、文本/视觉/音频统一处理,并推出 31B 密集、26B MoE 以及面向边缘的 4B/2B 版本。Gemma‑31B 在开源榜单位列第三,GPQA Diamond 取得 85.7% 成绩。发布即获 llama.cpp、Ollama、vLLM 等框架支持,且在 M2 Ultra、RTX 4090 上推理性能优异,标志着模型能力与开源策略的重大升级。
正文
Google DeepMind 今日正式推出 Gemma 4 系列模型,全部采用 Apache 2.0 许可证开源。该系列包括四款模型:
- Gemma‑31B:310 亿参数的密集模型;
- Gemma‑26B:260 亿参数的 Mixture of Experts()模型;
- Gemma‑4B 与 Gemma‑2B:面向边缘计算的轻量化模型。
所有模型均具备原生多模态能力,能够同时处理文本、图像和音频,并支持最长 256K 令牌的。Gemma 4 采用混合注意力机制结合 层,区别于传统的纯 结构。
在初步基准测试中,Gemma‑31B 在开源模型排行榜上位列第三,并在 GPQA Diamond 科学推理基准上取得 85.7% 的得分。发布当天,llama.cpp、Ollama、vLLM、LM Studio 等主流推理框架已加入对 Gemma 4 的支持,且在 Apple M2 Ultra 与 NVIDIA RTX 4090 等硬件上表现出色。
Gemma 4 的发布标志着 DeepMind 在模型能力、长上下文处理以及开源许可策略上的重要转折,迅速吸引了社区和开发者的关注,并被快速集成到多种工具链中。