首页/详情

Google 开源 Gemma 4:高效多模态推理与设备端部署,生态广泛支持

AINews2026/04/03 13:44机翻/自动摘要/自动分类
5 阅读

内容评分

技术含量
7/10
营销水分
5/10

摘要

Google 在 Apache 2.0 许可下开源 Gemma 4,主打高效推理、自治工作流和多模态处理,参数规模仅为传统大模型的十分之一,却在性能和排名上超越 10 倍大模型。模型已兼容 vLLM、llama.cpp、Ollama、Intel 硬件、Unsloth 与 Hugging Face 推理端点,并在 RTX 4090 与 Mac mini M4 上表现出色。与此同时,Hermes Agent 作为新兴开源代理框架,以稳定性和长任务处理能力吸引用户从 OpenClaw 转向。

正文

Google 近日在 Apache 2.0 许可下发布了 Gemma 4,这是一款面向推理、自治工作流、多模态处理以及设备端应用的开源。Gemma 4 在参数规模上仅为传统 10 倍的十分之一,却在基准测试中实现了更高的效率和排名。模型已在多种生态系统中得到集成,包括 vLLMllama.cppOllamaIntel 硬件Unsloth 以及 Hugging Face 推理端点

在本地硬件上的实测表现同样亮眼:使用 RTX 4090 显卡或 Mac mini M4 芯片均能实现流畅的推理速度,验证了其在边缘设备上的可行性。与此同时,开源代理框架 Hermes Agent 近期受到广泛关注,以其稳定性和对长任务的处理能力成为许多用户从 OpenClaw 迁移的首选方案。

整体来看,Gemma 4 的发布标志着高效、可部署的进入了更广阔的生态与硬件平台,为开发者提供了在本地或云端快速部署 AI 能力的全新选择。

标签