专题:moe-architecture

按该标签聚合的大模型资讯列表(自动分类与标签提取)。3 篇文章。

媒体AINews2026/04/03 13:445750
Google 开源 Gemma 4,聚焦高效推理与多模态
在 RTX 4090 与 Mac M4 上实现出色本地性能

Google 在 Apache 2.0 许可下开源 Gemma 4,主打高效推理、自治工作流和多模态处理,参数规模仅为传统大模型的十分之一,却在性能和排名上超越 10 倍大模型。模型已兼容 vLLM、llama.cpp、Ollama、Intel 硬件、Unsloth 与 Hugging Face 推理端点,并在 RTX 4090 与 Mac mini M4…

媒体爱范儿2026/03/18 12:339860
乐天发布Rakuten AI 3.0宣称是日本最强AI
实为DeepSeek-V3的日语微调版本

乐天Rakuten AI 3.0被证实为DeepSeek-V3的日语微调版本,参数达7000亿,但核心技术源自中国开源模型。乐天删除MIT协议、伪装为自主研发,引发开源社区强烈质疑。该事件揭示了日本AI产业在基础模型上的技术依赖,凸显透明度与开源伦理在AI发展中的关键作用。

社区Reddit r/LocalLLaMA2026/02/12 20:0840

Ovis 系列多模态大模型(MLLM)发布最新版本 Ovis2.6-30B-A3B。该模型在 Ovis2.5 的基础上,将核心 LLM 骨干网络升级为稀疏混合专家(MoE)架构,旨在以更低的推理成本提供卓越的多模态性能。Ovis2.6-30B-A3B 在长上下文和高分辨率内容理解、基于主动图像分析的视觉推理以及信息密集型文档理解方面均有显著提升。据称,在 …