专题:open-source-llm

按该标签聚合的大模型资讯列表(自动分类与标签提取)。3 篇文章。

媒体AINews2026/04/03 13:445750
Google 开源 Gemma 4,聚焦高效推理与多模态
在 RTX 4090 与 Mac M4 上实现出色本地性能

Google 在 Apache 2.0 许可下开源 Gemma 4,主打高效推理、自治工作流和多模态处理,参数规模仅为传统大模型的十分之一,却在性能和排名上超越 10 倍大模型。模型已兼容 vLLM、llama.cpp、Ollama、Intel 硬件、Unsloth 与 Hugging Face 推理端点,并在 RTX 4090 与 Mac mini M4…

社区Reddit r/LocalLLaMA2026/02/20 22:142660

本文针对拥有 4 块 NVIDIA H200(共约 320 GB 显存)的用户,系统评估并推荐了在该硬件上运行的最佳开源大模型,重点包括 Llama 3 70B‑Instruct、Mixtral‑8x7B‑Instruct、Phi‑3‑mini‑128K、Gemma 2‑27B‑Instruct 与 StarCoder2‑15B。提供了基于 vLLM 的多…

社区Reddit r/LocalLLaMA2026/02/15 18:294580

本文聚焦于 Claude Code 在代理任务和非编码工作场景下的最佳本地/开源模型选择。旨在汇集社区实践经验,探讨模型的通用性、易用性及在自动化流程中的表现。重点关注模型对自然语言指令的理解能力、逻辑推理和任务分解能力。文章鼓励分享模型性能对比、部署集成技巧、Prompt 工程策略以及成本效率考量,以期构建更智能的 AI 协作环境。