专题:inference-efficiency

按该标签聚合的大模型资讯列表(自动分类与标签提取)。4 篇文章。

媒体爱范儿2026/04/12 16:535800
DeepSeek 通过 MoE 与开源策略挑战大模型垄断
V2、R1 版本提升推理效率并提供完整工具链

DeepSeek 由幻方量化研发,凭借开源 Coder、67B 大模型以及采用 MoE 的 V2、强化开源的 R1,已在多项基准中与 LLaMA‑2、GPT‑3.5 等竞争。文章回顾其技术路线、商业落地与运维挑战,并展望即将发布的 V4 将引入更高效稀疏激活和强化学习优化,强调在竞争激烈的 AI 时代保持技术与生态平衡的重要性。

官方Vercel Blog2026/04/07 16:005500
AI Gateway上线Opus 4.6快速模式
优化推理效率与响应速度

AI Gateway平台推出Opus 4.6快速模式,通过算法优化提升系统效率与响应速度。该功能针对大规模数据处理场景设计,在保持精度的同时实现性能突破,为用户提供更流畅的AI应用体验。核心亮点包括量化压缩技术、并行计算优化及资源动态分配机制。

官方Engineering at Meta2026/04/01 00:005750
请求感知路由动态调节模型复杂度
硬件感知设计支持 FP8 量化和多卡并行

Meta 推出自适应排名模型,通过请求感知路由、硬件感知模型设计和多卡服务架构,实现 LLM 级广告推荐的低延迟高效推理。该方案在 Instagram 上提升 3% 转化率、5% 点击率,并将计算成本降低约 20%。