专题:inference-optimization

按该标签聚合的大模型资讯列表(自动分类与标签提取)。6 篇文章。

官方Databricks Blog2026/04/11 00:005620
内存扩展提升LLM推理能力
优化长序列处理效率

本文介绍AI代理的内存扩展技术,通过优化内存管理机制提升LLMs的推理能力。该技术解决了长序列处理和资源限制问题,使模型能更高效应对复杂实际场景。核心亮点包括动态内存分配、分块处理策略及缓存优化方法,为AI代理系统性能提升提供关键支撑。

媒体AINews2026/04/01 13:445850
Arcee Trinity‑Large‑Thinking 4000 B 参数,PinchBench 第二
Z.ai GLM‑5V‑Turbo 原生多模态,使用 CogViT 编码器

本文梳理了近期 AI 领域的多项技术进展:Arcee 发布 4000 亿参数的 Trinity‑Large‑Thinking 模型并在 PinchBench 中名列前茅;Z.ai 推出原生多模态的 GLM‑5V‑Turbo,基于 CogViT 编码器;TII 的 Falcon Perception 采用 early‑fusion Transformer,实…

媒体AWS Machine Learning Blog2026/02/21 04:266750

2025 年 Amazon SageMaker AI 推出灵活训练计划用于推理端点,并通过多 AZ 高可用、LoRA 并行扩展和 EAGLE‑3 自适应解码四项技术显著提升推理成本性能。新功能实现 GPU 预留、容错提升和吞吐增长,帮助用户在生产环境中更高效、低成本地部署大模型。

社区Reddit r/LocalLLaMA2026/02/20 21:474850

本文标题指出,其核心内容是对大型语言模型(LLM)推理优化技术'Speculative Decoding'提供一个精彩的互动式解释。Speculative Decoding是一种前沿的推理加速策略,旨在显著提升LLM的生成速度并降低计算成本。其基本原理是利用一个小型、快速的“草稿模型”(draft model)预先生成一批候选词元,然后由大型、高质量的“目…

社区Hacker News2026/02/15 17:274620

本文聚焦于提升大型语言模型(LLM)推理速度的两种核心技术。通过优化模型架构以增强并行处理能力,以及改进数据预处理策略以提高信息利用效率,这两种方法显著缩短了LLM的响应时间。这些技术对于降低LLM使用成本、提升其在实际应用中的竞争力具有重要意义,是推动LLM技术发展和普及的关键。