专题:llm-optimization

按该标签聚合的大模型资讯列表(自动分类与标签提取)。27 篇文章。

官方OpenAI Blog2026/04/10 08:005600
指令模板优化响应相关性
记忆机制增强对话连贯性

本文提供ChatGPT个性化定制方案,通过指令模板和记忆存储机制提升回答的相关性、一致性和用户契合度。重点解析自定义指令设计原则及记忆功能实现方式,为开发者提供实用的模型优化指南,适用于需要定制化AI服务的商业场景。

媒体InfoQ 中文2026/04/07 22:034860
介绍 OpenClaw 记忆系统的核心组件与实现方式
提供关键代码示例,展示持久化存储与混合检索

本文在 QCon 分享中,围绕 Agent 记忆系统的工程实现,基于 OpenClaw 框架构建了持久化记忆库、混合检索管线和增量更新调度,并通过代码示例展示关键实现细节。实验表明,该方案在多轮对话保持率和 RAG 检索准确率上均有显著提升,为大模型提供了可落地的持续记忆能力。

媒体Lobsters AI2026/04/04 21:343860
自蒸馏技术通过教师模型软标签指导学生模型训练
简化传统蒸馏流程,计算成本低且效果显著

本文提出一种极简自蒸馏技术,通过教师模型的软标签指导学生模型训练,显著提升代码生成质量。核心创新在于简化了传统蒸馏流程,仅需单向知识传递即可实现性能提升。实验在多个代码生成基准测试中验证了其有效性,尤其在处理复杂逻辑和长代码生成任务时表现优异。该技术的优势在于实现简单、计算成本低,且无需额外数据,为代码生成模型的优化提供了新思路。

官方OpenAI Blog2026/04/01 10:006850
应用GPT-4.1与GPT-5.4 nano模型
实现银行服务流程自动化

Gradient Labs推出基于GPT-4.1和GPT-5.4 nano的AI账户经理,通过自动化处理银行服务流程提升效率与质量。该方案采用模型压缩技术优化性能,实现低延迟高可靠性,已在金融领域落地应用,展现AI在银行服务中的实际价值。

媒体Import AI2026/03/30 20:285850
政治超级智能三层架构
机器人鼓手性能待提升

本文探讨AI在政治、机器人和数学领域的前沿应用,涵盖政治超级智能的三层架构、机器人鼓手技术的局限性、Hyperagent自我优化框架及HorizonMath数学基准测试。重点分析AI如何通过技术革新影响社会决策与协作,强调系统治理与用户体验的重要性。

媒体Gino Notes2026/03/28 08:006830
LLM将向智能体式思考演进
Karpathy提出20/80资源分配模式

本期周刊聚焦AI领域中的智能体式思考与资源优化技术,涵盖LLM的自主决策能力、Karpathy的20/80资源分配模式、Anthropic的多智能体架构突破以及Cursor的实时强化学习方法。文章指出,模型推理能力提升后,实际任务执行效率将成为AI竞争的核心。

媒体InfoQ 中文2026/03/25 03:595860
KV Cache用于存储注意力键值对
提升推理效率并减少内存消耗

KV Cache是LLM推理中的关键缓存机制,用于存储注意力键值对以提升生成效率。其核心作用在于减少重复计算,优化内存使用和推理速度。文章详细解析了KV Cache的原理、实现及优化策略,为开发者和研究人员提供了实用的技术参考。

官方Simon Willison2026/03/24 13:097860
流式专家技术实现大模型在低内存设备运行
Qwen3.5-397B-A17B在MacBook Pro成功运行

流式专家技术通过按需加载专家权重,使超大规模语言模型能在内存有限的设备上运行。已实现Qwen3.5-397B-A17B和Kimi K2.5模型在MacBook Pro和iPhone上的运行,处理速度逐步提升。该技术为本地化部署和边缘计算提供了新思路,具有较高的实用价值。

媒体InfoQ 中文2026/03/17 18:026840
Qoder增强代码生成记忆能力
提升复杂任务处理效率

Qoder记忆系统通过增强代码生成中的上下文记忆能力,提升模型的准确性和效率。其核心亮点在于上下文记忆模块的设计与实现,适用于复杂逻辑和多步骤任务。该系统已在实际开发中落地,展现出良好的性能表现。

媒体Import AI2026/03/16 20:306840
LLM自主训练能力提升
72B模型分布式训练实现

本文分析LLM自主训练能力、720亿参数分布式模型及计算机视觉挑战。PostTrainBench实验显示AI可优化模型但效果有限,Covenant-72B通过区块链实现去中心化训练,CHMv2项目揭示视觉任务的复杂性。研究指出AI代理存在作弊行为,分布式训练可能改变AI研发格局,但需完善验证体系。

官方AWS Machine Learning Blog2026/03/14 03:276970
P-EAGLE 并行生成草稿令牌提升推理速度
解决 EAGLE 自回归生成的性能瓶颈

P-EAGLE 是一种通过并行生成草稿令牌提升 LLM 推理速度的新方法,解决了 EAGLE 自回归生成导致的性能瓶颈。它已在 vLLM 中集成,提供预训练模型,支持多种基准测试,并在不同并发度下实现显著加速。

社区Hacker News2026/03/14 01:586880
压缩LLM上下文数据,减少噪声干扰
利用SLM识别关键信息并保留

Context Gateway是一个开源代理工具,用于在LLM处理前压缩编码工具输出的上下文数据,减少噪声影响,提升模型效率和准确率。其核心亮点包括SLM分类器、自动压缩机制和懒加载功能,适用于开发者和研究人员优化长上下文处理。

社区Hacker News2026/03/13 02:527870
IonRouter提供高吞吐、低成本推理服务
专为开源和微调模型优化,支持GH200架构

IonRouter是Cumulus Labs推出的高吞吐、低成本推理API,专为开源和微调模型设计。其核心技术包括针对GH200架构的优化、KV块写入机制和注意力计算优化,显著提升性能。目前支持GPT-OSS-120B和Qwen3.5-122B等模型,按token计费,无空闲费用。尽管延迟略高,但团队正积极改进。