专题:token-efficiency

按该标签聚合的大模型资讯列表(自动分类与标签提取)。6 篇文章。

媒体量子位2026/04/09 13:114830
MemPalace 用记忆宫殿结构组织本地 AI 长期记忆
检索效率提升约34%,LongMemEval 最高分96.6%

MemPalace 是一款开源本地 AI 长期记忆系统,借鉴记忆宫殿法将记忆组织为可导航的空间结构,实现约 34% 检索提升,并在 LongMemEval 中取得 96.6% 的最高分。系统支持 RAW 与压缩 AAAK 两种模式,提供本地化存储、实时纠错和低成本 token 使用,提供 pip 安装、CLI 与 Python API,已获 17k+ st…

媒体量子位2026/04/09 09:497810
Meta 9 个月重构发布多模态模型 Muse Spark
算力提升 10 倍,推理与医学能力显著

Meta 经过 9 个月全链路重构推出原生多模态大模型 Muse Spark,凭借算力提升 10 倍、强化学习和沉思模式,在多模态感知、医学问答和推理任务上与 Gemini、GPT 5.4 持平或领先。模型已上线但闭源,API 仅限合作伙伴,计划后续开源。短板仍在编程和长时自主 Agent 任务。

媒体AINews2026/03/18 13:445740
MiniMax M2.7:具备自我进化能力的SOTA模型,成本仅为GLM-5的1/3
小米MiMo-V2-Pro:专注API推理,token使用效率显著提升

MiniMax M2.7是具备自我进化能力的SOTA开源模型,在SWE-Pro和Terminal Bench 2任务中分别达到56.22%和57.0%的性能表现。其核心优势在于:1)智能指数50分与GLM-5持平,但成本仅为1/3;2)通过递归机制持续优化技能与架构;3)支持Ollama Cloud等平台部署。小米MiMo-V2-Pro和Cartesia …

媒体AINews2026/02/18 13:447840
Claude Opus/Sonnet 4.6智能指数提升
Qwen 3.5开源并优化推理效率

多款AI模型更新,包括Claude Opus/Sonnet 4.6、Qwen 3.5、GLM-5及Gemini 3.1 Pro。重点在于智能指数提升、推理效率优化、开源模型权重及社区表现。技术报告和讨论揭示了模型在自主性、训练成本和性能上的进展。

社区Reddit r/LocalLLaMA2026/02/16 08:256840

本文提出一种基于Unicode块字符的符号简写语法,用于提升大型语言模型的指令效率。通过非语言化表达任务状态、层级和优先级,该方法显著减少冗余并增强零样本理解能力。初步测试显示其在token效率和上下文稳定性方面表现优异,具有较高的技术创新性和研究价值。