MemPalace 是一款开源本地 AI 长期记忆系统,借鉴记忆宫殿法将记忆组织为可导航的空间结构,实现约 34% 检索提升,并在 LongMemEval 中取得 96.6% 的最高分。系统支持 RAW 与压缩 AAAK 两种模式,提供本地化存储、实时纠错和低成本 token 使用,提供 pip 安装、CLI 与 Python API,已获 17k+ st…
专题:token-efficiency
按该标签聚合的大模型资讯列表(自动分类与标签提取)。共 6 篇文章。
媒体量子位2026/04/09 13:114830
• MemPalace 用记忆宫殿结构组织本地 AI 长期记忆
• 检索效率提升约34%,LongMemEval 最高分96.6%
媒体量子位2026/04/09 09:497810
• Meta 9 个月重构发布多模态模型 Muse Spark
• 算力提升 10 倍,推理与医学能力显著
Meta 经过 9 个月全链路重构推出原生多模态大模型 Muse Spark,凭借算力提升 10 倍、强化学习和沉思模式,在多模态感知、医学问答和推理任务上与 Gemini、GPT 5.4 持平或领先。模型已上线但闭源,API 仅限合作伙伴,计划后续开源。短板仍在编程和长时自主 Agent 任务。
媒体AINews2026/03/18 13:445740
• MiniMax M2.7:具备自我进化能力的SOTA模型,成本仅为GLM-5的1/3
• 小米MiMo-V2-Pro:专注API推理,token使用效率显著提升
MiniMax M2.7是具备自我进化能力的SOTA开源模型,在SWE-Pro和Terminal Bench 2任务中分别达到56.22%和57.0%的性能表现。其核心优势在于:1)智能指数50分与GLM-5持平,但成本仅为1/3;2)通过递归机制持续优化技能与架构;3)支持Ollama Cloud等平台部署。小米MiMo-V2-Pro和Cartesia …
媒体AINews2026/02/18 13:447840
• Claude Opus/Sonnet 4.6智能指数提升
• Qwen 3.5开源并优化推理效率
多款AI模型更新,包括Claude Opus/Sonnet 4.6、Qwen 3.5、GLM-5及Gemini 3.1 Pro。重点在于智能指数提升、推理效率优化、开源模型权重及社区表现。技术报告和讨论揭示了模型在自主性、训练成本和性能上的进展。
社区Reddit r/LocalLLaMA2026/02/16 08:256840
本文提出一种基于Unicode块字符的符号简写语法,用于提升大型语言模型的指令效率。通过非语言化表达任务状态、层级和优先级,该方法显著减少冗余并增强零样本理解能力。初步测试显示其在token效率和上下文稳定性方面表现优异,具有较高的技术创新性和研究价值。
媒体AINews2026/02/05 13:447840
OpenAI发布GPT-5.3 Codex,提升推理速度和令牌效率;Anthropic展示Claude Opus 4.6在编译器构建和长上下文处理上的突破。两者均在智能体平台和实际应用上取得进展,预示AI模型运行效率的提升。