作者在 M2 Ultra Mac Studio 上实现了一个从 GCS 流式读取音频并对 Whisper 进行本地微调的工具,并在 Gemma 4 发布后加入对其多模态微调的支持。文章详细说明了数据管道、LoRA 微调、内存管理等实现细节,指出了长音频导致 OOM 的挑战并提供了梯度检查点等解决方案,旨在为 Apple Silicon 开发者提供可直接使用…
专题:lora
按该标签聚合的大模型资讯列表(自动分类与标签提取)。共 7 篇文章。
社区Hacker News2026/04/08 03:373840
• 实现 GCS 流式音频读取并在 Mac Studio 本地微调 Whisper
• 加入 Gemma 4 多模态 LoRA 微调支持并解决 OOM 问题
媒体AWS Machine Learning Blog2026/03/24 00:346840
• 非生成式微调减少幻觉
• 混合架构结合概率与确定性
Artificial Genius利用非生成式微调和混合架构解决LLM幻觉问题,适用于金融、医疗等监管行业。通过Amazon SageMaker AI和Nova实现确定性输出,结合LoRA、正则化等技术提升模型可靠性。文章展示了实际应用案例和技术实现细节。
媒体AWS Machine Learning Blog2026/03/19 00:065860
• Nova Forge SDK统一管理LLM定制全流程
• 支持SFT、RFT、DPO、LoRA等多种微调方法
Nova Forge SDK是亚马逊推出的用于简化企业级LLM定制的开发工具包,整合了SFT、RFT、DPO、LoRA等多种微调方法,统一管理从数据准备到模型部署的全流程。它通过智能默认配置和底层服务抽象,降低技术门槛,支持在SageMaker Training Jobs上高效运行,帮助企业快速构建专有AI模型,避免灾难性遗忘与配置复杂性。
官方Google Developers Blog2026/03/05 00:334730
文章介绍使用Tunix在Google TPUs上微调FunctionGemma模型的方法,通过LoRA算法提升精度并优化资源利用,适合关注模型训练效率的开发者。
社区Reddit r/LocalLLaMA2026/02/23 00:273630
本文探讨了在RunPod上使用ComfyUI进行LoRA训练时的模板选择与工作流程稳定性问题,为新手提供实用建议和最佳实践,帮助避免常见错误。
社区Reddit r/LocalLLaMA2026/02/12 21:2840
研究者使用 GRPO 与 LoRA 对开源 120B 模型 gpt‑oss‑120b 进行微调,针对 2025 年特朗普行为的 2,790 条二元预测题进行训练。模型在 682 条留出测试集上取得 Brier Score 0.194、ECE 0.079,分别优于基线模型和 GPT‑5(0.200、0.091),并在带/不带上下文两种情形下均表现更佳。实验细…
媒体Ahead of AI2024/12/31 20:217850
• 聚焦LLM领域重要研究
• 涵盖专家混合模型等技术
本文整理了2024年上半年值得关注的AI研究论文,重点聚焦于LLM领域,包括专家混合模型、训练方法和数据集等技术内容,为开发者和研究人员提供有价值的参考。