专题:lora

按该标签聚合的大模型资讯列表(自动分类与标签提取)。7 篇文章。

社区Hacker News2026/04/08 03:373840
实现 GCS 流式音频读取并在 Mac Studio 本地微调 Whisper
加入 Gemma 4 多模态 LoRA 微调支持并解决 OOM 问题

作者在 M2 Ultra Mac Studio 上实现了一个从 GCS 流式读取音频并对 Whisper 进行本地微调的工具,并在 Gemma 4 发布后加入对其多模态微调的支持。文章详细说明了数据管道、LoRA 微调、内存管理等实现细节,指出了长音频导致 OOM 的挑战并提供了梯度检查点等解决方案,旨在为 Apple Silicon 开发者提供可直接使用…

媒体AWS Machine Learning Blog2026/03/24 00:346840
非生成式微调减少幻觉
混合架构结合概率与确定性

Artificial Genius利用非生成式微调和混合架构解决LLM幻觉问题,适用于金融、医疗等监管行业。通过Amazon SageMaker AI和Nova实现确定性输出,结合LoRA、正则化等技术提升模型可靠性。文章展示了实际应用案例和技术实现细节。

媒体AWS Machine Learning Blog2026/03/19 00:065860
Nova Forge SDK统一管理LLM定制全流程
支持SFT、RFT、DPO、LoRA等多种微调方法

Nova Forge SDK是亚马逊推出的用于简化企业级LLM定制的开发工具包,整合了SFT、RFT、DPO、LoRA等多种微调方法,统一管理从数据准备到模型部署的全流程。它通过智能默认配置和底层服务抽象,降低技术门槛,支持在SageMaker Training Jobs上高效运行,帮助企业快速构建专有AI模型,避免灾难性遗忘与配置复杂性。

社区Reddit r/LocalLLaMA2026/02/12 21:2840

研究者使用 GRPO 与 LoRA 对开源 120B 模型 gpt‑oss‑120b 进行微调,针对 2025 年特朗普行为的 2,790 条二元预测题进行训练。模型在 682 条留出测试集上取得 Brier Score 0.194、ECE 0.079,分别优于基线模型和 GPT‑5(0.200、0.091),并在带/不带上下文两种情形下均表现更佳。实验细…