专题:quantitative-trading

按该标签聚合的大模型资讯列表(自动分类与标签提取)。1 篇文章。

媒体爱范儿2026/04/12 16:535800
DeepSeek 通过 MoE 与开源策略挑战大模型垄断
V2、R1 版本提升推理效率并提供完整工具链

DeepSeek 由幻方量化研发,凭借开源 Coder、67B 大模型以及采用 MoE 的 V2、强化开源的 R1,已在多项基准中与 LLaMA‑2、GPT‑3.5 等竞争。文章回顾其技术路线、商业落地与运维挑战,并展望即将发布的 V4 将引入更高效稀疏激活和强化学习优化,强调在竞争激烈的 AI 时代保持技术与生态平衡的重要性。