DeepSeek V4 正式发布:1M 超长上下文、两款模型(Pro/Flash)与华为芯片深度合作
量子位2026/04/24 12:17机翻/自动摘要/自动分类
0 阅读
内容评分
技术含量
8/10
营销水分
5/10
摘要
DeepSeek V4 系列正式发布,提供 1M 超长上下文的 Pro(1.6T 参数)和更轻量的 Flash(284B 参数)两款模型。V4‑Pro 在 Agent 编码、世界知识和推理基准上接近顶级闭源模型,Flash 版在成本和速度上具优势。全新 DSA 稀疏注意力实现了上下文长度的标配化,并将在下半年批量迁移至华为算力。模型已开源,API 同步更新,旧模型即将下线。
正文
DeepSeek 于 2026 年 4 月 24 日正式推出 V4 系列模型,提供两种规格:
- DeepSeek‑V4‑Pro – 1.6 T 参数、49 B 激活、 1 M,定位与顶级闭源模型持平;
- DeepSeek‑V4‑Flash – 284 B 参数、13 B 激活、同样 1 M 上下文,面向成本敏感场景。
关键性能
- Agent 能力:在 Agentic Coding 评测中 V4‑Pro 达到当前开源模型最佳,内部测评显示其在代码交付质量上优于 Sonnet 4.5,接近 Opus 4.6(非思考模式),但仍略逊于 Opus 4.6 思考模式。
- 世界知识:测评结果显示 V4‑Pro 仅次于 Gemini‑Pro‑3.1,显著领先其他开源模型。
- 推理表现:在数学、STEM、竞赛代码等基准上超越所有已公开的开源模型,逼近顶级闭源水平。
- 高难度任务:V4‑Flash 在简单 任务上与 Pro 持平,但在高难度任务仍有差距。
架构创新
- 引入 DSA 稀疏注意力 与 Token 维度压缩 相结合的全新注意力机制,大幅降低计算和显存需求,实现 1 M 上下文的“标配”。
- DSA 最早在 V3.2‑Exp 中出现,此次作为 V4 的核心支撑。
生态与算力
- 所有官方服务(官网、APP、API)已同步更新,支持 OpenAI ChatCompletions 与 Anthropic 接口。
- 下半年 将批量迁移至华为算力平台,提升国产算力占比。
- 旧模型 deepseek‑chat、deepseek‑reasoner 将于 2026‑07‑24 停用,迁移成本主要在模型参数名的更改。
价格与使用
- 两个版本均提供思考模式(high / max)和非思考模式,思考模式通过
reasoning_effort参数调节。 - API 计费相对前代模型更具性价比,Flash 版更适合预算受限的开发者。
开源与文档
- 代码与模型已在 HuggingFace 与 ModelScope 开源,技术报告可在 HuggingFace 仓库下载。
其他
- 发布稿引用荀子《非十二子》“不诱于誉,不恐于诽”,表达团队对技术路线的坚持与自信。