首页/详情

DeepSeek V4 正式发布:1M 超长上下文、两款模型(Pro/Flash)与华为芯片深度合作

量子位2026/04/24 12:17机翻/自动摘要/自动分类
0 阅读

内容评分

技术含量
8/10
营销水分
5/10

摘要

DeepSeek V4 系列正式发布,提供 1M 超长上下文的 Pro(1.6T 参数)和更轻量的 Flash(284B 参数)两款模型。V4‑Pro 在 Agent 编码、世界知识和推理基准上接近顶级闭源模型,Flash 版在成本和速度上具优势。全新 DSA 稀疏注意力实现了上下文长度的标配化,并将在下半年批量迁移至华为算力。模型已开源,API 同步更新,旧模型即将下线。

正文

DeepSeek 于 2026 年 4 月 24 日正式推出 V4 系列模型,提供两种规格:

  1. DeepSeek‑V4‑Pro – 1.6 T 参数、49 B 激活、 1 M,定位与顶级闭源模型持平;
  2. DeepSeek‑V4‑Flash – 284 B 参数、13 B 激活、同样 1 M 上下文,面向成本敏感场景。

关键性能

  • Agent 能力:在 Agentic Coding 评测中 V4‑Pro 达到当前开源模型最佳,内部测评显示其在代码交付质量上优于 Sonnet 4.5,接近 Opus 4.6(非思考模式),但仍略逊于 Opus 4.6 思考模式。
  • 世界知识:测评结果显示 V4‑Pro 仅次于 Gemini‑Pro‑3.1,显著领先其他开源模型。
  • 推理表现:在数学、STEM、竞赛代码等基准上超越所有已公开的开源模型,逼近顶级闭源水平。
  • 高难度任务:V4‑Flash 在简单 任务上与 Pro 持平,但在高难度任务仍有差距。

架构创新

  • 引入 DSA 稀疏注意力Token 维度压缩 相结合的全新注意力机制,大幅降低计算和显存需求,实现 1 M 上下文的“标配”。
  • DSA 最早在 V3.2‑Exp 中出现,此次作为 V4 的核心支撑。

生态与算力

  • 所有官方服务(官网、APP、API)已同步更新,支持 OpenAI ChatCompletions 与 Anthropic 接口。
  • 下半年 将批量迁移至华为算力平台,提升国产算力占比。
  • 旧模型 deepseek‑chat、deepseek‑reasoner 将于 2026‑07‑24 停用,迁移成本主要在模型参数名的更改。

价格与使用

  • 两个版本均提供思考模式(high / max)和非思考模式,思考模式通过 reasoning_effort 参数调节。
  • API 计费相对前代模型更具性价比,Flash 版更适合预算受限的开发者。

开源与文档

  • 代码与模型已在 HuggingFace 与 ModelScope 开源,技术报告可在 HuggingFace 仓库下载。

其他

  • 发布稿引用荀子《非十二子》“不诱于誉,不恐于诽”,表达团队对技术路线的坚持与自信。

标签