DeepSeek 在 2026-04-24 发布了 DeepSeek V4 Preview Release。从官方新闻页来看,这次更新的重点非常集中:1M context、V4-Pro 与 V4-Flash 双模型、对 Agent 场景的专门优化,以及 API 侧的模型切换。
如果只看一句话,这次发布的核心信号是:DeepSeek 不只是继续做更强的模型,而是在把超长上下文和 Agent 能力一起往“可直接上线使用”的方向推进。
1. 这次一共发布了什么
官方页面里,DeepSeek-V4 Preview 主要包含两条产品线:
DeepSeek-V4-ProDeepSeek-V4-Flash
对应的官方描述也很直接:
DeepSeek-V4-Pro:1.6T total / 49B active paramsDeepSeek-V4-Flash:284B total / 13B active params
从命名就能看出来,这次不是单模型升级,而是把高性能版本和更高性价比版本同时推了出来。
其中 V4-Pro 更强调上限,官方说它的表现已经可以和全球顶级闭源模型竞争;V4-Flash 则更强调速度、效率和成本,更适合对响应速度和 API 成本更敏感的场景。
2. 1M context 是这次最突出的卖点
官方页面最醒目的表述之一,就是:“Welcome to the era of cost-effective 1M context length.”
DeepSeek 这次不只是说“支持长上下文”,而是明确把 1M context 当成这代模型的默认能力来讲。页面里也写得很清楚:
1M context已经成为官方 DeepSeek 服务的默认标准V4-Pro和V4-Flash都支持1M context
这件事的意义不只是“能塞更多 token”。它更直接影响下面这些任务:
- 长代码仓库理解
- 长文档问答和资料整合
- 多轮 Agent 工作流
- 跨多文件、多工具、多阶段的复杂任务
如果上下文窗口足够大,模型就更不容易因为中途丢上下文而反复回读材料,这对 Agent 编码和复杂知识工作会特别重要。
3. V4-Pro 主要在强调什么
从官方页的措辞看,DeepSeek-V4-Pro 重点强调三件事:
- Agentic Coding 能力
- 世界知识
- 推理能力
页面里提到,V4-Pro 在 Agentic Coding benchmark 上达到开源 SOTA;在世界知识方面领先当前开源模型,仅落后于 Gemini-3.1-Pro;在数学、STEM 和编码能力上超过当前开源模型,并且可以和顶级闭源模型竞争。
换句话说,V4-Pro 的定位并不是单纯回答问题,而是更偏向高难度推理、复杂编码和长任务执行。
4. V4-Flash 并不是简单的缩水版
另一个值得注意的点是,官方没有把 V4-Flash 包装成“低配模型”,而是强调它在很多实际任务里已经足够强。
按照新闻页给出的说法,V4-Flash:
- 推理能力已经很接近
V4-Pro - 在简单 Agent 任务上与
V4-Pro表现相当 - 参数规模更小,响应更快,API 定价更便宜
这意味着 DeepSeek 这次给出的并不是“一个旗舰、一个入门”的非常割裂的组合,而更像是:
V4-Pro:追求更高性能和更强上限V4-Flash:追求更低延迟和更好成本效率
对于开发者来说,这样的组合会更实用,因为很多线上任务真正需要的不是“理论最强”,而是“够强、够快、够省”。
5. 官方特别强调了 Agent 优化
这次发布页里还有一个很明确的方向:DeepSeek 在主动把 V4 往 Agent 场景上推。
官方页面提到,DeepSeek-V4 已经和一些主流 AI Agent 深度集成,包括:
Claude CodeOpenClawOpenCode
同时 DeepSeek 也提到,V4 已经在内部 agentic coding 场景中使用。
这说明它想覆盖的,不再只是聊天或普通补全,而是更长链路的工作方式:读代码、理解结构、调用工具、生成结果,再把整条流程串起来。
如果你最近正好在关注 coding agent,这个信号值得留意。因为它意味着模型厂商已经不再只拼 benchmark,而是在拼“能不能真正接进工作流”。
6. 底层结构创新在为长上下文服务
在技术描述上,官方页把这次的结构创新总结为:
- token-wise compression
DSA (DeepSeek Sparse Attention)
页面给出的方向非常明确:目标是把长上下文做得更便宜、更高效,尽量降低计算和显存成本。
虽然新闻页没有展开完整技术细节,但这至少说明 DeepSeek 这次不是单纯靠“更大算力硬堆更长窗口”,而是在结构层面针对长上下文效率做了专门优化。
对实际使用者来说,这通常比单纯“窗口数字变大”更重要,因为真正决定可用性的,不只是能不能开到 1M,还包括:
- 速度是否还能接受
- 成本是否还能接受
- 长上下文任务是否真的稳定
7. API 已经可用,但要注意模型切换
官方页面明确写到,这次 API 当天就已经可用。
接入方式也比较简单:
base_url保持不变- 把模型名切换为
deepseek-v4-pro或deepseek-v4-flash
同时页面说明,这两个模型都支持:
1M contextThinking / Non-Thinking双模式OpenAI ChatCompletionsAnthropic APIs
这意味着如果你原本已经接了 DeepSeek API,升级门槛并不高,主要是模型名切换和能力验证。
8. 旧模型的退役时间也写得很明确
对开发者来说,这次新闻页里最不能忽略的信息之一,其实是旧模型退役提醒。
官方写明:
deepseek-chatdeepseek-reasoner
会在 2026 年 7 月 24 日 15:59(UTC) 后完全退役并不可访问。
页面还说明,当前这两个模型实际上已经路由到 deepseek-v4-flash 的非思考 / 思考模式。
这意味着如果你的项目里还直接写着 deepseek-chat 或 deepseek-reasoner,现在就应该开始安排迁移,而不要拖到正式下线前再处理。
9. 这次发布值得怎么理解
如果把这次更新浓缩成几个重点,大概可以这样看:
- DeepSeek 开始把
1M context从“高配能力”变成默认标准 - 双模型路线更清晰:一个冲性能上限,一个冲速度和性价比
- Agent 能力已经被放到很核心的位置
- API 升级路径相对直接,但旧模型退役时间需要尽快关注
对普通使用者来说,最直观的变化可能是:长文档、长代码、长流程任务会更容易放进一次上下文里。
对开发者来说,更重要的是:如果你已经在做 Agent、代码助手、资料整理、复杂工作流,这一代模型显然就是朝这些场景设计的。
DeepSeek 这次发布,不只是一次常规模型更新,更像是在明确它下一阶段的产品方向:超长上下文 + Agent 优化 + 更实际的 API 可用性。