4月24日,深度求索公司正式上线DeepSeek-V4预览版并同步开源,直接对标世界顶级闭源模型。这次发布包含两个MoE版本:DeepSeek-V4-Pro拥有1.6T参数、49B激活,上下文长度达到1M;DeepSeek-V4-Flash则是284B参数、13B激活的经济版,同样支持百万上下文。官方明确表示,该系列在Agent能力、世界知识和推理性能上均实现国内与开源领域的领先。
百万上下文成标配,Agent能力比肩Opus 4.6
这次DeepSeek-V4最亮眼的地方,就是百万字超长上下文成了标配。两个版本都支持1M上下文长度,这意味着模型能一次性处理整本书级别的信息。在Agent能力上,官方宣称其表现比肩Opus 4.6——这确实挺让人兴奋的,毕竟Opus系列一直是闭源模型的标杆。凭什么说开源模型能追上顶级闭源?DeepSeek-V4用实际性能给出了答案。
双版本策略覆盖不同场景
DeepSeek-V4-Pro主打高性能研发,1.6T的总参数配合49B激活,算力需求不低但效果确实拔尖。而DeepSeek-V4-Flash则更注重效率,284B参数、13B激活,适合资源有限的团队快速部署。可以说,这两个版本覆盖了从科研到商业落地的多种需求。其实,这种双版本策略挺聪明的——既展示了技术上限,又降低了使用门槛。
开源打破闭源垄断,携手华为芯片
这次发布明确携手华为芯片,意味着DeepSeek-V4在国产硬件上也能高效运行。开源策略更是直接打破了最强闭源模型的垄断——以前大家总觉得闭源模型才够强,现在开源模型也能比肩世界顶级了。这背后是深度求索在MoE架构上的持续优化,以及百万上下文带来的应用场景拓展。咱们可以想象一下,未来AI应用在长文档处理、复杂推理上会有多大提升?
国内AI开源生态迎来新标杆
DeepSeek-V4的发布,让国内AI开源生态有了真正的世界级选手。以前开源模型总被诟病性能不如闭源,现在DeepSeek-V4用实际数据证明:开源也能做到顶级。这不仅是技术突破,更是生态建设的里程碑。毕竟,开源意味着更多开发者能参与改进,更多企业能低成本接入——这确实是个良性循环。