DeepSeek V4正式发布:注意力压缩技术实现效率飞跃

作者:袖梨 2026-05-07

DeepSeek V4正式发布,注意力压缩技术实现效率飞跃。4月24日,DeepSeek公司推出V4模型,分Pro和Flash两档,总参分别为1.6T和284B,激活参数49B和13B,均支持1M token上下文并开源。

注意力压缩技术如何实现效率飞跃?其实关键在于参数效率。Pro档1.6T总参仅49B激活,Flash档284B总参仅13B激活,这确实大幅降低了计算成本。两档都给出1M上下文,挺实用的。

Agent能力方面,V4-Pro在Agentic Coding评测中达到当前开源最佳水平。公司内部已将其作为默认编码模型,反馈优于Sonnet 4.5,交付质量接近Opus 4.6非思考模式。这效率飞跃,何来底气?注意力压缩技术功不可没。

世界知识评测中,V4-Pro大幅领先其他开源模型,稍逊于Gemini-3.1-Pro。可以说,开源模型能接近顶级闭源水平,这成绩真的不错。

适配优化方面,V4为Claude Code、OpenClaw、OpenCode、CodeBuddy等主流Agent产品做了专门优化,代码任务和文档生成任务都有提升。没错,这算是为开发者考虑周全了。

DeepSeek V4正式发布,注意力压缩技术实现效率飞跃,让大模型更高效实用。开源社区又迎来一个强力选手。

相关文章

精彩推荐