就在大众忙着规划周末休闲时光时,国内AI厂商DeepSeek突然放出重磅王炸,正式发布并开源V4系列模型预览版。这款全新模型不仅多项性能对标全球顶级闭源AI,碾压市面绝大多数开源模型,更完成了一次颠覆性突破——摆脱英伟达算力独家依赖,适配国产芯片。

本次上线的DeepSeek V4系列包含两大核心版本,分别是1.6T总参数、49B激活参数的V4-Pro,以及284B总参数、13B激活参数的V4-Flash,两款模型统一标配百万token超长上下文,可一次性处理超百万字文本,足以完整容纳长篇书籍、整套项目文档,大幅适配复杂办公、代码开发、学术研究等高阶场景。目前模型已全面上线官网、官方APP,同步开放API服务,且全权重开源,所有开发者均可免费体验、部署使用。

此次V4系列最大的升级亮点,莫过于全面拉满的Agent智能体能力,精准瞄准当下AI落地的核心需求。据DeepSeek内部员工实测反馈,V4-Pro日常使用手感远超Claude Sonnet 4.5,交付质量逼近Opus 4.6非思考模式。更值得一提的是,参与调研的85名专业开发者和研究员中,超九成认可它可作为首选编程模型。同时模型专项适配多款主流Agent产品,搭配全新XML格式工具调用机制,有效解决传统模型工具调用出错、转义失败的痛点,实用性大幅提升。

综合推理、知识储备与创作能力上,V4系列同样交出了顶尖答卷。在专业测评中,V4-Pro的SimpleQA-Verified得分远超一众开源竞品,领先幅度达20个百分点,逼近海外顶级闭源模型。数学、STEM科研、竞赛代码三大硬核能力,更是登顶开源模型天花板。

在大众关注的中文场景,V4-Pro优势尤为突出,功能性写作胜率高达62.7%,创意写作胜率77.5%,全方位碾压对标模型Gemini-3.1-Pro,仅在超高约束多轮写作场景中略逊于Claude系列。

强悍性能的背后,是底层架构的全方位革新。为解决长文本算力消耗过高的行业痛点,DeepSeek V4创新性采用CSA与HCA双压缩注意力机制,搭配闪电索引器和滑动窗口设计,既大幅压缩计算量、节省显存占用,又能保留文本细节。数据显示,百万上下文场景下,V4-Pro推理计算量仅为上一代的27%,V4-Flash更是低至10%

而本次更新最具产业价值的突破,并非参数与性能升级,而是算力生态的自主化。长期以来,全球顶级大模型高度依赖英伟达芯片,国产AI始终面临算力卡脖子难题。此次DeepSeek V4将早期独家适配权限开放给国产昇腾芯片,成功实现顶级万亿参数模型在国产算力平台稳定推理。就连英伟达创始人黄仁勋都直言,该场景落地对海外科技行业极具冲击力,意味着国产AI软硬件体系有望成为全球行业标准。

纵观整个AI行业,海外闭源模型长期垄断高端市场,开源模型大多存在性能短板。而DeepSeek V4的问世,既补齐了国产开源模型的推理、代码、创作短板,又打破了海外软硬件双重垄断。这不仅是国产AI从追赶、并跑到局部领跑的里程碑,更标志着中国AI正式实现算法开源、模型自研、算力国产的完整自主闭环,为本土AI产业规模化落地、全球化竞争筑牢了核心根基。