4月24日,沉寂15个月的DeepSeek发布并开源了全新一代模型DeepSeek-V4。这款搭载百万词元超长上下文,在Agent 能力、世界知识、推理性能方面大幅提升,被海外开发者直呼 “鲸鱼回归”。

在刚刚更新的全球权威Artificial Analysis智能指数开源模型榜单上,DeepSeek V4 Pro(Max)相比上一代模型V3.2提升了10分,以52分的成绩进入全球开源模型的前两位。


来源:Artificial Analysis智能指数官网

拿到54分成绩的是在本周一发布的中国万亿参数开源模型Kimi K2.6,也是全球排名前五的开源模型中,同时支持图片和视频理解的多模态模型,其他四个是纯文本模型。

前后相差不到四天,两个万亿参数级开源模型先后落地。

巧合的是,这并非中国AI开源双雄的首次 “不谋而合”。从2025年1月至今,DeepSeek与Kimi已发生多次技术发布“撞车”,从推理模型、注意力架构到数学推理,再到此次万亿参数大模型迭代,两家AI创业公司始终踩着同一条技术节拍前行。

DeepSeek与Kimi的技术“撞车”并非偶然,而是对AGI技术顶峰的同向追逐,更是中国开源AI阵营抱团突围、直面美国闭源巨头的战略默契。当全球AI竞争从单一技术比拼升级为生态对抗,这对由两位广东籍创始人带领的创业双子星,正以 “技术共生、互利互惠” 的中国模式,尝试改写全球AI格局。

连续四次技术“撞车”

2025年1月20日,DeepSeek-R1与Kimi K1.5之间的“撞车”是最戏剧性的一次。

当晚,DeepSeek发布R1推理模型并以MIT协议完全开源。不到两小时后,Kimi K1.5多模态思考模型亮相。两个模型的目标高度一致:让大模型从“张嘴就来”进化为“先想后说”——即通过强化学习跑通Long-CoT(长思维链)推理,复现OpenAI-o1的核心能力。

随后,OpenAI在一篇官方论文中点名指出,DeepSeek和Kimi是“最早复现OpenAI-o1 Long-CoT”的两家公司。 当全世界都在迷茫OpenAI的o1思路时,中国这两家公司几乎同步给出了独立的复现方案。


来源:OpenAI《Competitive Programming with Large Reasoning Models》论文

2025年2月,双方不约而同地改造Transformer注意力机制。DeepSeek发布NSA(Native Sparse Attention,原生稀疏注意力),Kimi发布MoBA(混合块注意力)。稀疏注意力是解决Transformer长上下文成本爆炸问题的关键方向,能够大幅降低KV缓存占用和注意力计算量。两家在几乎同一个时间窗口给出了各自的创新解法。

2025年4月,Kimi推出Kimina-Prover Preview数学推理专项模型,专注数学定理证明与复杂推理。不久后,DeepSeek-Prover-V2发布。两者都走了“自验证”路线——通过自我验证机制提升数学推理的准确性和可靠性。

2026年初,DeepSeek发布mHC(流形约束超链接),系统性地改造深度神经网络中沿用了近十年的传统残差连接结构,增强深层网络信号传播的稳定性。两个月后,Kimi放出新成果“注意力残差”,将Transformer的核心原理“注意力”重新应用到残差连接上,引发AI大神Andrej Karpathy和埃隆·马斯克等人点赞,两人都对该技术表现出浓厚兴趣。

另外值得关注的一个细节是,DeepSeek V4的训练方案中的关键变化之一是引入Muon优化器。Muon由Keller Jordan等人提出,但最初仅在小模型上验证其效果。而Kimi在2025年2月发布的论文《Muon is Scalable for LLM Training》验证了Muon在480亿参数模型的效果。在2025年7月发布的万亿参数模型K2上继续使用Muon优化器,并且做了改进解决训练不稳定的难题,最终在在相同训练量下实现了2倍的token效率提升。

杨植麟在今年3月英伟达GTC 2026演讲中,专门用最长篇幅讲解Muon。如今,这项技术成为DeepSeek V4在架构层的三项关键升级之一,提升了训练稳定性。


来源:Deepseek V4的Hugging Face主页

开源阵营向闭源巨头发起总攻

OpenAI在DeepSeek V4发布前一天上线了GPT-5.5,每百万输出token定价30美元。而DeepSeek V4 Pro的输出定价仅为每百万token 24元人民币(约3.4美元),约为GPT-5.5的十分之一。

DeepSeek V4-Pro在发布的公众号中称,其在数学、STEM和竞赛型代码的评测中超越所有已公开开源模型。

而Kimi K2.6则在公众号中称,新模型在Humanity’s Last Exam全工具测试中以54.0%的得分登顶;在DeepSearchQA深度检索中以92.5%的得分领先于GPT-5.4、Gemini 3.1 Pro和Claude Opus 4.6。

OpenRouter数据显示,K2.6在发布后迅速跃居每日榜单的榜首,跟DeepSeek一起位居全球前五。


来源:OpenRouter官网(2026年04月25日)

Meta新模型Muse Spark发布时,官方博客对比的两个基准模型正是DeepSeek和Kimi。

中美科技竞争的一个核心战场是算力供应链。此次,DeepSeek V4明确支持华为昇腾950芯片。DeepSeek在官方定价说明的小字脚注中注明:“受限于高端算力,目前Pro的服务吞吐十分有限,预计下半年昇腾950超节点批量上市后,Pro的价格会大幅下调”。华为方面同步宣布,昇腾超节点全系产品已完成对V4的适配与支持,通过芯模技术紧密协同,实现了高吞吐、低时延的推理部署。

Kimi在国产芯片领域同样走在前列。Kimi K2.6支持国产芯片混合推理,其技术路线强调在端侧和云端协同运行,降低对英伟达CUDA生态的依赖。Kimi从K2 Thinking就加入了INT4量化技术——通过模型量化推理,显著提升了对国产加速芯片的兼容性。华为昇腾官方平台也披露,已完成Kimi K2.5在昇腾AI上的部署,实现多模态推理性能的全面跃升。

两家同时推国产芯片适配:DeepSeek助力昇腾,Kimi开源异构推理路线。

黄仁勋在英伟达2026年度GPU技术大会的主题演讲中,用来展示下一代Blackwell Ultra芯片性能的大模型,就是Kimi K2.5,将中国开源模型作为衡量下一代GPU的标杆。


来源:黄仁勋在英伟达GTC2026大会的主题演讲

梁文锋与杨植麟,两个广东人,相差八岁,一位从量化跨界,一位深耕学术。如今,他们各自带领的团队分别成长为中国的“万亿开源头部”,推动行业协同互补的“团战”。梁文锋和杨植麟都相信,开源让每个企业、每个研究者非常低门槛地获取智能,是推动AI发展的最重要基石。