DeepSeek什么时候发V4?AI圈所有人都在猜,但正确答案可能只有梁文锋知道。
豆包、千问、元宝……无论大厂还是小厂,他们都在春节期间扎堆发布新版本,生怕晚一步就被V4的光芒盖过。
换成任何一个正常的CEO,面对这种全行业翘首以盼的局面,早就把半成品推出去了。
先占住声量,再慢慢迭代,这是互联网行业的基本操作。
但梁文锋偏不。跟他关系近的同行说了句大实话:”团队稳,底子厚,不会草率发布。”
外媒报道,V4是架构级重构。包含1万亿参数、百万上下文、原生多模态,并且将于4月份发布。
这次迭代的核心叫做LTM,Long-Term Memory,即长期记忆。
LTM是一套在模型架构内部实现持久化记忆的系统。它能让AI跨对话、跨任务地记住用户是谁、聊过什么、偏好什么。像人一样把重要的东西沉淀下来,而不是每次开机都从零开始。
一、梁文锋到底在憋什么
OpenClaw的爆火让大家认识到了这样一个事,当AI真的开始替人干活,模型对上下文的理解和记忆能力就不再是加分项,而是决定它能不能用的底线。
一个记不住上文的agent,每隔几轮就会重复犯错、丢失任务状态、忘记你刚才说过的话。
所以过去两年,业界也推出了不少的LTM方案。
比如伯克利团队在2023年提出的MemGPT,借鉴虚拟内存的思路,让模型自己决定什么时候把哪些信息从外部存储调入上下文窗口、什么时候换出去。
2025年发布的Mem0,则是把这条路往工程化推了一步,在LOCOMO基准上比OpenAI内置记忆高出26%,token消耗减少90%。
但所有这些方案都有一个共同的天花板,那就是它们都是在模型外部运行的中间件。
记忆的提取、压缩、检索,全部由外挂系统完成,模型本身不参与。
梁文锋要走的,很可能是一条完全不同的路。
从梁文锋署名的Engram论文和V4架构泄露来看,DeepSeek的方向不是在模型外面搭记忆系统,而是把记忆能力直接嵌入模型架构本身。
Engram已经证明,在Transformer内部可以开辟一块专用的条件记忆空间,用O(1)的哈希查找来存取静态知识,在调用已存好的知识时,还不占用上下文窗口的容量,也不增加推理的计算成本。
二、DeepSeek要补的课
愿景归愿景,现实归现实。
在梁文锋闭关的这一年里,对手们没有停下来等他。DeepSeek要补的课,比外界想象的多。
第一块短板是多模态
DeepSeek到今天为止,还是一个纯文本模型。它没办法看图、看视频、听语音。
第二块短板是agent能力
随着越来越多的人开始使用OpenClaw,无论是大厂还是小厂,都在强调自己模型的agent能力。
Kimi K2.5已经能自主调度100个子agent、并行处理1500个步骤。
第三块短板是AI编程
这是2026年发展最快、商业化最成熟的赛道。
第四块短板是AI搜索
DeepSeek的搜索能力一直是短板,而且其搜索结果经常会出现幻觉。
4月,箭在弦上。但如果再跳票,也不必意外。对梁文锋来说,”不发”永远比”发错”重要。
来源:虎嗅

