DeepSeek什么时候发V4?AI圈所有人都在猜,但正确答案可能只有梁文锋知道。
豆包、千问,元宝……无论大厂还是小厂,他们都在春节期间扎堆发布新版本,生怕晚一步就被V4的光芒盖过。
换成任何一个正常的CEO,面对这种全行业翘首以盼的局面,早就把半成品推出去了。先占住声量,再慢慢迭代,这是互联网行业的基本操作。
但梁文锋偏不。跟他关系近的同行说了句大实话:团队稳,底子厚,不会草率发布。
LTM:长期记忆能力
外媒报道,V4是架构级重构。包含1万亿参数、百万上下文、原生多模态,并且将于4月份发布。
这次迭代的核心叫做LTM,Long-Term Memory,即长期记忆。
LTM是一套在模型架构内部实现持久化记忆的系统。它能让AI跨对话、跨任务地记住用户是谁、聊过什么、偏好什么。像人一样把重要的东西沉淀下来,而不是每次开机都从零开始。
而这个能力,恰恰是OpenClaw最缺的东西。
整个社区都在想方设法地去解决这个问题,给它打补丁、装插件、装Skill,却没人能从根上解决问题,因为问题出在模型本身,它天生不记事。
LTM要做的,就是从架构层把这个病治好。
梁文锋在憋什么?
OpenClaw的爆火让大家认识到这样一个事,当AI真的开始替人干活,模型对上下文的理解和记忆能力就不再是加分项,而是决定它能不能用的底线。
一个记不住上文的agent,每隔几轮就会重复犯错、丢失任务状态、忘记你刚才说过的话。
从梁文锋署名的Engram论文和V4架构泄露来看,DeepSeek的方向不是在模型外面搭记忆系统,而是把记忆能力直接嵌入模型架构本身。
Engram已经证明,在Transformer内部可以开辟一块专用的条件记忆空间,用O(1)的哈希查找来存取静态知识,在调用已存好的知识时,还不占用上下文窗口的容量,也不增加推理的计算成本。
DeepSeek要补的课
在梁文锋闭关的这一年里,对手们没有停下来等他。DeepSeek要补的课,比外界想象的多:
第一块短板是多模态 – DeepSeek到今天为止,还是一个纯文本模型。它没办法看图、看视频、听语音。
第二块短板是agent能力 – 随着越来越多的人开始使用OpenClaw,无论是大厂还是小厂,都在强调自己模型的agent能力。
第三块短板是AI编程 – 这是2026年发展最快、商业化最成熟的赛道。
第四块短板是AI搜索 – 现在几乎所有ChatBot产品都是联网的,搜索不是加分项,而是必选项。
4月,箭在弦上。但如果再跳票,也不必意外。对梁文锋来说,不发永远比发错重要。
来源:虎嗅
原文链接:https://www.huxiu.com/article/4842500.html

