AI类 · 2026年3月16日 0

DeepSeek V4将引入原生长期记忆能力 或于4月发布

DeepSeek什么时候发V4?AI圈所有人都在猜,但正确答案可能只有梁文锋知道。

豆包、千问、元宝……无论大厂还是小厂,他们都在春节期间扎堆发布新版本,生怕晚一步就被V4的光芒盖过。

换成任何一个正常的CEO,面对这种全行业翘首以盼的局面,早就把半成品推出去了。

先占住声量,再慢慢迭代,这是互联网行业的基本操作。

但梁文锋偏不。跟他关系近的同行说了句大实话:”团队稳,底子厚,不会草率发布。”

外媒报道,V4是架构级重构。包含1万亿参数、百万上下文、原生多模态,并且将于4月份发布。

这次迭代的核心叫做LTM,Long-Term Memory,即长期记忆。

LTM是一套在模型架构内部实现持久化记忆的系统。它能让AI跨对话、跨任务地记住用户是谁、聊过什么、偏好什么。像人一样把重要的东西沉淀下来,而不是每次开机都从零开始。

一、梁文锋到底在憋什么

OpenClaw的爆火让大家认识到了这样一个事,当AI真的开始替人干活,模型对上下文的理解和记忆能力就不再是加分项,而是决定它能不能用的底线。

一个记不住上文的agent,每隔几轮就会重复犯错、丢失任务状态、忘记你刚才说过的话。

所以过去两年,业界也推出了不少的LTM方案。

比如伯克利团队在2023年提出的MemGPT,借鉴虚拟内存的思路,让模型自己决定什么时候把哪些信息从外部存储调入上下文窗口、什么时候换出去。

2025年发布的Mem0,则是把这条路往工程化推了一步,在LOCOMO基准上比OpenAI内置记忆高出26%,token消耗减少90%。

但所有这些方案都有一个共同的天花板,那就是它们都是在模型外部运行的中间件。

记忆的提取、压缩、检索,全部由外挂系统完成,模型本身不参与。

梁文锋要走的,很可能是一条完全不同的路。

从梁文锋署名的Engram论文和V4架构泄露来看,DeepSeek的方向不是在模型外面搭记忆系统,而是把记忆能力直接嵌入模型架构本身。

Engram已经证明,在Transformer内部可以开辟一块专用的条件记忆空间,用O(1)的哈希查找来存取静态知识,在调用已存好的知识时,还不占用上下文窗口的容量,也不增加推理的计算成本。

二、DeepSeek要补的课

愿景归愿景,现实归现实。

在梁文锋闭关的这一年里,对手们没有停下来等他。DeepSeek要补的课,比外界想象的多。

第一块短板是多模态

DeepSeek到今天为止,还是一个纯文本模型。它没办法看图、看视频、听语音。

第二块短板是agent能力

随着越来越多的人开始使用OpenClaw,无论是大厂还是小厂,都在强调自己模型的agent能力。

Kimi K2.5已经能自主调度100个子agent、并行处理1500个步骤。

第三块短板是AI编程

这是2026年发展最快、商业化最成熟的赛道。

第四块短板是AI搜索

DeepSeek的搜索能力一直是短板,而且其搜索结果经常会出现幻觉。

4月,箭在弦上。但如果再跳票,也不必意外。对梁文锋来说,”不发”永远比”发错”重要。

来源:虎嗅