OpenClaw在2026年1月底爆火。公众号铺天盖地都在介绍怎么配置,云服务厂商都速度上线了一键部署,生怕错过这波热度。与此同时,各种行为艺术又满天飞:ClawdBot、MoltBot、OpenClaw,一周内改了三次名;结果改名的时候账号还被抢注,被一个叫的代币诈骗了1600万美元。
与此同时,安全漏洞也层出不穷:有12%的第三方skills含恶意代码,有不少人把控制台裸露在公网上没设密码。
一时间让人感觉整个领域全是相互矛盾的噪音,无所适从:这东西到底要不要装?不装会错过什么?装了有什么风险?这到底是下一个生产力革命还是又一个两周就过气的玩具?
这篇文章就想从更高层的角度抽丝剥茧:OpenClaw到底做对了什么,为什么是它火,以及这跟我们有什么关系。
为什么会火的暴论
我有一个暴论:OpenClaw火的原因,和去年这个时候DeepSeek火的原因,是高度类似的。
DeepSeek流行的时候,当时国内大家用的AI主要是纯聊天,没有搜索功能也经常信口瞎编。ChatGPT和Claude虽然有了思考和搜索功能,智能强很多,但国内用不了。DeepSeek引入了推理功能和搜索功能以后,第一次让大家体验到了会搜索懂思考的AI,带来了一种震撼:哇,AI还能这么有用,就爆火了。
换言之,这个火不是因为技术上比竞争对手更好,事实上DeepSeek在纯模型能力上并没有碾压同时代的GPT-4o或者Claude 3.5。
而是因为把一小撮人享受/习惯的事情,一下子推广到另一群更大的用户群面前,这才火起来。
OpenClaw也是一样。2026年初Agentic AI领域其实有一个断层:ChatGPT这种产品虽然流行,但相比Cursor/Claude Code/Codex这种有本地权限的编程Agentic AI,整体能力还是落后了至少一代。
但Cursor这种工具非常小众,基本上只有程序员在用。大家用的还是ChatGPT这种消费级产品,就觉得AI这两年没啥进步,能力很有限。
然后OpenClaw第一次把Cursor这种能本地编程的Agent和WhatsApp/Slack/飞书这种流行通信软件接起来了,让非技术人员这种更广大的用户群第一次接触到了能读写文件,能执行命令,有记忆能持续迭代的Agentic AI,就爆火了。
换言之,这个火不是说OpenClaw在技术上做到了什么新的事情,而是因为把一小撮人享受/习惯的事情,一下子推广到另一群更大的非技术用户群面前,这才火起来。
但我说这些不是为了得出结论说OpenClaw、DeepSeek是花架子,没必要学。恰恰相反,DeepSeek从历史的角度提供了很多启发。比如DeepSeek火了以后,真正从中受益的是哪些人?我的观察是,有没有跟风第一时间玩上DeepSeek本身并不重要。
很多人玩了一段时间就退烧了。真正理解了DeepSeek为什么火,把搜索和推理这两个关键因素整合到了自己工作流里的人,才是真正受益的人。
类似的,OpenClaw火了以后,我们确实可以去跟风安装使用、体验一下,但这件事情本身并不会让我们一下就脱胎换骨生产力倍增了。因为这种现象级产品能爆火的重要前提是它是面向最广泛的用户设计的,因此设计决策上有很多妥协,直接用往往效率并不是最优。更关键的是要去理解它背后的设计哲学,分析它爆火的原因,从中吸取经验教训,改进自己的工作流。
毕竟,工具会过气,对工具本质的理解不会。把可迁移的认知抽出来,融入自己的工作流,这才是内行的做法。
聊天界面:流行的基础,也是天花板
在具体分析OpenClaw的牛逼之处之前,我想先带大家看一个具体的例子,来解释OpenClaw是面向最广泛的用户设计的这句话到底是什么意思,以及有什么影响。
前面我们提到OpenClaw火起来非常关键的一点是,它选用了大家天天都用的聊天软件作为交互入口,而不是像Cursor一样让你在电脑上多装一个软件。
这样可以复用现有的使用习惯和渠道,让用这个工具的心智负担特别低。你没事反正都要用Slack/飞书,正好就看到了OpenClaw就会想着用用。
另一方面,因为大家本身就非常熟悉这些软件的使用,所以它把学习成本也几乎压到了零。不需要装IDE,不需要学编程的术语概念,拿起手机就能用,这是它能出圈的基础。
但如果你用过Cursor这种Agentic AI编程软件的话,就会发现Slack这种聊天窗口对AI来说是个相当受限的交互方式。
第一是它要求对话是线性的。像Slack和微信这样的聊天窗口主要就是一条条消息往下排。但是深度的知识工作往往不是线性的。比如你需要引用另外一个thread的内容,需要把两个方向的探索merge在一起,需要在某个会话中fork出去。这些在桌面环境里比如Cursor和OpenCode里面都有专门的UI可以实现,但是在聊天窗口里面做就特别别扭。
第二个问题是信息密度。如果只是做玩具性质的调研和开发,聊天窗口是没有问题的。但凡要做更复杂一点的分析和思考,它的信息密度就捉襟见肘了。比如图文混排的分析报告、复杂的表格、带格式的长文,这些在聊天里面看还都蛮痛苦的。同时不同平台对Markdown的支持也参差不齐,体验很不稳定。
第三个问题出在过程的可观测性上。尤其是对要分好几步才能完成的任务,我把执行权交给AI以后,很自然地会想关心它到底在干啥。比如它是在稳步推进,还是在钻牛角尖鬼打墙?它调用了什么工具,改了哪些文件?这些在Cursor等等工具里会有自然的呈现,但是聊天窗口我们只能看见一条对方正在打字或者一个emoji表示正在处理。尤其是比较复杂的任务,OpenClaw需要等蛮久才能等到一条消息告诉我们搞定了还是中间挂了。
但是我说这么多不是想说OpenClaw设计不好,而是想说这里面有个很明显的妥协(trade-off)。你要想把工具做得容易上手、面向最大的用户群,就必须用聊天工具这些人人都已经在用的工具作为载体。但这同时立刻又带来了对话形式、信息密度等等弊端。
反之亦然。在这个从易用但是拧巴到原生但是小众的连续的trade-off空间里,OpenClaw选择了极致的易用性。这是它能爆火的基础。但我们也要清醒地认识到这种设计决策所带来的限制。在融合进自己工作流的时候,不是无脑地采用OpenClaw的所有设计,而是应该因地制宜,根据自己的需求来在这个trade-off轴线上找到属于自己的甜点区。
理解了这个trade-off,后面的分析就容易理解了。
界面之外的流行要素
聊天界面是OpenClaw流行的基础,但只是最浅显的一点。真正让用户觉得这个AI真的智能,好用,懂我的,是它背后的三个设计决策。
第一个是统一的入口和上下文。对比一下Cursor就很清楚。在Cursor里每个项目的上下文是隔离的——打开项目A,AI只知道项目A的事;切到项目B,之前关于项目A的对话就全没了。
Claude Code、OpenCode也一样,每次启动都绑定一个工作目录。但OpenClaw则完全相反。它默认把所有对话的上下文混在一个池子里。你上午在Telegram里让它帮你整理邮件,下午在Slack里让它写个报告,晚上在WhatsApp里让它安排明天的日程——它全都记得。给人的感觉就是它特别聪明,好像真的认识你。
但光把上下文混在一起是没用的,因为上下文窗口很快就会满了。这就牵扯到了它的第二个关键设计,持久化记忆。OpenClaw对记忆的处理非常巧妙,很值得学习。从大的原理上,它和Manus一样用的是基于文件的记忆系统。比如它维护了一个SOUL.md,定义AI的核心人格和行为准则;USER.md保存了对用户的画像,MEMORY.md存长期记忆,再加上每日的原始日志等等。
这里面比较巧妙的是它有个自我维护机制:AI会在每隔一段时间(heartbeat)自动review最近的原始日志,把有价值的信息提炼到MEMORY.md里,顺便清理过时的条目。整个过程不需要用户干预。这个自我维护机制就把记忆给分层了,原始日志是短期记忆,每天的MEMORY.md是中期记忆,提炼出来的个性和喜好是长期记忆。对用户来说,体验一下就从每次重开都要重新交代一遍变成了它好像在成长,这个感知差异是非常大的。
第三个设计是丰富的Skills。这个意义要远超节省那么一点用户的时间。工具数量带来的好处不是线性的——6个工具比4个工具的能力提升,远大于4个相对2个。这是因为工具之间可以组合。接Slack能管下达指令,状态汇报,接图像生成能画图,接PPT服务能出稿,接deep research能调研。这些凑在一起,就可以组合进化出很多完整的业务能力和应用场景。
这三个设计之间也不是简单的加法,而是互相促进的。
记忆加上统一的上下文池,会带来数据复利。因为有持久化记忆,对话可以跨会话积累;因为有统一入口,所有来源的数据汇进同一个记忆池。你在Slack里讨论的工作内容、在Telegram里安排的日程、在WhatsApp里的个人对话,全部混在一起,形成了对你越来越完整的理解,以后完成任务也会越来越贴心。
记忆加上skills,带来了自我进化的能力。今天学到的用法明天还在,能力会累积;AI自己能写新的skill并且记住它的存在和用法,这就进入了正循环。这里面特别值得一提的是coding能力。因为OpenClaw自己能写代码,所以遇到没有现成skill可用的时候,它就可以当场造一个。这个新skill会被保存下来,下次遇到类似场景直接复用。这就形成了自我进化的闭环。
而这些能力和界面的易用性加在一起,又带来了使用频率。入口越顺滑,调用越频繁,飞轮越转越快,能力越来越强。
总之,OpenClaw是一个相当厉害的产品。它的各种决策,不论是技术的(入口、记忆、工具)还是非技术的(界面),都在为同一个飞轮服务,让普通人第一次摸到了Agentic AI的完整形态。
限制和trade-off
前面说了它为什么牛,下面我要开始吐槽了。但我想先解释一下,下面介绍的这些限制不是说OpenClaw疏忽了没做好,而是前面说的那个trade-off的直接后果——为了爆款好用必须付出的代价。
界面的限制前面已经说过了:线性、低信息密度、低可观测性。在深度使用时这些很快会成为瓶颈,这里不再赘述。
更深层的问题在记忆上。OpenClaw的记忆系统对小白很友好。你不用管,它自己就会打理和进化。但对想把知识沉淀成资产的人来说,这反而是一个障碍。
举个栗子,比如我们做完一次调研,产出了一份5000字的长文或者一份PRD。在Cursor/文件系统里它就是一个文件:docs/research.md,想引用就@,想升级就开新版本,想对比就diff。但在OpenClaw里,这份东西像是人类记忆一样,说不定什么时候就会被自动摘要、自动重写,甚至整个被删除了(遗忘),整个过程完全不可控。你很难跟它说清楚:以后就以这份文档为准,遇到相关问题必须引用它,不要给我压缩成三行。总之就是,知识没办法显式管理。
更让人头疼的是整个更新过程也是一个黑盒。MEMORY.md里存什么、怎么组织、什么时候清理,主要是AI在heartbeat期间自动做的。你看到的是结果,很难看到原因:它这次改了哪些条目,为什么删掉这一条,为什么把两个不相关的东西合并在一起。出了问题也很难定位根源,因而很难改进。
OpenClaw记忆系统的设计带来的另一个问题是跨场景的信息干扰。统一记忆当然带来懂我的感觉,但也意味着信息很容易跨项目污染:A项目的偏好、甚至某个临时决定,可能会莫名其妙影响到B项目。对小白来说它好像什么都记得,但对真的想干活的进阶用户来说更像是我怎么又被它带偏了。
Skills的安全隐患又是另一类问题。ClawHub上的上千个技能中,安全审计发现有上百个包含恶意代码——加密货币盗窃、反向shell后门、凭证窃取都有。Simon Willison提过一个致命三角的概念:一个AI系统同时具备访问私有数据、暴露于不可信环境、能够对外通信这三个能力时,风险是指数级放大的。OpenClaw三个全中。
这就形成了一个奇特的悖论。你要想用的爽,就必须给他很多工具和权限。但这又会带来安全问题,所以就要把权限收得很紧。但权限收紧了就又变成类似Manus那样的云端Agent服务了,没了本地Agent的爽。
安全和好用,似乎成了一对矛盾。
总结
回到开头的暴论。OpenClaw和DeepSeek的火,本质上是同一件事:把一小撮人已经在享受的能力,第一次推到了更广泛的人群面前。DeepSeek让大家第一次用上了会搜索懂推理的AI,OpenClaw让大家第一次摸到了能读写文件、有记忆、会自我进化的Agentic AI。
但也正因为要面向最广大的普通用户,这类产品必然在设计上做大量妥协。DeepSeek如此,OpenClaw也如此。聊天界面带来了易用性但牺牲了表达力,统一记忆带来了懂我的感觉但牺牲了可控性,开放的Skills生态带来了能力但引入了安全风险。
对于已经在用Cursor/Claude Code/OpenCode的人来说,更值得做的不是无脑跟风装一个OpenClaw,而是理解它为什么火——统一入口、持久化记忆、工具生态,以及它们之间的飞轮——然后把这些认知融入自己已有的工具链里,扬长避短。我们自己就是这么干的,效果确实比直接用OpenClaw好很多。
毕竟,工具会过气,对工具本质的理解不会。
来源:虎嗅

