北京时间3月20日,AI编程工具Cursor发布了自研模型Composer 2,宣称是公司首次对基座模型进行”继续预训练结合强化学习”的成果。发布博客里没提基座模型的来源,措辞像是在说,这是Cursor自己从头炼出来的。
不到两小时,一个名叫Fynn的开发者在调试Cursor的API时,截获了Composer 2的真实模型ID,kimi-k2p5-rl-0317-s515-fast。拆开来看,kimi-k2p5指向Kimi K2.5,rl是强化学习(Reinforcement Learning),后面是日期和版本号。
月之暗面预训练负责人杜宇伦第一时间发推,称团队测试了Composer 2的tokenizer,发现与Kimi的tokenizer”完全一致”,几乎可以确认”这是对我们模型的进一步微调”。
从开源协议争议到官宣合作,整个过程不到24小时。这也不是Cursor第一次被发现”底座来自中国”。2025年11月Composer 1发布时,社区通过tokenizer分析推测它与DeepSeek高度一致。
Hugging Face联合创始人Clément Delangue评价说,”中国开源现在是塑造全球AI技术栈的最大力量”。
往前倒推几天,Kimi刚经历了一个密度极高的曝光周期。3月16日,月之暗面发布了一篇纯架构层面的技术论文”Attention Residuals”(注意力残差)。3月17日,黄仁勋在GTC 2026的Keynote中多次提及中国开源模型,Kimi K2.5代替了去年的DeepSeek,成为黄仁勋用来对全世界展示推理重要性的时候,那个作为标杆的模型。3月18日,杨植麟更是直接登上GTC的分论坛演讲。
Kimi’s story shows how Chinese open-source AI models are taking over the global developer narrative.
来源:虎嗅

