
套壳开源模型还装自研,忍不了一点,直接开喷了。
这次风波的主角,依然是国产开源模型,和硅谷独角兽玩家。
不过……双方的站位好像发生了变化。
月之暗面预训练负责人杜羽伦,点名Cursor CEO:
Cursor 既没有遵守我们的许可协议,也没有向我们支付任何费用。
Michael Truell,为什么?

月之暗面联创周昕宇同样下场,一记重锤锤死 Cursor。
我好像不记得 Cursor 有来找我们申请授权。

吃瓜一线,马斯克也站边了:
对,明明就是 Kimi K2.5!

今天,Cursor 也终于是给出了正式回应,承认「自研」模型确实是套的 Kimi 的壳。
至于为什么没署名嘛……
没详细解释,大概意思就是不小心忘记了,实属疏忽,下次不会再犯。
Cursor 兴奋发布,然后被当场抓包
要搞清楚这是怎么一回事,得先把时间线拨回到 Cursor 新模型发布那天。
那天的关键词是「倒反天罡」。
Cursor 搬出自研模型Composer 2,不仅成本低得吓人,性能还把 Claude Opus 4.6 按着锤。
不过后来有眼尖的人指出,benchmark 是 Cursor 自家的,属于是又当裁判又当运动员了。
而且有网友实际体验下来,表示差 Opus 还是有点距离。

本来以为,这只是又一次过度宣传,等用户实际体验后,热度就会慢慢下去。
没想到,体验着体验着,竟然体验出这么个惊天大瓜。
有网友在 Cursor 里调 API,结果误打误撞在日志中发现:
模型那一栏,写的是Kimi K2.5。

全网炸锅。
Cursor 官方发现后,火速阻断了这一渠道。
但为时已晚。

消息刚出来的时候,网友还不太相信。Cursor 这么大的公司,怎么也得提前打声招呼吧?
毕竟 Kimi 虽然是开源模型,但修改版 MIT 新增了一条:
如果你用这个模型做商业产品,并且规模够大,必须标明 Kimi K2.5.
触发条件是满足其一:月活超 1 亿,或月收入超 2000 万美元。

而 Cursor,估值 500 亿美元,ARR 20 亿,每月进账约 1.67 亿,远远超过门槛。
论:Kimi 如何冲刺 500 亿美金估值 ?
建议:下场做个 AI IDE。
调侃归调侃,但也许…… Cursor 和月之暗面私下签了什么特殊定制协议呢?
毕竟体量这么大,这也是一次重磅级的发布,应该不至于白嫖吧???

直到月之暗面联创周昕宇下场,一记重锤锤死 Cursor。

杜羽伦,得知消息后,当即去测了 Composer 2 的 API,随即在技术层面给出更多证据。
结论:这模型的 tokenizer,和 Kimi 一模一样。
几乎可以实锤,Cursor「暴打」Claude 的最强自研模型,就是在 Kimi 基础上做了一道后训练。
仅此而已。
对此,杜羽伦表示「难以置信」。
Cursor 既没有遵守我们的许可协议,也没有向我们支付任何费用。
随即直接点名 Cursor CEO:
Michael Truell,为什么??

舆论彻底被引爆。

大概就是在嘲讽 Cursor 死不承认,结果现在被人家抓了现行。
印象最深刻是这条评论,攻击力极强:
「如果你是套壳 AI 应用,就好好当你的模型二道贩子,别装得自己很懂模型一样。」

如今再回头看 Cursor 当时更新「自研」模型表态,确实很感慨啊:
这些性能提升,来自我们首次进行的持续预训练,为后续扩展强化学习提供了坚实基础。
实在有些尴尬。
Cursor 此次最大的卖点是强化学习,他们确实搞出了一种自我总结的 RL 方法,能解决上下文过长的问题。
但是,预训练???
哈??

谁曾想呢,帮助 Cursor 翻身把歌唱,把 Claude 压着打的,其实是 Kimi。

反转来了?
以上是昨天夜间发生的故事,等今早一觉睡醒,想不到还有新瓜可吃。
X 上,周昕宇和杜羽伦的相关推文、回复全没了。
Kimi 的一条官方声明成了唯一的回应:
恭喜 Cursor 团队发布 Composer 2!
我们很高兴看到 Kimi-k2.5 成为其基础模型。看到我们的模型通过 Cursor 的持续预训练和高算力强化学习训练被有效整合,这正是我们所支持的开放模型生态。
补充说明:Cursor 是通过 FireworksAI 提供的托管强化学习与推理平台来访问 Kimi-k2.5 的,这是一个经过授权的商业合作关系。
不用过多翻译,读到这儿的你肯定已经和我会心一笑了吧 doge。
优雅,实在太优雅了。

随后 Cursor 创始人 Aman Sanger 好像也终于想起了开源协议这件事,上来就对 Kimi 一顿猛夸:
我们做了很多评估,Kimi k2.5 是最强的!

至于为什么发布博客里没署名?
Aman Sanger 没有详细解释,只以滑跪结尾,说是一个失误,并表达了歉意。

网友们当然不会买账。
这这这,Cursor 在发布新模型后一顿技术解读,又是预训练,又是 RL 的,换谁也不相信是单纯忘记署名了啊。
哦,忘记说了,其实模型用的是 Kimi,但我们自己做了很多技术优化噢。

截至发帖,Cursor 依然未在 Composer 2 的博客上补充任何 Kimi 相关说明。

One More Thing
其实,Cursor 也不是头一次干类似的事儿了,只是之前没像这次被苦主用铁锤锤死。
Composer 刚出来,就有网友对 Cursor「自研」的真实性表示过怀疑。
主要博客实在写得太含糊了,只说用了 RL、在 MoE 架构上做了优化,对模型底子完全只字不提。
Composer 的透明度缺失简直离谱。他们提到用了强化学习,但没交代模型的其他训练过程。
到底是自己预训练的,还是拿现成模型改的?
在他们公开更多细节、或有人能独立复现结果之前,我对这些说法都持保留态度。

后面确实也被网友扒出来蛛丝马迹,该模型的 CoT 里总是会莫名突然冒出中文;此外,模型表现和智谱 GLM非常相似。
面对这些质疑,Cursor 对此从没承认,也从来没否认。
不过,智谱的开源协议采用的是 MIT,也就是说使用其模型的产品,即便商用,也不对署名做强制要求。
其实在业内,套壳这件事对小公司来说,也很正常。
从零训一个 coding 模型,成本太高了,风险也大,为了市场还必须持续抢 SOTA,算力和时间成本都不划算。
在此背景下,好用又开源的国产模型,无疑成了资源受限条件下的最佳选择。
不止初创公司,就连日本闹得沸沸扬扬的「最强自研模型」Rakuten AI 3.0,也没能撑住。
发布不到 12 小时,就有,开源社区开发者直接在 Hugging Face 仓库的 config.json 文件里看到:
" model_type " : " deepseek_v3 "
参数规模、MoE 结构……几乎和 DeepSeek-V3 一模一样啊。
更火上浇油的是:初始上传时,乐天疑似故意没上传 DeepSeek 原有许可文件和 NOTICE,只留自家 Apache 2.0。
被社区锤爆后才紧急补上一个 NOTICE 文件,承认来源。
怎么说呢,「拿来主义」确实很不好……
但也算是某种对中国模型实力的侧面印证吧。
参考链接:
[ 1 ] https://x.com/fynnso/status/2034706304875602030
[ 2 ] https://x.com/Kimi_Moonshot/status/2035074972943831491
[ 3 ] https://x.com/amanrsanger/status/2035079293257359663
— 欢迎 AI 产品从业者共建 —
� �「AI 产品知识库」是量子位智库基于长期产品库追踪和用户行为数据推出的飞书知识库,旨在成为 AI 行业从业者、投资者、研究者的核心信息枢纽与决策支持平台。
一键关注 � � 点亮星标
科技前沿进展每日见
辉煌优配提示:文章来自网络,不代表本站观点。