日本乐天集团高调发布的7000亿参数大模型Rakuten AI 3.0,号称「日本最大、性能最强」,但发布后不久就被开源社区扒出底层架构实际上是来自DeepSeek-V3,乐天仅仅是做了日文数据的微调。
在Hugging Face上,Rakuten AI 3.0的配置文件里直接写着架构来自DeepSeek V3。但在发布新闻稿里,丝毫不提任何关于DeepSeek的信息,只含糊的说「它融合了开源社区的精华」。
更夸张的是,乐天为了掩盖这一事实,在开源时偷偷删除了DeepSeek的MIT开源协议文件,被社区实锤后才补上。
单看参数规模,7000亿参数MoE模型确实算是日本在LLMs领域的一次有实力的发布。但用来对比的模型,是已经被下架的GPT 4o和只有1200亿参数的GPT OSS,赢了不少水分。
GENIAC项目设立的初衷,正是为了建立日本本土的生成式AI生态,缓解对海外巨头技术依赖的焦虑。乐天作为经产省重点扶持对象,获得了大量算力资源支持。
从底层逻辑来看,这就是「中国架构+日本微调」。DeepSeek提供了被全球验证过的高效底层架构,乐天用日文语料做了微调。如果坦荡承认使用DeepSeek底座,顶多是缺乏新意的套壳发布。
但乐天选择了掩藏——不仅对DeepSeek绝口不提,还抹掉协议文件,套上自己的Apache 2.0协议,包装成「日本AI救世主」。
客观来说,拿开源模型做本土化微调在技术圈极其正常。但既想要中国技术的极致性价比,又放不下「本土巨头」的身段,确实难上加难。
—
原文链接:https://www.huxiu.com/article/4843116.html
来源:虎嗅网

