日本科技界爆发一起严重的舆论危机。日本乐天集团(Rakuten)于17日高调发布号称“日本国内最大规模”的高性能AI模型 Rakuten AI 3.0,然而不到12小时,该技术社区便将其“扒得底朝天”——核心架构被证实完全照搬中国深度求索(DeepSeek)的开源模型 DeepSeek V3,且初期刻意隐瞒来源,试图包装成“自主研发”,引发日本全网哗然。
实锤证据:配置文件都忘了改
技术社区网友的直接证据来自乐天上传至 Hugging Face 平台的模型文件,细节令人咋舌:
- 架构名称未改:核心配置文件
config.json中,“architectures”字段明明白白写着 “DeepseekV3ForCausalLM”,“model_type”字段也直接标注为 “deepseek_v3”。 - 参数完全一致:模型总参数量 671B、激活参数量 37B,这些核心指标与 DeepSeek V3 原版分毫不差。
- 结论:这并非基于原版的深度改进或创新,而是纯粹的“换皮”微调,甚至连最基础的元数据都未做清洗。
争议焦点:违背开源精神,误导公众
尽管从法律层面看,DeepSeek V3 采用允许商用的 Apache 2.0 许可证,乐天的行为并未违规,但其操作手法严重违背了开源社区的道德准则:
- 虚假宣传:乐天在发布会及宣传材料中全程模糊处理,仅轻飘飘提及“充分利用开源社区最优成果”,只字未提 DeepSeek,极力塑造“日本自主研发”的人设,被指恶意误导公众和政府。
- 删除许可证:更恶劣的是,网友发现乐天最初上传的文件包中,竟然直接删除了 DeepSeek 的原始许可证文件。直到被全网曝光后,才慌慌张张以“NOTICE”文件名重新补传。这一举动被视为对开源精神的公然践踏。
舆论反响:拿着补贴搞“换皮”,吃相难看
事件曝光后,日本网友怒火中烧,吐槽声一片:
- “拿着日本政府的巨额补贴,结果就搞了个中国模型的低级微调版,太敷衍了!”
- “用开源模型不丢人,丢人的是偷偷摸摸藏着掖着,还要立‘自研’牌坊,真的很逊!”
- “连配置文件里的名字都懒得改,这是把用户当傻子吗?”
行业背景:日本AI界的“套壳”常态
此次事件并非孤例。据《日经新闻》此前报道,在日本企业开发的十大AI模型中,足足有 6个 都是基于中国的 DeepSeek 或阿里巴巴的 Qwen(通义千问) 进行的二次开发。乐天此次的翻车,不仅暴露了其在技术诚信上的缺失,也折射出日本本土大模型研发在基础创新层面的乏力与焦虑。
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...















