当前位置: 首页 » 资讯 » 新科技 » 正文

想瞒着基于DeepSeek,日本最新大模型“翻车”了

IP属地 中国·北京 观察者网 时间:2026-03-18 18:19:46

日本最新AI大模型来了!

然后,翻车了……

3月17日,乐天集团官宣了“乐天(Rakuten)AI 3.0”。

据官方介绍,它是日本目前最大的人工智能模型,特点是日语能力显著提升。在多项与日本特有文化知识和历史、研究生水平推理、数学竞赛、指令遵循能力相关的日语基准测试中,它始终表现出比GPT-4o和其他模型更高的性能。

但日本网民还没来得及高兴,就发现不对劲。

在AI开源库Hugging Face上,Rakuten AI 3.0在自己的配置文件里面明确写着,底层架构是DeepSeek V3模型。


对程序员是瞒不了的,对于不会看参数的民众嘛,就可以发挥下了。

在正式的宣传文稿中,乐天居然一点没提DeepSeek,仅说是“基于开源社区上最佳的模型”,“结合乐天独家的高质量双语数据、技术实力及研究成果开发而成”。


程序员们可不惯着你,马上捅到公众平台上,还爆出更多料,远不只是宣传问题。

乐天据称删除了Deepseek的MIT许可证,隐瞒使用它的事实。“在被技术社群发现后,他们又在Notice下重新上传了。这是严重违反开源精神的行为,真可耻。”


还有网友提供了截图,证明现在补上的许可证文件确实“姗姗来迟”。


可以放大看下,最后更新比前后其他文件晚了十几个小时。


MIT许可证可以说是当前主流的开源授权中,最为宽松的,只要求保留版权声明和许可声明。

同时,乐天模型则将根据Apache 2.0许可证免费发布。

自己的许可证不忘记,倒是能把别人的许可证文件给删了?!

于是,日本网民炸锅了。

有的是对用中国模型,心里过不去那槛。

还有的又搬出安全问题的陈词滥调,或者怀疑乐天AI的回答,会不会倾向于中国立场。

下面这位网友倒没啥恶意,觉得用DeepSeek没什么,但企图隐藏就太差劲了。


还有的网友质问乐天这样的行为,花掉的税金怎么论呢?


因为,这是由日本经济产业省和新能源产业技术综合开发机构(NEDO)联合发起的“GENIAC”项目的一部分。

有没有谁期待乐天展现“躬匠精神”,鞠个躬,解释下删除文件是怎样的“失误”?

大概率看不到。

文件补上后,已经有日本网友展现出“宽容”,觉得没有违反许可证,只是使用开源模型,不理解为什么有那么多批评……

好吧,他至少认可没有安全隐患。


乐天方面,除了补上许可证,还干了件体现严谨“工匠精神”的事。

之前公布的图表显示,乐天AI在几个测试中都居于领先地位。

虽然对比的模型里,GPT-4o都下架了,GPT-OSS-Swallow-120B-RL-v0.1只有1200亿参数,好歹乐天总算是“赢麻了”。


但之前的数据居然不对……目前在18日最新更新的数据中,GPT-OSS在MMLU测试中,从63.0,提升到77.5,压过乐天的71.7。

MATH-100测试中,也一下子从70.5提升到了96.0,甩开乐天更远。

另一个模型ABEJA QwQ 32b也在MATH-100测试中,对乐天实现反超。它是日本企业ABEJA基于千问模型推出的。


数据图就成这样了,不再独领风骚。


这下,原本对于乐天寄予厚望的日本网民,恐怕就更难绷了。

不知道乐天的首席AI和数据官Ting Cai,作为一个在美国学习、工作,又转战日本的移民,面对这样的局面,在当今反移民情绪抬头的日本,会不会成为众矢之的呢?

本文系观察者网独家稿件,未经授权,不得转载。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。