当日本ai被扒掉马甲后,还能剩下多少自信?

日本科技圈最近发生了一件轰动一时的事件,“日本最强AI”竟然被发现是使用了中国的开源AI代码进行微调的。这个消息让日本网友们集体炸锅了。3月18日,日本乐天集团高调发布了他们自称是“日本最大、性能最强”的AI大模型——Rakuten AI 3.0。这个大模型拥有7000亿个参数,听起来挺吓人的,原本想让大家感到自豪。不过,没过两天,开源社区的程序员们就发现,这个AI大模型其实是基于中国的DeepSeek-V3模型微调出来的。只是给日文数据做了一些优化。他们把DeepSeek-V3的架构放在配置文件里,但在官方通稿里却只模糊地说是融合了开源社区的精华。乐天还把MIT协议偷偷删掉了,后来被发现了才又补上了NOTICE文件。Hugging Face上还能看到详细的模型信息。 乐天CEO Cai Ting其实有移民背景,之前在谷歌和微软工作过,对开源技术非常熟悉。这次发布的AI大模型参数虽然接近7000亿个,官方宣称测试全线领先,不过他们对比的对象只有小一点的模型或者已经下线的GPT 4o,成绩就显得有些可疑了。日本经济产业省专门有一个叫GENIAC的计划,目标是扶持本土AI研发,减少对海外技术的依赖。但这次乐天的操作让人看清了现实:他们还是得靠中国的开源代码来支撑。 开源社区一直有个规矩:用了别人的东西就得说一声。可这次乐天偷奸耍滑让网友们很不爽。其实日本本土顶尖AI模型前十大里面有6个都是基于中国开源模型微调出来的。像ABEJA QwQ 32b模型就是基于中国Qwen微调出来的。日本想搞自研AI还是离不开中国团队写的代码。美国版和欧洲版DeepSeek都还没有踪影呢。 大家怎么看待这种“贴牌微调”的套路呢?当日本AI被扒掉马甲后,还能剩下多少自信?