6月30日,华为正式开源部分盘古大模型体系。此次华为开源内容呈现技术矩阵化特征,具体包括:70亿参数的盘古稠密模型、720亿参数的盘古ProMoE混合专家模型,以及配套的昇腾模型推理技术体系,宣称这是构建昇腾生态的关键举措。
仅隔四天,GitHub研究指出盘古ProMoE与Qwen-2.5的注意力参数分布高度相似(平均相关性0.927),代码文件含版权声明,引发“非独立开发”质疑。华为回应称,部分基础组件代码参考了业界开源实践,严格遵循开源协议并标注版权,符合开源协作精神。
图为华为诺亚方舟实验室声明截图
7月5日,针对盘古ProMoE模型被质疑套壳阿里通义千问Qwen-2.5的争议,华为诺亚方舟实验室发布声明称,该模型是基于昇腾硬件平台开发、训练的基础大模型,非基于其他厂商模型增量训练,并强调其创新了全球首个面向昇腾硬件的分组混合专家(MoGE)架构,解决分布式训练负载均衡难题,提升训练效率。
开发团队称,盘古ProMoE开源模型部分基础组件的代码实现参考了业界开源实践,涉及其他开源大模型的部分开源代码。“我们严格遵循开源许可证的要求,在开源代码文件中清晰标注开源代码的版权声明。这不仅是开源社区的通行做法,也符合业界倡导的开源协作精神。我们始终坚持开放创新,尊重第三方知识产权,同时提倡包容、公平、开放、团结和可持续的开源理念。”
据媒体报道,在7月6日凌晨,一位自称是盘古大模型团队的网友自爆:确实存在套壳、续训、洗水印的现象。截至发稿前,该网友爆料的信息未得到有效证实,华为方尚未对此爆料内容发表声明。
针对此事后续进展,本网将持续关注。