驱动之家 10小时前
被指抄袭阿里通义千问 华为盘古回应
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

快科技 7 月 6 日消息,日前,一项发布于 GitHub 的研究引发业界关注。

该研究作者认为,华为推出的盘古大模型(Pangu Pro MoE)与阿里巴巴发布的通义千问 Qwen-2.5 14B 模型在注意力参数分布上有相关性,超正常范围。

针对网上有声音质疑华为盘古大模型存在抄袭行为,华为盘古团队发布《关于盘古大模型开源代码相关讨论的声明》进行回应。

官方表示,盘古 Pro MoE 开源模型是基于昇腾硬件平台开发、训练的基础大模型,并非基于其他厂商模型增量训练而来。

在架构设计、技术特性等方面做了关键创新,是全球首个面向昇腾硬件平台设计的同规格混合专家模型,创新性地提出了分组混合专家模型(MoGE)架构,有效解决了大规模分布式训练的负载均衡难题,提升训练效率。

声明指出,盘古 Pro MoE 开源模型部分基础组件的代码实现参考了业界开源实践,涉及其他开源大模型的部分开源代码。

我们严格遵循开源许可证的要求,在开源代码文件中清晰标注开源代码的版权声明。

这不仅是开源社区的通行做法,也符合业界倡导的开源协作精神。

我们始终坚持开放创新,尊重第三方知识产权,同时提倡包容、公平、开放、团结和可持续的开源理念。

据了解,6 月 30 日,华为正式开源盘古 70 亿参数的稠密模型、盘古 Pro MoE 720 亿参数的混合专家模型,同时开放基于昇腾 AI 平台的模型推理技术。

此次是华为首次将盘古大模型的核心能力开源。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

华为 开源 抄袭 通义千问 阿里巴巴
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论