华为开源盘古大模型!包含70亿稠密模型和720亿MoE模型,加速AI行业应用,拥抱开源生态。
原文标题:刚刚!华为首个开源大模型来了
原文作者:机器之心
冷月清谈:
怜星夜思:
2、盘古Pro MoE 72B模型采用混合专家模型架构,你觉得这种架构相比于传统的稠密模型有哪些优势和劣势?在实际应用中应该如何选择?
3、华为开源盘古模型,并邀请开发者参与完善,你觉得开发者应该如何参与到盘古模型的共建中?有哪些方面可以做出贡献?
原文内容
终于!华为开源大模型来了。
刚刚,华为正式宣布开源盘古 70 亿参数的稠密模型、盘古 Pro MoE 720 亿参数的混合专家模型(参见机器之心报道: )和基于昇腾的模型推理技术。
开源链接:https://gitcode.com/ascend-tribe
在公告中,华为表示,「此举是践行华为昇腾生态战略的又一关键举措,推动大模型技术的研究与创新发展,加速推进人工智能在千行百业的应用与价值创造。」
具体而言:
1. 盘古 Pro MoE 72B 模型权重、基础推理代码,已正式上线开源平台。
2. 基于昇腾的超大规模 MoE 模型推理代码,已正式上线开源平台。
3. 盘古 7B 相关模型权重与推理代码将于近期上线开源平台。
此外,华为也正在邀请全球开发者、企业伙伴及研究人员下载使用,反馈使用意见,共同完善盘古模型。
近一两个月,华为公开了一系列基于昇腾的大模型技术。但国内 AI 社区与开发者们一直对华为盘古开源模型抱有极大期待。
今天,华为大模型正式加入了开源大军。
对华为开源的新模型,你怎么看?