华为宣布开源盘古7B稠密和72B混合专家模型

6月30日,华为正式宣布开源盘古70亿参数的稠密模型、盘古Pro MoE 720亿参数的混合专家模型和基于昇腾的模型推理技术。 根据华为官网显示,盘古Pro MoE 72B模型权重、基础推理代码以及基于昇腾的超大规模MoE模型推理代码正式上线开源平台。而盘古7B相关模型权重与推理代码将于近期上线开源平台。

举报 第一财经广告合作,请点击这里此内容为第一财经原创,著作权归第一财经所有。未经第一财经书面授权,不得以任何方式加以使用,包括转载、摘编、复制或建立镜像。第一财经保留追究侵权者法律责任的权利。如需获得授权请联系第一财经版权部:banquan@yicai.com 文章作者

一财科技

相关阅读 盘古团队最新声明:严格遵循开源要求

华为诺亚方舟实验室在官方平台发布最新声明,表示盘古Pro MoE开源模型是基于昇腾硬件平台开发、训练的基础大模型,并非基于其他厂商模型增量训练而来。

63 07-05 17:14 大模型如何发展这条路,任正非李彦宏都想“开”了

集体开源行动背后,既是对AI进入应用为王时代的回应,也有各家加速抢占市场高地、应对国际竞争的战略布局。

11 792 06-30 18:34 百度正式开源文心大模型4.5系列模型

涵盖47B、3B激活参数的混合专家(MoE)模型,与0.3B参数的稠密型模型等10款模型。

103 06-30 10:32 AI进化速递丨腾讯混元首款开源混合推理MoE模型发布

腾讯混元首款开源混合推理MoE模型 「Hunyuan-A13B」发布。

95 06-27 20:38 DeepSeek小版本大升级,新R1模型代码能力媲美OpenAI o3

又一次“开源的巨大胜利”。

6 301 05-29 10:55 一财最热 点击关闭