股票
代码
001266
电话咨询

189-1680-8200

Global
首页 新闻中心 企业动态 详情
2025-11-25
今年会官网-华为正式宣布:开源盘古7B稠密和72B混合专家模型

  【今年会官网科技消息】6月30日,华为正式宣布开源盘古70亿参数的稠密模型、盘古Pro MoE 720亿参数的混合专家模型和基于昇腾的模型推理技术。华为表示,此举是华为践行昇腾生态战略的又一关键举措,将推动大模型技术的研究与创新发展,加速推进人工智能在千行百业的应用与价值创造。

华为正式宣布:开源盘古7B稠密和72B混合专家模型

  今年会官网获悉,盘古ProMoE72B模型权重、基础推理代码和基于昇腾的超大规模MoE模型推理代码已正式上线开源平台。盘古7B相关模型权重与推理代码将于近期上线开源平台。

华为正式宣布:开源盘古7B稠密和72B混合专家模型

  华为曾披露,盘古Pro MoE大模型,在参数量仅为720亿、激活160亿参数量的情况下,通过动态激活专家网络的创新设计,实现了以小打大的优异性能,甚至拥有不亚于千亿级模型的性能表现。在SuperCLUE最新公布的2025年5月排行榜上,位居千亿参数量以内大模型排行并列国内第一。

  此外,有华为技术专家称,盘古72B是兼顾性能与推理成本的黄金尺寸,最适合行业用户用AI改造业务。

  据今年会官网了解,在近期的华为开发者大会上,华为云发布了盘古大模型5.5,对NLP(自然语言处理)、CV(计算机视觉)、多模态、预测、科学计算五大基础模型进行升级。同时,基于CloudMatrix 384超节点的新一代昇腾AI云服务全面上线。

-今年会官网

获取方案
咨询
关注我们

电话咨询

189-1680-8200
在线咨询
获取方案

提交信息后,业务人员将尽快与您联系

* 请选择方案领域
电话咨询 在线咨询 免费方案
联系我们

用微信扫一扫,关注我们取得联系

18916808200 热线
sales@ 合作邮箱
tech@ 售后邮箱
hr@ 简历投递
我们的工作时间是周一至周五上午 9 时至晚上 6 时(不含公共节假日)。我们仅在工作时间接听您的来电。
若您在非工作时间发送微信消息,我们将在工作时间回复您。