首次打榜就登顶,华为盘古如何以小胜大?

首次打榜就登顶,华为盘古如何以小胜大?

三分之一个世纪前,加拿大学者们提出了经典的MoE模型神经网络结构,在人类探索AI的「石器时代」中,为后世留下了变革的火种。

近十年前,美国硅谷的互联网巨擎在理论和工程等方面,突破了MoE模型的原始架构,让这个原本被置于学术高阁的理念,化身成为了随后AI竞争的导火索。

如今,后发优势再一次来到了大洋此岸,以华为为代表的中国科技企业,纷纷提出对MoE架构的优化重组方案。尤其是华为的MoGE架构,不仅克服了MoE负载不均衡及效率瓶颈的弊病,还能够降本增效,便于训练和部署。

AI之战远未终结,但正如在其他领域中「多快好省」的中国产业底色一样,大模型这棵生于西方长于彼岸的科技树,也同样会被东方智慧经手后,进化为更加普适和亲切的工具。

近期,联合网将打造《华为技术披露集》系列内容,通过一连串的技术报告,首次全面披露相关的技术细节。

希望本系列内容能为业界起到参考价值,也希望更多人能与华为一起,共同打造长期持续的开放协作生态环境,让昇腾生态在中国茁壮成长。

《华为技术披露集》系列 VOL.6 :MoGE架构

近日,华为盘古团队提出了分组混合专家模型(Mixture of Grouped Experts, MoGE)。

基于 MoGE 架构构建的盘古 Pro MoE 大模型(72B 总参数、16B 激活参数)在昇腾 300I Duo 和 800I A2 可实现更优的专家负载分布与计算效率(321 tokens/s 和 1528 tokens/s)。

在模型能力方面,盘古 Pro MoE 在最新一期业界权威大模型榜单 SuperCLUE 上交出了超能打的成绩,实现了综合能力的领先。

具体来说,和其他动辄千亿以上的大模型(如 DeepSeek-R1 具有 671B 参数)相比,盘古 Pro MoE 以 72B 总参数量达到了 59 分,千亿参数量以内大模型排行并列国内第一。并且,16B 激活参数量可以媲美其他厂商更大规模的模型。

首次打榜就登顶,华为盘古如何以小胜大?

中文技术报告:https://gitcode.com/ascend-tribe/pangu-pro-moe/tree/main

英文技术报告:https://arxiv.org/pdf/2505.21411

首次打榜就登顶,华为盘古如何以小胜大?

图源:https://www.superclueai.com/

他们是怎么做到的?

序言

混合专家模型已成为大型语言模型领域的革新范式 —— 近年来,模型与数据集规模呈指数级增长,而 MoE 通过稀疏激活机制(仅针对每个 token 激活部分专家子集),在维持高表达能力的同时降低计算开销,使其在大规模应用中极具吸引力。

然而,传统 MoE 架构面临的核心挑战是专家负载不均衡:当部分专家因过度专业化或 token 分配过载时,其他专家则处于低效利用状态。由于专家通常分布于多设备并行执行,MoE 模块的整体时延往往由承载最多 token 的设备决定,这种不均衡会严重损害计算效率与系统吞吐量。

针对这一行业难题,华为盘古团队(以下简称团队)推出全新盘古 Pro MoE 大模型。

该模型创新性提出分组均衡路由技术,通过硬约束的负载均衡策略,确保每个 token 在预定义的专家分组内激活等量专家,这样就天然的确保了跨设备的专家负载均衡;结合仿真优化算法,从层数、宽度、专家数等多维度优化资源分配,构建出昇腾亲和的盘古 Pro MoE 架构。同时,深度融合昇腾 300I Duo/800I A2 硬件加速架构的并行计算特性与算子级编译优化技术,实现从算法设计到系统落地的全栈创新。

实验表明,盘古 Pro MoE 在同等算力条件下推理延迟更低,和业界同规模大模型相比,通用和复杂推理综合精度领先,为超大规模模型的工业化部署提供新范式。

接下来,将系统性解析盘古 Pro MoE 的核心技术原理与工程实现路径。

昇腾原生的 MoGE 新架构

从「无序激活」到「精准协同」

传统 Top-K 路由存在无序激活的缺陷,也就是说,专家激活无限制,导致某些专家并行(EP)组负载过高(如某些组激活 4 个专家,某些组专家无激活),引发计算瓶颈和端到端延迟上升。

如下图所示,子图 (a) 展示了在专家并行度 (EP)=4 时,从 24 个专家池中选取 8 个专家的激活专家分布对比;子图 (b) 则呈现了传统 MoE 和本文所提 MoGE 两种路由机制下估计的不平衡分数分布,其中分布估计的参数设定为 N=64(总专家数)、K=8(单 token 选择专家数)、M=8(组数)、∣X∣=16(输入序列长度)。

通过可视化可观察到,传统 Top-K 路由易导致专家负载倾斜。这是基于 MoE 的大模型的行业痛点,负载不均衡导致硬件资源利用率低下,推理速度无法线性扩展,尤其在分布式训练和推理场景中问题加剧。

首次打榜就登顶,华为盘古如何以小胜大?

分组均衡路由

为了解决传统 Top-K 路由无序激活的问题,团队提出分组均衡路由的设计思想:强制每个 Token 在每个专家组内激活相同数量的专家(如每组激活 1 个专家,总激活数 = 组数 × 每组激活数),确保计算负载均匀分布。实现细节如下:

· 专家均匀划分为 M 组(如 64 专家→8 组,每组 8 专家);每组内独立进行 Top-K 路由(如每组 Top-2),全局激活数 = 组数 × 每组激活数。

· 分组均衡路由的优势包括:1)吞吐友好: 组间负载差异为 0,避免跨组通信瓶颈;2)动态扩展性:Batch Size 变化时负载均衡性稳定。

均衡辅助损失

团队采用 Batch 级辅助均衡辅助损失函数,其形式定义为:

其中超参数 α 控制辅助损失的强度。此处,f_i 表示批次 B 中被路由到专家 i 的 token 占比,p_i 则代表该专家在整个批次内的平均专家权重:式中 I {⋅} 为指示函数,s_i,t 表示 token t 对专家 i 的门控得分。

架构仿真

基于分组均衡路由的 MoGE 模块,团队继续通过仿真设计出昇腾亲和的模型架构。在模型设计过程中,采用分层策略,通过从粗粒度到细粒度的渐进式调优,平衡昇腾 300I Duo 和 800I A2 平台上的精度与推理效率。

该策略包含三个阶段:首先,通过粗粒度筛选依据单服务器内存带宽和时延约束确定参数范围;其次,基于领域知识对潜在模型进行候选集缩减,缩小设计空间;最后,利用算子级仿真器评估候选模型性能。该仿真器关联系统硬件参数(如 TFLOPS、内存访问带宽、内存容量及互连拓扑),并自动搜索最优并行策略。

通过分层策略与细粒度仿真,下图中标橘黄色星的模型在指定条件下展现出对昇腾 300I Duo 和 800I A2 平台的最佳亲和性,本文即采用该组超参数配置。

首次打榜就登顶,华为盘古如何以小胜大?

推理性能

盘古 Pro MoE 在昇腾平台上实现了混合并行与通信优化等软硬协同的系统优化、量化压缩等算法优化、MulAttention 和 SwiftGMM 等高性能算子优化,在一系列模型和系统联合优化的推理加速技术加持下,显著提升了模型的推理效率。

在昇腾 300I Duo 平台的支持下,盘古 Pro MoE 单卡吞吐可达 201 tokens/s,并通过引入 MTP 解码和多 token 优化可进一步提升至 321 tokens/s,展现出百亿级大模型推理的极致性价比。

基于昇腾 800I A2 平台,在低并发场景下模型可实现毫秒级响应;在高并发条件下单卡吞吐可达 1148 tokens/s,结合 MTP 解码等联合优化可提升至 1528 tokens/s,性能大幅领先于同等规模的 320 亿和 720 亿参数稠密模型。

盘古 Pro MoE 全面赋能业务高效落地与大规模部署,助力各类应用场景实现高性能推理体验。

模型能力

根据业界公开测评,盘古 Pro MoE 基础模型在跨语言多领域基准测试中展现出色性能:英语能力涵盖通用推理、阅读理解及常识推理;逻辑推理能力覆盖代码生成和中英双语数学问题等;中文评估则包含知识问答和阅读理解等,全面验证模型在复杂认知任务上的通用性与领域适应性。

在监督微调与强化学习的双重优化下,盘古 Pro MoE 展现出卓越的复杂推理能力。

模型在多领域评测体系进行测试:通用能力涵盖英语与中文,代码能力依托 LiveCodeBench 实时编程及 MBPP+,数学推理则通过 AIME 竞赛题、MATH-500 难题及中国数学奥林匹克 (CNMO) 验证。

对比基线选取同规模前沿模型,包括开源的稠密模型 Qwen3-32B、GLM4-Z1-32B)及 MoE 模型(Llama4 Scout),盘古 Pro MoE 在复杂推理任务上展示出同规模最优的性能。

首次打榜就登顶,华为盘古如何以小胜大?

首次打榜就登顶,华为盘古如何以小胜大?

硬件效率革命

MoE 架构中的专家负载均衡与资源效率提升及模型行为稳定性增强相关。为探究此问题,本文对比分析了主流开源 MoE 模型 DeepSeek-V2 和盘古 Pro MoE 的专家负载分布。

如下图所示,DeepSeek-V2 存在显著失衡,负载最高的专家处理高达 30% 的总 token 量;呈现高度集中现象。相比之下,盘古 Pro MoE 展现出近乎均匀的分布特性,各专家处理 token 占比均约 12.5%,与理论理想值高度吻合。

这种均衡激活模式表明盘古 Pro MoE 对专家容量的高效利用,负载均衡对大规模 MoE 模型有助于实现高效可扩展性能。

首次打榜就登顶,华为盘古如何以小胜大?

让「大模型」回归实用场景

盘古 Pro MoE 的诞生,标志着大模型从「参数军备竞赛」转向「实效主义」:在企业级应用中,其动态负载均衡技术有效降低云端推理成本,支撑高并发实时场景;同时通过轻量化推理引擎适配华为昇腾系列芯片,赋能广大客户运行百亿级模型,为 AI 产业应用领域开辟新蓝海。

华为以硬核创新重新定义大模型的价值。盘古 Pro MoE 的发布,不仅是 AI 领域的一次范式革命,更将为全球企业提供「高效、普惠」的智能底座。即刻体验技术突破,携手华为共启智能新时代。

文字来源于网络。发布者:锦鲤财经,转转请注明出处:https://www.xiandaicb.cn/9928.html

(0)
锦鲤财经的头像锦鲤财经
上一篇 2025年5月29日 下午5:26
下一篇 2025年5月29日 下午5:28

相关推荐

  • 谷歌搜索“AI模式”来了,Perplexity慌不慌?

    本文来自微信公众号:直面AI,作者:小金牙,编辑:肖阳,题图来自:视觉中国 又是一年谷歌I/O开发者大会,不出所料地,主题演讲又是一场AI交响乐。去年,“AI”一词在谷歌I/O大会上被提及120次,今年依然是主角,被提及92次。 其中最受关注的,是谷歌将AI更深入地植入搜索及Chrome浏览器: 谷歌搜索将不满足于在生成结果中显示“谷歌摘要”,而是直接会在结…

    2025年5月22日
    1200
  • Manus都点赞的Claude 4,究竟好在哪儿?

    本文来自微信公众号:直面AI,作者:涯角,编辑:肖阳,题图来自:AI生成 目睹完今天 Claude 4 的发布会全程,我只看到了一句话 ——大模型正在范式转变, AI智能体时代真的来了。 AI 编程的唯一真神 Claude 3.7 Sonnet,终于被 Antrhopic 的下一代 AI 大模型——Claude Opus 4 和 Claude Sonnet …

    2025年5月24日
    1200
  • 招行居然被反超了

    12家股份制银行2024年业绩对比三家头部股份行2025年Q1业绩增速对比三家头部股份行2024年主要业务指标表现 出品 | 妙投APP 作者 | 刘国辉 图片来源 | 视觉中国 四月底,A股上市银行2024年报以及2025年一季报披露完毕。未上市的银行也大多发布了2024年业绩。对比一下12家股份制银行在2024年的财报表现,有亮眼业绩的是兴业银行和中信银…

    2025年5月14日
    2200
  • 大模型的人味儿,从何而来?

    本文来自微信公众号:AI故事计划,作者:李奕萱,编辑:温丽虹,原文标题:《我,文科生,教AI回答没有标准答案的问题》,题图来自:视觉中国 一个月前,哲学博士羽山意外加入了大厂AI研发部门,成为一名“人文训练师”。在全世界范围内,这都是个新鲜岗位。人工智能仍在高速进化,他和同伴的使命是教会它们像人类一样思考。 文科生获得了AI 岗位 羽山在复旦研究了10年哲学…

    2025年5月28日
    1400
  • 国内外巨头加码云大战,“小清新”网易也要云上升级

    一直以低调著称的网易也坐不住,要进行云上升级了。

    2017年4月18日
    5301

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

联系我们

400-800-8888

在线咨询: QQ交谈

邮件:admin@example.com

工作时间:周一至周五,9:30-18:30,节假日休息

关注微信