solidot新版网站常见问题,请点击这里查看。
消息
本文已被查看 4744 次
华为发布了使用昇腾 NPU 训练的开放权重模型
华为发布了使用其昇腾 NPU 训练的开放权重模型,模型发布在 Gitcode 上,其许可证禁止欧盟地区使用。被称为盘古 Pro MoE 的模型总参数 720 亿,每个 token 激活 160 亿参数。模型为昇腾 300I Duo 和 800I A2 进行了优化,单卡推理性能达到了 1148 token/s,通过预测加速(speculative acceleration)能进一步提高到 1528 token/s。华为研究人员称,在参数低于 1000 亿的模型中,盘古 Pro MoE 的性能超越了 GLM-Z1-32B 和 Qwen3-32B 等知名开放权重模型。
arxiv.org/abs/2505.21411
gitcode.com/ascend-tribe/pangu-pro-moe-model
arxiv.org/abs/2505.21411
gitcode.com/ascend-tribe/pangu-pro-moe-model