MoE模型推理,几段代码就能稳稳搞定 | 开源
混合专家网络(MoE)已成为当前大模型主流架构之一。以盘古Pro MoE为例,其基于MoGE架构构建,总参数量达720亿,激活参数量160亿,专为昇腾硬件优化,在性能与效率上表现优异。
华为最新开源项目Omni-Infer,实现了对超大规模MoE模型推理的高效支持。它不仅在昇腾800I A2上单卡推理吞吐可达1148 tokens/s,经投机加速技术后更提升至1528 tokens/s,显著优于同规模稠密模型。
该项目包含两大核心:推理框架和加速套件。前者兼容vLLM等主流框架,独立安装,降低维护成本;后者具备智能调度、负载均衡、资源动态分配等功能,大幅提升推理效率,并特别适配MoE模型特性。
使用环境方面,目前仅支持CloudMatrix384推理卡及Linux系统(Python 3.9–3.11),通过Docker镜像安装即可快速部署。少量代码即可完成PD分离自动化部署,实现高性能推理。
此外,Omni-Infer采用开放社区治理机制,设立项目管理委员会和兴趣小组,推动多方共建共赢。目前已接入多个国内AI开源项目,并积极参与国际开源生态建设。
相关链接:
- 技术报告与代码分析:ascend-inference-cluster
- 源码协作地址:omniinfer
- GitHub开源地址:omni-infer
- 社区治理信息:community
原文链接
本文链接:https://kx.umi6.com/article/21094.html
转载请注明文章出处
相关推荐
.png)
换一换
荣耀手机 YOYO 助理灰度更新“深度思考”功能
2025-02-18 22:32:10
中信证券:中报季还是以结构性机会为主 预计AI和军工是三季度寻找结构性机会的重心
2025-06-29 16:33:18
0元复刻!国内首款开源验证人形机器人发布,傅利叶年初已完成8亿元融资
2025-04-11 18:00:18
443 文章
76924 浏览
24小时热文
更多

-
2025-07-18 23:46:25
-
2025-07-18 22:47:06
-
2025-07-18 22:46:21