1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

华为近日开源了超大规模MoE推理项目Omni-Infer,为解决大模型推理的高效与稳定问题提供了标准答案。该项目面向企业用户,提供PD分离部署方案、QPM系统级优化及商用硬件使用方法论,同时推动开发者社区发展。北京智源研究院、上海人工智能实验室和OpenI启智社区均表示支持,并期待生态合作。Omni-Infer由推理框架和加速套件组成,兼容主流框架如vLLM,具备智能调度、负载均衡、MoE优化等特性,提升推理效率。目前仅支持CloudMatrix384推理卡和Linux环境,通过Docker镜像安装,开箱即用。Omni-Infer还建立了专业开源社区,开放治理、会议、活动等信息,采用两级管理机制,主动适配国内开源项目,推动多方共赢。相关资源链接已公布,包括技术报告、代码仓库及社区页面。

原文链接
本文链接:https://kx.umi6.com/article/21012.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
融资6亿美元,诺贝尔奖团队开发AI制药大模型
2025-07-03 10:08:27
工信部:加快实施“人工智能+”行动 推动大模型在制造业重点行业落地部署
2025-07-18 16:44:49
2024 EDGE AWARDS「年度十大科技人物」重磅揭晓
2024-12-11 12:22:28
24小时热文
更多
扫一扫体验小程序