1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

标题:字节开源COMET,大幅降低MoE训练成本

正文: 字节开源了名为COMET的MoE优化技术,已应用于其万卡训练集群,累计节省数百万GPU小时。COMET可将MoE模型训练成本降低40%。

COMET针对MoE模型在分布式训练中的通信开销问题,通过细粒度计算-通信折叠技术和动态资源分配,提升了训练效率。在大规模MoE模型的单个执行层上,COMET可提速1.96倍,端到端平均提速1.71倍。

COMET通过共享张量依赖解析和自适应负载分配,解决了计算与通信的粒度不匹配问题。它还支持业界主流大模型,无需复杂改动即可部署。COMET在多个大规模MoE模型中表现出色,端到端性能提升31.8%-44.4%。

目前,COMET核心代码已开源,包括约1.2万行C++和CUDA代码,以及2千行Python代码,并提供Python API。

原文链接
本文链接:https://kx.umi6.com/article/15231.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
“全球首创”单台 RTX 4090 服务器推理,昆仑万维开源 2 千亿稀疏大模型天工 MoE
2024-06-03 18:55:11
豆包提出全新稀疏模型架构 UltraMem,推理成本较 MoE 最高可降 83%
2025-02-12 13:32:45
字节跳动豆包大模型团队开源MoE架构优化技术,训练成本节省40%
2025-03-10 18:50:46
每2秒吃透一道高数大题!华为终于揭秘准万亿MoE昇腾训练系统全流程
2025-05-30 16:54:34
对话蜜度CTO刘益东:价格战、MoE......中国AI大模型下一步“卷”什么?
2024-07-05 20:47:52
昆仑万维开源2千亿稀疏大模型天工MoE,全球首创用4090推理
2024-06-06 18:12:00
竞购Chrome的Perplexity,为什么要做AI浏览器?
2025-08-16 09:23:59
DeepSeek开源第二弹,为MoE和EP量身定制的通信库!暂和英伟达显卡绑定
2025-02-25 11:49:28
AI如何改变通信?对话联想懂的通信
2024-06-29 15:42:54
榨干每一块GPU,DeepSeek开源第二天,送上降本增效神器
2025-02-25 16:02:59
一个「always」站在大模型技术C位的传奇男子
2025-05-10 12:04:35
一个200美元的AI 浏览器,想重新教会我“上网”
2025-07-14 18:28:56
推理成本比MoE直降83%!字节最新大模型架构入围ICLR 2025
2025-02-12 12:26:20
24小时热文
更多
扫一扫体验小程序