3月10日,字节跳动豆包大模型团队宣布开源一项针对MoE架构的优化技术COMET,该技术可将大模型训练效率提升1.7倍,成本节省40%。COMET已应用于字节的万卡集群训练,累计节省数百万GPU小时。此前,豆包团队发布的UltraMem稀疏架构已大幅降低模型推理成本。目前,COMET的核心代码已开源,并计划兼容Triton等编译生态。
原文链接
本文链接:https://kx.umi6.com/article/15178.html
转载请注明文章出处
相关推荐
.png)
换一换
Kimi 16B胜GPT-4o!开源视觉推理模型:MoE架构,推理时仅激活2.8B
2025-04-10 13:47:48
字节跳动Seed团队发布扩散语言模型 每秒推理速度2146 tokens
2025-08-01 09:24:01
字节跳动申请注册“即梦灵感助手”商标
2025-07-04 15:53:09
字节视觉大模型负责人杨建朝今日内部官宣休息,周畅接任
2025-07-17 17:28:24
传字节跳动AI眼镜有新动作! 已和供应商“搭上线”
2025-04-13 15:45:24
字节大模型团队全员会:朱文佳和吴永辉首度同台
2025-03-18 21:54:39
字节跳动扣子 Coze 宣布开源:采用 Apache 2.0 许可证,支持商用
2025-07-26 15:40:54
字节跳动豆包新版深度思考开启测试,支持边想边搜
2025-03-28 10:38:32
字节跳动推出视频生成模型OmniHuman-1.5
2025-08-28 21:29:35
腾讯发布并开源混元-A13B模型:极端条件仅1张中低端GPU卡即可部署
2025-06-27 17:17:05
字节跳动开源 Deep Research 项目 DeerFlow:可生成图文报告、语音播客
2025-05-10 21:11:54
字节跳动豆包大模型团队开源MoE架构优化技术,训练成本节省40%
2025-03-10 18:50:46
字节跳动开源长文本处理模型Seed-OSS-36B
2025-08-21 14:39:00
461 文章
171835 浏览
24小时热文
更多

-
2025-09-06 20:38:03
-
2025-09-06 19:37:51
-
2025-09-06 16:37:17