3月10日,字节跳动豆包大模型团队宣布开源一项针对MoE架构的优化技术COMET,该技术可将大模型训练效率提升1.7倍,成本节省40%。COMET已应用于字节的万卡集群训练,累计节省数百万GPU小时。此前,豆包团队发布的UltraMem稀疏架构已大幅降低模型推理成本。目前,COMET的核心代码已开源,并计划兼容Triton等编译生态。
原文链接
本文链接:https://kx.umi6.com/article/15178.html
转载请注明文章出处
相关推荐
换一换
AI助手Cici悄然霸榜海外,又是字节
2025-10-20 13:05:07
拿下38项第一!字节发布Seed1.5-VL多模态推理模型
2025-05-14 15:15:44
字节和百度竞争升级
2025-05-31 11:02:44
字节跳动开源 Deep Research 项目 DeerFlow:可生成图文报告、语音播客
2025-05-10 21:11:54
字节跳动开源其 AI IDE 工具核心组件 Trae-Agent
2025-07-07 08:24:33
字节跳动推出视频生成模型OmniHuman-1.5
2025-08-28 21:29:35
字节跳动申请注册“即梦灵感助手”商标
2025-07-04 15:53:09
字节跳动Seed团队与比亚迪锂电池将共建AI+高通量联合实验室
2025-06-18 12:37:11
字节视觉大模型负责人杨建朝今日内部官宣休息,周畅接任
2025-07-17 17:28:24
字节跳动豆包新版深度思考开启测试
2025-03-28 10:40:39
字节快手,AI视频「狭路又相逢」
2025-04-16 15:05:21
字节跳动最新思考模型 Seed-Thinking-v1.5 技术细节公开,4 月 17 日开放接口
2025-04-14 13:31:32
传字节跳动AI眼镜有新动作! 已和供应商“搭上线”
2025-04-13 15:45:24
550 文章
330404 浏览
24小时热文
更多
-
2025-12-08 21:51:18 -
2025-12-08 21:49:12 -
2025-12-08 21:48:42