1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

3月10日,字节跳动豆包大模型团队宣布开源一项针对MoE架构的优化技术COMET,该技术可将大模型训练效率提升1.7倍,成本节省40%。COMET已应用于字节的万卡集群训练,累计节省数百万GPU小时。此前,豆包团队发布的UltraMem稀疏架构已大幅降低模型推理成本。目前,COMET的核心代码已开源,并计划兼容Triton等编译生态。

原文链接
本文链接:https://kx.umi6.com/article/15178.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
央视主持王冰冰穿蓝色长裙惊呼:AI 算法治好了我的选择困难症!
2025-04-08 17:05:17
上海交大今年将扩招150名本科生 扩大人工智能等学科领域招生规模
2025-03-05 20:20:46
郭明錤:英伟达NVL72单一机柜版本短期无法量产 NVL36面临前所未见的设计生产挑战
2024-08-02 09:51:35
24小时热文
更多
扫一扫体验小程序