5月7日消息,腾讯技术团队对DeepSeek开源的DeepEP通信框架进行了深度优化,大幅提升了其性能。优化后,在RoCE网络环境下性能提升100%,IB网络环境下提升30%。DeepEP专为专家混合(MoE)和专家并行(EP)设计,具备高吞吐量和低延迟特性,并支持FP8低精度运算。腾讯星脉网络团队通过解决双端口网卡带宽利用率低及CPU控制面交互时延两大问题实现了这一突破。优化成果已全面开源,并成功应用于腾讯混元大模型的训练推理中,展现了良好的通用性。DeepSeek对此表示公开致谢。
原文链接
本文链接:https://kx.umi6.com/article/18264.html
转载请注明文章出处
相关推荐
换一换
榨干每一块GPU,DeepSeek开源第二天,送上降本增效神器
2025-02-25 16:02:59
DeepSeek 开源进度 2/5:首个用于 MoE 模型训练和推理的 EP 通信库 DeepEP
2025-02-25 11:53:00
华泰证券:DeepEP开源有望释放推理需求 关注应用与算力
2025-03-03 09:14:06
DeepSeek扔的第二枚开源王炸到底是什么?
2025-02-25 20:07:11
DeepSeek 致谢腾讯技术团队,DeepEP 开源通信框架性能显著提升
2025-05-07 20:17:50
DeepSeek开源第一个用于混合专家模型训练和推理的高效专家并行通信库
2025-02-25 12:00:43
DeepSeek开源第二弹,为MoE和EP量身定制的通信库!暂和英伟达显卡绑定
2025-02-25 11:49:28
甘肃庆阳智算规模达10万P
2025-12-08 16:38:29
Airwallex 空中云汇完成3.3 亿美元 G 轮融资,估值80 亿美元
2025-12-08 16:35:51
谷歌 Gemini 3 反击战:OpenAI GPT-5.2 被曝提前至下周发布,从新功能转向速度与稳定性提升
2025-12-06 09:19:14
神秘模型 Grok 4.20 AI 炒股夺冠:只有它赚钱,吊打 Gemini 3 和 GPT-5.1
2025-12-07 16:36:04
看完最新国产AI写的公众号文章,我慌了!
2025-12-08 21:48:04
马斯克最新宏大设想:每年发射百万吨级的卫星来扩张 AI 算力
2025-12-08 18:40:45
581 文章
340288 浏览
24小时热文
更多
-
2025-12-08 21:51:18 -
2025-12-08 21:49:12 -
2025-12-08 21:48:42