2月25日,DeepSeek在开源活动中发布了首个用于MoE模型训练和推理的EP通信库——DeepEP。该库具备高效全到全通信、支持NVLink和RDMA技术、高吞吐量内核、低延迟内核及FP8数据格式支持等特点。DeepEP专为MoE和EP设计,提供高吞吐量和低延迟的all-to-all GPU内核,支持低精度计算,并兼容组限制门控算法。它还采用了通信与计算重叠方法,优化推理解码速度。要求包括Hopper GPUs、Python 3.8+、CUDA 12.3+及PyTorch 2.1+。详情可访问GitHub:
原文链接
本文链接:https://kx.umi6.com/article/14249.html
转载请注明文章出处
相关推荐
换一换
通义千问 Qwen 2.5-Max 超大规模 MoE 模型号称优于 Deepseek V3 等竞品,暂未开源
2025-01-29 03:58:28
腾讯发最大开源MoE模型,3890亿参数免费可商用,跑分超Llama3.1
2024-11-07 10:16:21
DeepSeek扔的第二枚开源王炸到底是什么?
2025-02-25 20:07:11
KTransformers入选计算机系统顶会、与主流框架合作,趋境&清华让「异构」成为推理新范式
2025-10-23 10:01:08
DeepSeek开源第二弹,为MoE和EP量身定制的通信库!暂和英伟达显卡绑定
2025-02-25 11:49:28
DeepSeek开源第一个用于混合专家模型训练和推理的高效专家并行通信库
2025-02-25 12:00:43
DeepSeek扔的第二枚开源王炸到底是什么?
2025-02-25 20:07:11
华为+DeepSeek,推理性能创新高!技术报告也公布出来了
2025-05-19 14:16:37
猎豹移动发布全新AI数据宝和MoE模型,傅盛:明年将是AI应用繁荣的一年
2024-11-28 14:31:52
华泰证券:DeepEP开源有望释放推理需求 关注应用与算力
2025-03-03 09:14:06
DeepSeek开源第二弹,为MoE和EP量身定制的通信库!暂和英伟达显卡绑定
2025-02-25 11:49:28
华为:让DeepSeek的“专家们”动起来,推理延迟降10%!
2025-05-20 14:38:41
DeepSeek扔的第二枚开源王炸到底是什么?
2025-02-25 20:07:11
702 文章
586244 浏览
24小时热文
更多
-
2026-04-24 19:29:38 -
2026-04-24 18:31:29 -
2026-04-24 18:30:24