2月26日,DeepSeek开源项目进展至第3/5阶段,推出支持稠密和混合专家模型(MoE)的FP8矩阵乘法(GEMM)库DeepGEMM,适用于V3/R1模型的训练和推理。DeepGEMM在Hopper GPU上可达1350+ FP8 TFLOPS性能,无复杂依赖,核心代码仅约300行。该库基于CUDA编写,采用即时编译技术(JIT),支持稠密布局和两种MoE布局。DeepGEMM设计简洁,性能与专家优化库相当,甚至更优。更多信息:
原文链接
本文链接:https://kx.umi6.com/article/14346.html
转载请注明文章出处
相关推荐
.png)
换一换
百度正式开源文心大模型 4.5 系列模型
2025-06-30 11:41:55
给Manus七分钟,它可以做什么
2025-05-19 22:24:28
年后完成第四轮融资,智谱再获北京人工智能产业投资基金 2 亿追投
2025-04-18 16:21:15
445 文章
65372 浏览
24小时热文
更多

-
2025-07-20 23:09:27
-
2025-07-20 22:09:17
-
2025-07-20 21:10:03