6月3日,昆仑万维宣布开源全球首台RTX 4090服务器支持的2千亿参数稀疏大模型——天工MoE,基于Skywork-13B扩展,采用MoE Upcycling技术,可单卡运行。模型包含146B总参数和22B激活参数,16个13B Expert,每激活2个。相比同等20B激活量的Dense模型,Skywork-MoE性能接近70B,成本降低约3倍,参数规模小于DeepSeekV2的1/3。模型权重、技术报告开源,无需申请即可商用,链接如下:模型权重、仓库、技术报告及推理代码。
原文链接
本文链接:https://kx.umi6.com/article/765.html
转载请注明文章出处
相关推荐
.png)
换一换
训练MoE足足提速70%!华为只用了3招
2025-06-03 15:58:16
“全球首创”单台 RTX 4090 服务器推理,昆仑万维开源 2 千亿稀疏大模型天工 MoE
2024-06-03 18:55:11
每2秒吃透一道高数大题!华为终于揭秘准万亿MoE昇腾训练系统全流程
2025-05-30 16:54:34
426 文章
55562 浏览
24小时热文
更多

-
2025-07-20 23:09:27
-
2025-07-20 22:09:17
-
2025-07-20 21:10:03