2024年6月3日,昆仑万维宣布开源全球最大稀疏大模型Skywork-MoE,基于13B模型扩展,全球首例4090单卡推理的开源千亿级MoE。该模型是天工3.0系列的中档模型,146B参数,22B激活,支持8x4090服务器推理。Skywork-MoE在20B激活下性能接近70B密集模型,成本降低3倍。创新包括Gating Logits归一化和自适应Aux Loss,提高模型性能和泛化。开源地址及模型、技术报告、代码全量提供,旨在推动MoE训练和推理效率的研究。
原文链接
本文链接:https://kx.umi6.com/article/923.html
转载请注明文章出处
相关推荐
.png)
换一换
DeepSeek开源第二弹,为MoE和EP量身定制的通信库!暂和英伟达显卡绑定
2025-02-25 11:49:28
大模型的中场战事:CoE or MoE ?
2024-08-03 11:48:38
一个「always」站在大模型技术C位的传奇男子
2025-05-10 12:04:35
459 文章
84966 浏览
24小时热文
更多

-
2025-07-21 18:22:40
-
2025-07-21 18:21:33
-
2025-07-21 18:20:19