1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

2024年6月3日,昆仑万维宣布开源全球最大稀疏大模型Skywork-MoE,基于13B模型扩展,全球首例4090单卡推理的开源千亿级MoE。该模型是天工3.0系列的中档模型,146B参数,22B激活,支持8x4090服务器推理。Skywork-MoE在20B激活下性能接近70B密集模型,成本降低3倍。创新包括Gating Logits归一化和自适应Aux Loss,提高模型性能和泛化。开源地址及模型、技术报告、代码全量提供,旨在推动MoE训练和推理效率的研究。

原文链接
本文链接:https://kx.umi6.com/article/923.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
大模型的中场战事:CoE or MoE ?
2024-08-03 11:48:38
腾讯推出 Hunyuan-Large 大模型:389B 总参数,业界已开源基于 Transformer 的最大 MoE 模型
2024-11-05 17:04:28
每2秒吃透一道高数大题!华为终于揭秘准万亿MoE昇腾训练系统全流程
2025-05-30 16:54:34
对话蜜度CTO刘益东:价格战、MoE......中国AI大模型下一步“卷”什么?
2024-07-05 20:47:52
推理成本比MoE直降83%!字节最新大模型架构入围ICLR 2025
2025-02-12 12:26:20
一个「always」站在大模型技术C位的传奇男子
2025-05-10 12:04:35
昆仑万维开源2千亿稀疏大模型天工MoE,全球首创用4090推理
2024-06-06 18:12:00
MoE 高效训练的 A/B 面:与魔鬼做交易,用「显存」换「性能」
2024-06-07 18:18:13
榨干每一块GPU,DeepSeek开源第二天,送上降本增效神器
2025-02-25 16:02:59
DeepSeek开源第二弹,为MoE和EP量身定制的通信库!暂和英伟达显卡绑定
2025-02-25 11:49:28
已节省数百万GPU小时!字节再砍MoE训练成本,核心代码全开源
2025-03-11 16:36:46
训练MoE足足提速70%!华为只用了3招
2025-06-03 15:58:16
豆包提出全新稀疏模型架构 UltraMem,推理成本较 MoE 最高可降 83%
2025-02-12 13:32:45
24小时热文
更多
扫一扫体验小程序