1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

6月3日,昆仑万维宣布开源全球首台RTX 4090服务器支持的2千亿参数稀疏大模型——天工MoE,基于Skywork-13B扩展,采用MoE Upcycling技术,可单卡运行。模型包含146B总参数和22B激活参数,16个13B Expert,每激活2个。相比同等20B激活量的Dense模型,Skywork-MoE性能接近70B,成本降低约3倍,参数规模小于DeepSeekV2的1/3。模型权重、技术报告开源,无需申请即可商用,链接如下:模型权重、仓库、技术报告及推理代码。

原文链接
本文链接:https://kx.umi6.com/article/765.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
腾讯放大招,超Meta!史上参数最大,开源专家混合模型
2024-11-07 10:59:44
推理成本比MoE直降83%!字节最新大模型架构入围ICLR 2025
2025-02-12 12:26:20
训练MoE足足提速70%!华为只用了3招
2025-06-03 15:58:16
DeepSeek前实习生魔改MoE,用迭代机制把内存需求砍了42%,团队:“免费午餐”优化方法
2025-03-08 11:43:54
大模型的中场战事:CoE or MoE ?
2024-08-03 11:48:38
昆仑万维开源2千亿稀疏大模型天工MoE,全球首创用4090推理
2024-06-06 18:12:00
榨干每一块GPU,DeepSeek开源第二天,送上降本增效神器
2025-02-25 16:02:59
豆包提出全新稀疏模型架构 UltraMem,推理成本较 MoE 最高可降 83%
2025-02-12 13:32:45
“全球首创”单台 RTX 4090 服务器推理,昆仑万维开源 2 千亿稀疏大模型天工 MoE
2024-06-03 18:55:11
对话蜜度CTO刘益东:价格战、MoE......中国AI大模型下一步“卷”什么?
2024-07-05 20:47:52
MoE那么大,几段代码就能稳稳推理 | 开源
2025-07-02 18:09:04
DeepSeek开源第二弹,为MoE和EP量身定制的通信库!暂和英伟达显卡绑定
2025-02-25 11:49:28
每2秒吃透一道高数大题!华为终于揭秘准万亿MoE昇腾训练系统全流程
2025-05-30 16:54:34
24小时热文
更多
扫一扫体验小程序