近日,蚂蚁集团Ling团队发布技术成果论文,推出两款MoE大语言模型:百灵轻量版(168亿参数)和百灵增强版(2900亿参数),性能达行业领先水平。论文最大亮点是提出创新方法,在国产GPU设备上高效训练3000亿参数MoE模型,其性能与使用英伟达芯片的同规模稠密或MoE模型相当。此研究展示了在资源受限环境下的AI开发新路径,具有重要技术突破。
原文链接
本文链接:https://kx.umi6.com/article/16019.html
转载请注明文章出处
相关推荐
.png)
换一换
AI“规模暴力”真的失效了吗?
2024-11-19 13:45:24
成功率达 53%,研究显示 GPT-4 可自主利用“零日”漏洞攻破网站
2024-06-09 14:05:27
国内第一波弃用 DeepSeek 的公司:潞晨科技官宣暂停相关 API 访问
2025-03-04 10:03:01
464 文章
82327 浏览
24小时热文
更多

-
2025-07-19 10:50:54
-
2025-07-19 09:50:33
-
2025-07-19 07:49:30