3月24日,蚂蚁集团就“百灵”大模型训练成本问题作出回应,表示已针对不同芯片持续优化,降低成本并计划逐步开源。此前,蚂蚁Ling团队在Arxiv平台发布论文,推出百灵轻量版(168亿参数)和增强版(2900亿参数)两款MoE大语言模型,采用创新方法实现在低性能硬件上的高效训练。实验显示,该3000亿参数模型在国产GPU设备上的表现与使用英伟达芯片的同类模型相当,显著降低了训练成本。
原文链接
本文链接:https://kx.umi6.com/article/16035.html
转载请注明文章出处
相关推荐
.png)
换一换
卷翻AI圈!大模型创新案例研究TOP50——A2M峰会本周末北京开幕!
2025-06-12 11:31:03
聊透Agent,它是“同事”还是“工具”,创业机会和价值究竟是什么?
2025-06-13 16:14:41
大模型刷数学题竟有害?CMU评估20+模型指出训练陷阱
2025-07-08 17:52:09
450 文章
63617 浏览
24小时热文
更多

-
2025-07-21 12:18:20
-
2025-07-21 12:17:10
-
2025-07-21 11:21:54