清华李知远教授团队提出了新的大模型密度定律(Densing Law),强调模型性能随时间而非单纯参数规模增长。密度定律表明,大模型的能力密度约每100天翻一番,这为大模型的发展提供了新视角。例如,2024年2月1日发布的MiniCPM-1-2.4B模型,其性能与2023年9月27日发布的Mistral-7B相当,只需较小的参数量即可达到相近效果。研究还发现,推理成本随时间呈指数级下降,从2023年1月到目前,GPT-3.5级别的模型推理成本已降低266.7倍。此外,团队指出,模型小型化显示了端侧智能的巨大潜力,同时强调了模型压缩的有效性。密度定律提醒AI领域,不应盲目追求参数规模,而应注重模型性能与效率的平衡。
原文链接
本文链接:https://kx.umi6.com/article/10053.html
转载请注明文章出处
相关推荐
.png)
换一换
字节迭代多模态大模型 媲美谷歌新品 智能体能力更强、推理成本更低
2025-05-13 15:57:01
DeepSeek 突围奥秘曝光:一招 MLA 让全世界抄作业,150 + 天才集结,开出千万年薪
2025-02-01 15:24:17
OpenAI到底亏了多少钱?
2024-08-05 15:55:09
415 文章
58991 浏览
24小时热文
更多

-
2025-07-19 22:57:32
-
2025-07-19 21:58:20
-
2025-07-19 21:57:13