清华李知远教授团队提出了新的大模型密度定律(Densing Law),强调模型性能随时间而非单纯参数规模增长。密度定律表明,大模型的能力密度约每100天翻一番,这为大模型的发展提供了新视角。例如,2024年2月1日发布的MiniCPM-1-2.4B模型,其性能与2023年9月27日发布的Mistral-7B相当,只需较小的参数量即可达到相近效果。研究还发现,推理成本随时间呈指数级下降,从2023年1月到目前,GPT-3.5级别的模型推理成本已降低266.7倍。此外,团队指出,模型小型化显示了端侧智能的巨大潜力,同时强调了模型压缩的有效性。密度定律提醒AI领域,不应盲目追求参数规模,而应注重模型性能与效率的平衡。
原文链接
本文链接:https://kx.umi6.com/article/10053.html
转载请注明文章出处
相关推荐
.png)
换一换
大模型界「摩尔定律」Densing Law 来了!盲目Scaling将过时!
2024-12-11 17:30:27
DeepSeek 突围奥秘曝光:一招 MLA 让全世界抄作业,150 + 天才集结,开出千万年薪
2025-02-01 15:24:17
对话汪华:现在的大模型,还是支撑不了大体量的免费商业模式
2024-08-15 11:30:06
直指端侧痛点 豆包向推理算力又“砍了一刀”:新模型架构最高降本83%
2025-02-12 14:35:40
字节迭代多模态大模型 媲美谷歌新品 智能体能力更强、推理成本更低
2025-05-13 15:57:01
字节豆包大模型团队提出稀疏模型架构 推理成本最高可降低83%
2025-02-12 13:34:52
李飞飞实验室2025 AI报告出炉:AI推理成本降低至1/280
2025-04-08 23:18:28
字节豆包团队推出稀疏模型架构UltraMem:推理成本可降83%
2025-02-13 20:17:10
推理成本比MoE直降83%!字节最新大模型架构入围ICLR 2025
2025-02-12 12:26:20
字节跳动最新思考模型将于4月17日供用户体验 单位推理成本相比DeepSeek R1降低50%
2025-04-14 12:33:19
狂奔一年后,面壁者决心“破壁”
2024-12-21 21:04:40
OpenAI到底亏了多少钱?
2024-08-05 15:55:09
模型推理成本下降最高99%!百川智能发布一站式大模型商业化解决方案
2024-10-31 15:55:01
472 文章
152752 浏览
24小时热文
更多

-
2025-09-06 20:38:03
-
2025-09-06 19:37:51
-
2025-09-06 16:37:17