综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
2026年初,AI领域掀起Scaling Law论战,焦点在于是否继续扩展模型规模。AI教父Geoffrey Hinton在接受采访中表示,Scaling Law依然有效,但面临数据缺失等挑战,未来可通过AI生成数据突破瓶颈。而他的学生、OpenAI前首席科学家Ilya Sutskever则认为,单纯扩大规模已‘不划算’,预训练时代即将终结,应转向研究范式重构。谷歌DeepMind CEO哈萨比斯支持规模化,强调系统化扩展与AI自主进化的重要性。Yann LeCun也对Scaling Law持怀疑态度,认为仅靠数据和算力无法实现AGI。尽管观点对立,但核心争议或在于‘我们到底在Scaling什么’。
原文链接
MiniMax海螺视频团队首次开源:Tokenizer也具备明确的Scaling Law
MiniMax海螺视频团队近日开源了一项重要成果,解决了困扰行业已久的难题:为什么增加视觉分词器(Tokenizer)的算力投入,却无法显著提升生成模型的效果?
当前主流的图像/视频生成模型采用“两阶段”框架:...
原文链接
清华孙茂松:对工业界而言,大厂可以Scaling,其他玩家重在垂直应用 | MEET2026
编辑部 整理自 MEET2026
量子位 | 公众号 QbitAI
涌现是AI领域的「境界」,自Scaling Law带来能力飞跃后,模型厂商陷入无止境的竞争。清华大学孙茂松教授在MEET2026智...
原文链接
正文:2025年8月,国外学者P.V. Coveney和S. Succi发表研究警告称,大语言模型(LLM)依赖的Scaling Law在提升预测不确定性方面存在严重缺陷,可能导致‘退化式AI’风险。他们指出,LLM通过暴力数据扩展追求性能提升可能积累错误与不准确性,根本原因在于非高斯波动引发的信息灾难。研究强调,当前极低的扩展指数表明行业已进入收益递减阶段,继续盲目扩张算力将加剧问题。为避免退化式AI,研究团队呼吁回归科学方法,利用物理规律和问题导向的小规模网络替代粗暴扩展路径。
原文链接
7月28日,华泰证券发布研报称,随着海外互联网大厂Token放量加速,市场对AI推理算力需求的预期逐步消化,但全球算力需求仍存在较大预期差。伴随大型算力集群落地、模型新架构探索以及Scaling Law的推进,未来训练端算力需求增长空间可观。华泰证券长期看好AI算力需求的持续增长,认为行业前景广阔。
原文链接
CVPR 2025期间,小鹏汽车在自动驾驶分论坛发表主题演讲,首次验证了Scaling Law在自动驾驶领域的有效性。小鹏展示了基于云端超大规模多模态模型(VLA)的自动驾驶基座模型,参数量高达720亿,部署在云端并通过知识蒸馏部署到车端。该模型通过强化学习提升安全、效率和合规性,在极端复杂场景中表现丝滑,如绕行大车、应对狭窄道路等。小鹏的VLM(视觉语言模型)和VLA-OL模型不仅提升了智能辅助驾驶能力,还实现了车端的持续在线学习,为下一代自动驾驶设定了新标准。小鹏的新方案与传统L2和L4路线不同,强调云端大模型与车端小模型协同,有望推动自动驾驶技术的突破性进展。
原文链接
标题:千寻智能解浚源:具身智能的Scaling Law已跨过起跑线丨具身先锋十人谈
正文:
作者 | 赖文昕
编辑 | 陈彩娴
不久前,北京亦庄举办的“人形机器人半程马拉松”为具身智能行业再添热度。20支参赛队伍中,仅6支完赛,完赛率30%,质疑声随之而来:具身智能是不是泡沫?
对此,千寻智...
原文链接
标题:ICLR 2025:顶尖科学家热议AI趋势
自GPT-4发布以来,大语言模型的研究热度不减,技术进步不断涌现。Anthropic于2024年11月发布的MCP成为AI生态的重要桥梁,而GPT-4o和GPT-4.1的相继推出,则将上下文处理能力提升了八倍。在国内,DeepSeek凭借FP8混...
原文链接
标题:推荐场景Scaling Law来了!中科大&华为诺亚方舟联合推出
当Scaling Law应用于推荐场景,模型又将如何表现?中科大认知智能全国重点实验室陈恩红团队联合华为诺亚方舟实验室推出了“推荐模型性能定律”,首次对模型性能与模型、数据的规模和质量进行了定量分析。
论文首次尝试对...
原文链接
苹果发现模型蒸馏Scaling Law!教师模型并非越强越好
克雷西 发自 凹非寺 | 量子位 | 公众号 QbitAI
苹果最新研究揭示了大模型蒸馏的Scaling Law,即学生模型和教师模型能力间的幂律关系。研究发现,教师模型并非越强越好,过强的教师模型可能导致学生模型性能恶化。
研究显示,学...
原文链接
加载更多
暂无内容