标题:OpenAI附议Ilya预训练终结!“但Scaling Law还没死”
在Ilya提出“预训练即将终结”的观点后,“Scaling Law”成为热议话题。在最近的NeurIPS会议上,OpenAI的大神Noam Brown表示,o1代表一种新的以推理计算为特点的Scaling方法。
Noam Brown指出,自2019年以来,GPT-2到GPT-4的惊人进步源于数据和算力规模的扩大。然而,大语言模型在解决如井字棋这类简单问题上仍显不足。这引发了疑问:“Scaling Law是否依然有效?”我们需要继续投入更多资源训练更好的AI吗?
Brown强调,在过去几年中,推理成本被低估了。o1引入了新的推理计算维度,这可能比单纯增加算力更为重要。例如,在扑克游戏中,增加模型的搜索时间而非单纯增加规模,可以显著提升性能。同样,在棋类游戏中,AlphaGo Zero通过推理时间搜索实现显著进步。
此外,Brown引用了关于游戏的Scaling Laws图表,表明推理时间的计算量可以大幅提高游戏结果。这是否意味着在大语言模型(LLMs)中,推理时间的计算量也能带来类似的效果?
尽管有人质疑推理时间计算并不新鲜,但Brown的观点引起了广泛关注。他认为,推理越多,系统越不可预测,这在未来AI发展中可能是一个关键因素。
这次研讨会吸引了众多观众,甚至有人在门外排队等候。尽管最初主题是数学AI,但讨论很快转向了大模型推理Scaling Law,显示了这一领域的热度与重要性。
原文链接
本文链接:https://kx.umi6.com/article/10248.html
转载请注明文章出处
相关推荐
换一换
NeurIPS 2024最佳论文揭晓!北大字节获最佳论文,清华厦大为亚军
2024-12-04 15:37:50
GPT-5被曝不及预期,OpenAI员工:没什么科学突破了,只需要工程
2024-11-11 16:48:08
2024,“大模型六小虎”逐梦AI圈
2025-01-03 10:36:22
对话Kimi付强:别把模型当宠物圈养,追逐AGI就要让模型与人类共同演化
2025-10-04 10:57:38
Scaling Law触礁「数据墙」?Epoch AI发文预测LLM到2028年耗尽所有文本数据
2024-06-15 13:49:34
OpenAI大溃败!GPT-5「换皮」GPT-4o,两年半预训练0突破
2025-12-02 01:39:51
怎么理解Ilya说的“AI放缓了”
2024-11-13 21:51:03
ICLR 2025:顶尖科学家最关心的 AI 趋势有哪些?丨GAIR Live
2025-04-28 11:48:41
Scaling Law只适用于AI大模型,不适用于风投?
2024-07-08 14:04:49
首个被人类骗钱的 AI 诞生:近 5 万美元不翼而飞,马斯克转发
2024-11-30 14:15:48
现在的大模型现状,就是豪赌
2025-01-24 08:35:12
Claude三巨头回应一切!Opus3.5仍可能发布,5小时视频10万人围观
2024-11-12 17:08:51
技术进展放缓,是普通人AI革命的开始
2024-12-25 13:03:33
658 文章
488039 浏览
24小时热文
更多
-
2026-03-10 10:03:26 -
2026-03-10 10:02:35 -
2026-03-10 09:02:22