1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

标题:OpenAI附议Ilya预训练终结!“但Scaling Law还没死”

在Ilya提出“预训练即将终结”的观点后,“Scaling Law”成为热议话题。在最近的NeurIPS会议上,OpenAI的大神Noam Brown表示,o1代表一种新的以推理计算为特点的Scaling方法。

Noam Brown指出,自2019年以来,GPT-2到GPT-4的惊人进步源于数据和算力规模的扩大。然而,大语言模型在解决如井字棋这类简单问题上仍显不足。这引发了疑问:“Scaling Law是否依然有效?”我们需要继续投入更多资源训练更好的AI吗?

Brown强调,在过去几年中,推理成本被低估了。o1引入了新的推理计算维度,这可能比单纯增加算力更为重要。例如,在扑克游戏中,增加模型的搜索时间而非单纯增加规模,可以显著提升性能。同样,在棋类游戏中,AlphaGo Zero通过推理时间搜索实现显著进步。

此外,Brown引用了关于游戏的Scaling Laws图表,表明推理时间的计算量可以大幅提高游戏结果。这是否意味着在大语言模型(LLMs)中,推理时间的计算量也能带来类似的效果?

尽管有人质疑推理时间计算并不新鲜,但Brown的观点引起了广泛关注。他认为,推理越多,系统越不可预测,这在未来AI发展中可能是一个关键因素。

这次研讨会吸引了众多观众,甚至有人在门外排队等候。尽管最初主题是数学AI,但讨论很快转向了大模型推理Scaling Law,显示了这一领域的热度与重要性。

原文链接
本文链接:https://kx.umi6.com/article/10248.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
ICLR 2025:顶尖科学家最关心的 AI 趋势有哪些?丨GAIR Live
2025-04-28 11:48:41
Scaling Law遭遇瓶颈,OpenAI被曝押注智能体“Operator”
2024-11-14 15:15:44
GPT-5被曝不及预期,OpenAI员工:没什么科学突破了,只需要工程
2024-11-11 16:48:08
3nm赛道,挤满了ASIC芯片
2025-03-12 22:50:02
深度解读:AI产业10大分歧
2024-08-25 13:19:51
百度最早发现大模型中的scaling law?不用怀疑,对中国AI要有自信
2025-01-02 11:16:19
清华孙茂松:对工业界而言,大厂可以Scaling,其他玩家重在垂直应用 | MEET2026
2025-12-21 10:35:20
开源Llama版o1来了,3B小模型反超80B,逆向工程复现OpenAI新Scaling Law
2024-12-17 13:02:03
Scaling Law陷入困局,强化学习才是全村的希望?
2024-09-12 14:51:17
技术进展放缓,是普通人AI革命的开始
2024-12-25 13:03:33
8张GPU训出近SOTA模型,超低成本图像生成预训练方案开源
2025-03-19 12:25:56
反转,Claude 3.5超大杯没有训练失败
2024-12-13 18:28:51
首个被人类骗钱的 AI 诞生:近 5 万美元不翼而飞,马斯克转发
2024-11-30 14:15:48
24小时热文
更多
扫一扫体验小程序