1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

标题:300亿美元也难再造GPT-4?NUS尤洋解析AI增长瓶颈

正文:
ChatGPT发布三周年之际,“AI瓶颈期”的焦虑愈发凸显。新加坡国立大学校长青年教授、潞晨科技创始人尤洋提出一个关键问题:即便有300亿美元预算,我们能否训练出比GPT-4更强的模型?

在《智能增长的瓶颈》一文中,尤洋指出,当前AI发展的核心问题并非算力不足,而是现有技术范式难以高效利用持续增长的算力。他提出了几个颠覆性观点:

  1. 智能的本质是能源转化:过去十年,AI通过计算将电力转化为智能,但转化效率正面临挑战。
  2. Transformer的成功秘密:它并非更像人脑,而是一台“伪装成神经网络的并行计算机”,完美适配英伟达GPU的堆料逻辑。
  3. 效率不等于智能:新架构如Mamba虽提升了吞吐量,但在“算力转智能”的终极效率上未必超越Transformer。
  4. 未来出路:是否应抛弃Adam优化器?回归高精度计算(FP32/64)?

尤洋认为,智能的核心在于预测能力——即对未来状态进行稳定、可执行的判断。这一视角解释了为何Next-Token Prediction成为“智能发动机”,但也暴露了许多系统在真实场景中的短板。

文章进一步探讨了预训练、微调和强化学习的关系,指出三者本质上都是通过梯度更新参数,而预训练之所以贡献主要智能,是因为其消耗了最多的算力。然而,随着算力增长,现有范式对新增算力的吸收效率正在下降,通信与同步开销抵消了部分收益。

Transformer的成功不仅是算法胜利,更是模型架构与硬件体系高度匹配的结果。然而,当算力继续增长时,现有范式是否还能扩展?尤洋提出,真正的瓶颈在于算力与智能增长之间的映射关系开始松动。

未来可能的突破方向包括更高精度计算、更高效的优化器、更可扩展的架构或Loss函数等。尤洋强调,AI基础设施的核心目标应是提升并行计算体系的整体扩展性,而非仅关注单点性能。

结论是:只要能找到更高效组织计算的方式,智能的上限远未到来。但如何在极端算力条件下持续增强智能,仍是未解之谜。

原文链接:https://zhuanlan.zhihu.com/p/1989100535295538013

原文链接
本文链接:https://kx.umi6.com/article/30997.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
“下一个英伟达”诞生?甲骨文股价暴涨背后:一场关于算力的豪赌
2025-09-11 12:54:39
OpenAI的前世今生
2025-08-27 10:01:51
华为:2035年全社会的算力总量将增长10万倍
2025-09-17 09:28:35
AI国家级文件落地,带来哪些投资机会?基金公司一线解读
2025-08-28 10:23:40
宇树科技王兴兴:算力对人形机器人产业非常重要 尤其是大规模集群算力
2025-08-13 07:27:27
黄仁勋反悔,不投千亿美元给OpenAI了?
2026-02-03 02:13:44
OpenAI算力领先多达100倍 国产AI最大问题是穷:但别绝望
2026-01-12 09:35:44
纳德拉达沃斯警示:没电,AI全是空谈
2026-01-22 04:36:47
科技部部长阴和俊:强化算力、算法、数据等高效供给 全面实施人工智能+行动
2025-10-24 11:39:17
2026,AI算力新江湖
2026-01-31 12:36:53
黄仁勋不信泡沫,OpenAI需要“印钞机”
2025-10-12 08:39:18
增长10万倍!华为预测十年后算力规模 这些需求也有望水涨船高
2025-09-17 12:29:07
AI“手指难题”翻车,6 根手指暴露 Transformer 致命缺陷
2025-12-15 22:02:22
24小时热文
更多
扫一扫体验小程序