标题:300亿美元也难再造GPT-4?NUS尤洋解析AI增长瓶颈
正文:
ChatGPT发布三周年之际,“AI瓶颈期”的焦虑愈发凸显。新加坡国立大学校长青年教授、潞晨科技创始人尤洋提出一个关键问题:即便有300亿美元预算,我们能否训练出比GPT-4更强的模型?
在《智能增长的瓶颈》一文中,尤洋指出,当前AI发展的核心问题并非算力不足,而是现有技术范式难以高效利用持续增长的算力。他提出了几个颠覆性观点:
- 智能的本质是能源转化:过去十年,AI通过计算将电力转化为智能,但转化效率正面临挑战。
- Transformer的成功秘密:它并非更像人脑,而是一台“伪装成神经网络的并行计算机”,完美适配英伟达GPU的堆料逻辑。
- 效率不等于智能:新架构如Mamba虽提升了吞吐量,但在“算力转智能”的终极效率上未必超越Transformer。
- 未来出路:是否应抛弃Adam优化器?回归高精度计算(FP32/64)?
尤洋认为,智能的核心在于预测能力——即对未来状态进行稳定、可执行的判断。这一视角解释了为何Next-Token Prediction成为“智能发动机”,但也暴露了许多系统在真实场景中的短板。
文章进一步探讨了预训练、微调和强化学习的关系,指出三者本质上都是通过梯度更新参数,而预训练之所以贡献主要智能,是因为其消耗了最多的算力。然而,随着算力增长,现有范式对新增算力的吸收效率正在下降,通信与同步开销抵消了部分收益。
Transformer的成功不仅是算法胜利,更是模型架构与硬件体系高度匹配的结果。然而,当算力继续增长时,现有范式是否还能扩展?尤洋提出,真正的瓶颈在于算力与智能增长之间的映射关系开始松动。
未来可能的突破方向包括更高精度计算、更高效的优化器、更可扩展的架构或Loss函数等。尤洋强调,AI基础设施的核心目标应是提升并行计算体系的整体扩展性,而非仅关注单点性能。
结论是:只要能找到更高效组织计算的方式,智能的上限远未到来。但如何在极端算力条件下持续增强智能,仍是未解之谜。
原文链接:https://zhuanlan.zhihu.com/p/1989100535295538013
原文链接
本文链接:https://kx.umi6.com/article/30997.html
转载请注明文章出处
相关推荐
换一换
擘画2-5年AI新版图 闽浙粤竞速算力与智能体
2025-11-08 17:52:42
8 年首次大突破:谷歌祭出 Transformer 杀手,掌门人划出 AGI 死线
2025-12-07 15:34:40
微软CEO纳德拉:人工智能行业面临的问题并非算力过剩 而是电力
2025-11-03 17:33:57
Kimi开源新线性注意力架构,首次超越全注意力模型,推理速度暴涨6倍
2025-10-31 17:41:14
CoreWeave AI数据中心项目延期 算力产能交付遇阻暴露运营漏洞
2025-12-16 22:04:02
为Token付费是一件很愚蠢的事情,用户应该为智能付费丨RockAI刘凡平@MEET2026
2025-12-14 12:41:54
我们还是低估了英伟达
2025-09-17 21:39:00
万人齐聚首钢园|第二十届中国IDC产业年度大典盛大召开!
2025-12-15 10:28:54
如何通俗地读懂算力?
2025-05-22 11:29:32
算力板块多股走强 AI军备竞赛仍未减缓 多环节价值量或大幅提升
2025-07-08 12:45:26
河南:到2027年全省算力规模超过120EFlops 智算、超算等高性能算力占比超80%
2025-04-17 22:55:08
内蒙古工信厅:内蒙古算力规模已达12万P左右 居全国第一位
2025-04-23 15:03:59
Transformer终结者!谷歌DeepMind全新MoR架构问世,新一代魔王来了
2025-07-19 11:51:22
649 文章
398205 浏览
24小时热文
更多
-
2025-12-31 20:40:13 -
2025-12-31 20:40:05 -
2025-12-31 18:34:48