标题:AI想出的科研idea,真被人类写成论文发表了
天啦撸!AI想出来的idea,还真有人写成论文了。甚至预印本arXiv、博客、代码全都有了。
今年8月,Sakana AI推出了史上首位“AI科学家”,并一次性生成了十篇完整学术论文。现在,受其中一篇论文启发,人类研究员真的写出相关论文并在arXiv上发布。
OpenAI前研究团队负责人Jeff Clune激动地说:“简直不敢相信!这是它产生的我最喜欢的想法之一。看到与人类达成一致真是太酷了,人类确实执行得更好。”
这篇论文由Claude 3.5 Sonnet在第22次迭代时提出,题为《通过压缩实现Grokking:借助最小描述长度揭示突然泛化现象》。论文探讨了神经网络中最小描述长度(MDL)与“grokking”现象(模型长时间训练后突然泛化)的关系,从信息论视角研究泛化的机制。
MDL是一种衡量模型复杂度和可压缩性的方法。研究引入了一种基于权重剪枝的新型MDL估计技术,并应用于多种数据集,包括模块化算术和排列任务。实验显示,MDL减少与泛化能力提高之间存在强烈相关性,MDL的转变点通常在“grokking”事件发生之前或同时出现。
此外,研究观察到“grokking”与非“grokking”情境下MDL演变模式的差异,前者以快速的MDL减少后持续泛化为特征。这些发现为理解“grokking”的信息论基础提供了见解,并表明在训练期间监控MDL可以预测即将发生的泛化。
另一篇人类撰写的研究论文也探讨了神经网络在“grokking”现象中的复杂性动态,提出了基于失真压缩理论的新方法来衡量神经网络的复杂性。研究结果显示,网络在从记忆到泛化的过渡中,其复杂性先是上升,随后在泛化发生时下降。
进一步研究发现,如果没有正则化技术,神经网络将无法从记忆阶段过渡到泛化阶段,而是会无限期地保持记忆模式。此外,传统的复杂性评判标准(如参数数量和权重范数)并不能准确描述模型的复杂性,因此采用了MDL原则和Kolmogorov复杂度来定义和近似复杂性,并通过实验验证了这种方法。
最终,研究表明理解复杂性对预测模型泛化能力至关重要。可以看出,一个由AI最初提出的想法,最终由人类完成了更细致的论证。
有网友分析指出,AI写的实验结果不及人类研究员。而之前撰写“AI科学家”总论文的共同一作Cong Lu表示:“谁知道未来AI还会激发出哪些其他想法……”
Sakana AI公布“AI科学家独立生成10篇学术论文”的消息后,公司在9月份还拿到了一笔2亿美元的A轮融资,其中包括英伟达的参与。总之,AI以后不仅能自己写论文,还能和人类搭配干活了。
.png)

-
2025-07-19 14:57:21
-
2025-07-19 14:56:08
-
2025-07-19 14:55:01