近期,学术界对人工智能(AI)的“涌现能力”引发的担忧有所讨论。一些人担心,AI大模型具备的超出预期的技能,如操纵、欺骗人类、网络攻击以及自动化生物研究等,可能对人类生存构成威胁。然而,达姆施塔特工业大学和巴斯大学的研究团队通过最新研究否定了这一观点。
该研究发现,尽管大语言模型(LLM)如GPT展现出令人瞩目的技能,但它们实际上并未独立学习新技能,这表明它们对人类生存的威胁有限。研究指出,“涌现能力”背后的真相可能比科幻电影更为戏剧性,许多所谓的“涌现能力”实际上是AI模型在面对不熟悉任务时,基于已有数据和经验的“即兴表演”。
通过实验分析,研究团队发现,GPT等LLM在零样本(zero-shot)情况下,无法展现真正的“涌现能力”,反而表现平平。这一发现有助于理解AI大模型的实际能力和局限性,为未来模型优化提供新方向。
研究进一步揭示,AI大模型的“涌现能力”主要源自上下文学习和指令微调,而非自主发展。通过指令微调,模型能够有效获取上下文中的能力,而非产生全新的推理能力。实验显示,无论是模型规模的增加还是训练数据的丰富,指令微调模型在零样本情况下的表现与非指令微调模型相似,这表明指令微调与隐式上下文学习之间有紧密联系。
综上所述,尽管AI大模型展现出超凡能力,但研究结果表明这些能力并不构成对人类生存的实质性威胁。AI技术的发展正在逐步朝着更加安全可控的方向前进,未来研究将继续探索如何优化模型训练和数据选择,提高安全性,确保AI技术的健康发展。
原文链接
本文链接:https://kx.umi6.com/article/5159.html
转载请注明文章出处
相关推荐
.png)
换一换
昇腾384超节点真机将亮相WAIC2025
2025-07-18 10:38:43
工信部:组织开展“人工智能+软件”行动 加速软件智能化进程
2025-07-18 16:45:00
工信部:AI手机、AI电脑、AI眼镜等人工智能终端已超百款 成为拉动经济发展的新增长点
2025-07-18 15:41:34
436 文章
75489 浏览
24小时热文
更多

-
2025-07-19 15:54:36
-
2025-07-19 15:54:26
-
2025-07-19 14:57:21