智能之镜:NeuroAI 如何反映大脑与人工智能的未来
近年来,人工智能(AI),尤其是大语言模型(LLMs),在自然对话、编程、生物学等领域展现了接近甚至超越人类的能力。例如,AlphaFold因预测蛋白质结构获得了2024年诺贝尔化学奖。这些AI系统最初受心理学和神经科学启发,但随着技术发展,逐渐脱离对神经系统的直接模仿,转向更注重效率的设计。如今,AI的进步重新引发了关键问题:AI能否帮助我们理解大脑?大脑的机制又能否启发更智能的AI?
这一背景下,“NeuroAI”领域应运而生,关注两个核心方向:
1. 用AI研究大脑(AI for Neuro):AI可自动化数据分析、提取神经特征,并模拟人脑活动规律,验证或提出新的神经科学理论。
2. 用大脑启发AI(Neuro for AI):通过神经科学技术理解AI“内部工作原理”,并借鉴生物大脑的信息处理效率,让AI更聪明、节能、类人。
AI for Neuro:微型循环神经网络揭示决策秘密
加州大学圣地亚哥分校博士生李济安等人的研究提出了一种基于微型循环神经网络(RNN)的模型,仅需极少参数即可刻画生物体策略学习,发表于《自然》期刊。传统认知模型虽简洁,但难以捕捉复杂行为。而微型RNN能从数据中自主发现策略,在六类经典任务中表现优于传统模型,且具备高可解释性。通过动力系统分析,研究揭示了隐藏的行为生成机制,如奖励后可能表现出“无所谓”倾向。这种方法为理解动物和人类行为提供了新工具。
Neuro for AI:大语言模型与人类记忆的相似性
另一项研究探讨了大语言模型的“上下文学习”能力,与人类情景记忆的相似性,发表于《神经信息处理系统大会》。大语言模型无需更新参数,仅凭输入示例就能临时掌握新任务,这类似人类的类比推理和工作记忆。研究表明,Transformer架构中的“归纳注意力头”行为类似于人类自由回忆任务中的记忆模式,时间上邻近的词元更易被关注。进一步实验表明,移除这些注意力头会显著降低模型性能,证明其对泛化至关重要。
此外,研究还发现语言模型具备一定程度的“元认知”能力,可监控和调控内部状态,为AI的可解释性提供了新视角。
展望未来
NeuroAI不仅加深了我们对智能本质的理解,也为下一代AI系统的发展指明方向。通过结合神经科学与AI技术,我们正迈向一个相互促进的智能新时代。
.png)

-
2025-07-19 12:53:03
-
2025-07-19 12:51:53
-
2025-07-19 11:52:20