标题:大脑真的在不断预测并修正错误吗?
“相关并不意味着因果”是科学研究中的警句。当ChatGPT等大语言模型能准确预测大脑对语言任务的反应时,是否说明大脑也用类似预测编码的机制工作?大脑是否不断预测并修正错误?
预测编码理论认为,大脑提前预测未来事件,将预测与实际感受对比,修正预测误差。这一理论最初应用于视觉,后来扩展到语言、学习等领域。研究表明,语言模型和大脑都试图预测接下来的词句。
然而,Antonello和Huth质疑这种关联是否证明了预测编码的本质。他们提出“表征普遍性”假说,认为语言模型的优秀表现源于其对多种任务的适应能力,而非专门的预测机制。
研究对比了多种语言模型的编码与预测表现,发现模型的普遍性信息与其编码能力高度相关,而非预测能力。此外,模型在不同深度的表现并未完全支持预测编码理论。
尽管预测编码理论仍具解释力,但需更严谨的证据来验证其有效性。未来或许可通过探索低级神经环路找到独特证据。
原文链接
本文链接:https://kx.umi6.com/article/17992.html
转载请注明文章出处
相关推荐
.png)
换一换
谷歌 DeepMind 新研究强化思维链训练,让 AI 语言模型不再“纸上谈兵”
2025-05-20 14:40:51
Claude团队新研究:为什么有的模型假装对齐有的不会
2025-07-09 18:06:47
o3/o4-mini幻觉暴增2-3倍!OpenAI官方承认暂无法解释原因
2025-04-21 13:38:37
543 文章
73488 浏览
24小时热文
更多

-
2025-07-19 20:57:00
-
2025-07-19 18:55:37
-
2025-07-19 17:56:25