1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

自从ChatGPT问世以来,大语言模型不断刷新人们对人工智能的认知,甚至“通用人工智能即将到来”也成了陈词滥调。然而,学界内部对大语言模型的质疑声渐增,尤其是在“可解释的人工智能”方面的研究遭遇瓶颈。最近,苹果公司的研究报告指出大语言模型并不具备逻辑推理能力,引发了广泛讨论。

苹果的研究评估了大语言模型在数学推理方面的能力,通过修改数学应用题中的专有名词、数字和添加无关信息,发现模型的正确率显著下降。这表明大语言模型并不真正理解数学概念或进行逻辑推理,只是依赖记忆和匹配。

去年,我曾指出ChatGPT不具备逻辑推理能力,因为它依赖于大量训练数据的记忆,而非真正的推理能力。苹果公司的研究支持了这一观点。但反对者认为,大语言模型已经展示了超越人类的推理能力,不应仅凭某些错误结论否定其推理能力。

正反双方主要通过列举成功或失败的案例来支持各自的立场,这虽然具体可验证,但难以全面揭示系统的一般推理能力。此外,如何衡量现有缺陷的可改进性也是一个问题。

“推理”通常指从已知前提推导出新结论的过程,但在定义“正确性”时存在争议。逻辑学研究推理的规范性,而心理学关注推理的描述性。神经网络模型倾向于描述性理论,依赖人类的实际行为,但缺乏规范性推理的透明度和可靠性。

深度学习中的推理基于描述性理论,通过训练数据来确定模型行为,这导致了难以解释的过程和潜在的偏见。尽管近期出现了“思维链”等改进措施,但其正确性标准仍受限于训练数据。

推理能力的来源涉及先天因素和后天因素。大语言模型可以被视为描述性推理模型,擅长模式匹配而非遵循逻辑。尽管它们在某些场景中表现出色,但不能视为实现了推理功能。大语言模型可以通过训练学习逻辑和数学知识,但这些知识更多是对象层面的知识,而非元知识。

总之,大语言模型非常有用,但不能解决人工智能的基本问题,包括推理。

原文链接
本文链接:https://kx.umi6.com/article/8646.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
arXiv创始人亲测:水论文这一块,Grok最强,Claude最不配合
2026-03-09 13:40:43
deepseek关联公司公布大语言模型部署方法专利
2025-08-01 14:04:10
苹果创新“清单法”:用 AI 大模型当“老师”,教小模型更精准执行复杂指令
2025-08-26 07:38:55
与AI互动的信息时代黎明:吃掉自尊心才能拓展认知边界
2025-01-11 10:35:01
MIT 新研究指出 AI 不懂“no”,逻辑推理缺陷导致否定词成“盲区”
2025-05-22 09:22:19
美国哥伦比亚大学研究:大语言模型正在变得越来越像人类大脑
2024-12-20 11:27:54
GPT-4o 见AV 女优的次数比“您好”还多2.6倍,AI 正在被中文互联网疯狂污染
2025-09-06 12:37:21
华为模型训练和车辆控制专利公布 可应用于AI领域
2025-02-19 15:56:20
大语言模型火爆的今天,我们为什么还要拥抱世界模型?
2025-04-09 10:42:08
研究:用诗歌就能让 AI 说违禁内容,成功率达 62%
2025-12-01 08:55:57
为什么大语言模型没能“杀死”心理学?
2024-09-11 21:34:06
AI 意识更进一步!谷歌 DeepMind 等:LLM 不仅能感受痛苦还能趋利避害
2025-02-10 13:12:02
中国电信发布“复杂推理大模型”TeleAI-t1-preview:能解《九章算术》题目
2025-01-25 19:01:51
24小时热文
更多
扫一扫体验小程序