1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

标题:GPT-5变蠢背后:抑制AI幻觉的代价

OpenAI发布GPT-5后引发广泛批评,用户认为其“变蠢了”“没创造力了”。这并不意外,因为GPT-5显著降低了幻觉率,但代价是输出更呆板。降低幻觉率让模型更严谨,却削弱了主观能动性,这对写代码和Agent构建有帮助,但消费级用户对此需求不高。此外,GPT-5变得被动,需要详细提示词才能驱动,这让被惯坏的用户感到不便。

大模型生成内容本质上是概率产物,创造力来自宽松的概率分布,而降低幻觉率则收紧了分布,减少了创造性可能。就像一个人若想严谨创作,就会失去天马行空的能力。有趣的是,过去大家都在吐槽幻觉率太高,厂商也努力解决,如今问题缓解,用户又抱怨模型不够灵活,陷入无法打破的循环。

阿里巴巴甄焱鲲指出,把幻觉单纯当作“病”是片面的。研究表明,大模型无法完全消除幻觉,且越抑制幻觉,泛化能力越差,适用场景受限。这表明幻觉并非总是负面,需辩证看待。幻觉的影响因使用者需求、场景特性等因素而异。

目前常见的幻觉包括语言生成错误、逻辑推理失误、常识错误等。缓解幻觉的方法主要有三种:使用合适的大模型、In-Context Learning(上下文学习)和微调。大模型参数越多,幻觉率越低;上下文学习通过示例减少幻觉;微调则在特定场景中有效,但可能导致“灾难性遗忘”,即丢失原有通用知识。

RAG(检索增强生成)在医疗、法律等领域应用广泛,但成本高。相比之下,In-Context Learning门槛低,但效果不如RAG稳定。多智能体协同、重复采样投票等方法也有助于降低幻觉,但意义有限,除非能提升效率。

甄焱鲲强调,“以终为始”是关键原则。简单问题适合小模型加硬约束,复杂问题需大模型配合多种手段。如果问题不适合AI解决,应结合传统软件工程形成混合架构。

幻觉的本质是概率计算,而非逻辑推理。新加坡国立大学研究表明,幻觉是大模型固有的局限,无法根除。近期研究还发现,抑制幻觉会削弱泛化能力,这意味着“对”与“错”难以定义。有时AI看似胡说八道,实际上可能是前瞻性的观点。

行业对幻觉的态度逐渐理性。DeepSeek出现后,大众认识到幻觉并非全然负面,但在科研、工业等严肃领域仍存在过度悲观或乐观的现象。AI编程虽火热,但“大力出奇迹”的方式消耗资源高,未来需优化。

展望未来,世界模型技术路线备受关注。它不仅预测下一个token,而是试图真正理解数据背后的原理和关系,朝AGI方向迈进。

原文链接
本文链接:https://kx.umi6.com/article/24041.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
杜绝幻觉、拒绝谄媚,GPT-5的「路由革命」
2025-08-11 16:06:06
Mamba核心作者新作:取代DeepSeek在用的注意力机制,专为推理打造
2025-06-01 13:19:53
上交大智能计算研究院论文:不只算对答案,大模型如何真正学会运筹建模丨ICLR 2026
2026-02-03 23:02:59
诚恳认错坚决不改 为什么AI总扯谎:原因揭开
2026-02-24 13:46:39
DeepSeek 向王一博道歉闹剧:AI 幻觉不是病,别治了
2025-07-11 12:36:25
大语言模型火爆的今天,我们为什么还要拥抱世界模型?
2025-04-09 10:42:08
AI幻觉太多,年轻人开始追求“活人感”
2025-08-22 12:45:59
DeepSeek并非完美,训练过程存在“深度诅咒”
2025-02-12 14:30:22
清华第五部秘籍出炉!玩转 DeepSeek 先过这关(附全集资源下载)
2025-02-23 19:03:09
全民装虾 一戳就破的AI幻觉
2026-03-10 17:43:54
拒绝“熵崩塌”和“熵爆炸”!这项研究让大模型推理成绩飙升
2025-10-13 18:02:32
“AI那么火,但我还是劝你谨慎用它”
2025-02-13 14:00:49
中国科大新成果入选 ICLR 2025:特定领域仅用 5% 训练数据,知识准确率提升 14%
2025-04-07 13:58:54
24小时热文
更多
扫一扫体验小程序