标题:GPT-5变蠢背后:抑制AI幻觉的代价
OpenAI发布GPT-5后引发广泛批评,用户认为其“变蠢了”“没创造力了”。这并不意外,因为GPT-5显著降低了幻觉率,但代价是输出更呆板。降低幻觉率让模型更严谨,却削弱了主观能动性,这对写代码和Agent构建有帮助,但消费级用户对此需求不高。此外,GPT-5变得被动,需要详细提示词才能驱动,这让被惯坏的用户感到不便。
大模型生成内容本质上是概率产物,创造力来自宽松的概率分布,而降低幻觉率则收紧了分布,减少了创造性可能。就像一个人若想严谨创作,就会失去天马行空的能力。有趣的是,过去大家都在吐槽幻觉率太高,厂商也努力解决,如今问题缓解,用户又抱怨模型不够灵活,陷入无法打破的循环。
阿里巴巴甄焱鲲指出,把幻觉单纯当作“病”是片面的。研究表明,大模型无法完全消除幻觉,且越抑制幻觉,泛化能力越差,适用场景受限。这表明幻觉并非总是负面,需辩证看待。幻觉的影响因使用者需求、场景特性等因素而异。
目前常见的幻觉包括语言生成错误、逻辑推理失误、常识错误等。缓解幻觉的方法主要有三种:使用合适的大模型、In-Context Learning(上下文学习)和微调。大模型参数越多,幻觉率越低;上下文学习通过示例减少幻觉;微调则在特定场景中有效,但可能导致“灾难性遗忘”,即丢失原有通用知识。
RAG(检索增强生成)在医疗、法律等领域应用广泛,但成本高。相比之下,In-Context Learning门槛低,但效果不如RAG稳定。多智能体协同、重复采样投票等方法也有助于降低幻觉,但意义有限,除非能提升效率。
甄焱鲲强调,“以终为始”是关键原则。简单问题适合小模型加硬约束,复杂问题需大模型配合多种手段。如果问题不适合AI解决,应结合传统软件工程形成混合架构。
幻觉的本质是概率计算,而非逻辑推理。新加坡国立大学研究表明,幻觉是大模型固有的局限,无法根除。近期研究还发现,抑制幻觉会削弱泛化能力,这意味着“对”与“错”难以定义。有时AI看似胡说八道,实际上可能是前瞻性的观点。
行业对幻觉的态度逐渐理性。DeepSeek出现后,大众认识到幻觉并非全然负面,但在科研、工业等严肃领域仍存在过度悲观或乐观的现象。AI编程虽火热,但“大力出奇迹”的方式消耗资源高,未来需优化。
展望未来,世界模型技术路线备受关注。它不仅预测下一个token,而是试图真正理解数据背后的原理和关系,朝AGI方向迈进。
.png)

-
2025-08-27 07:57:09
-
2025-08-27 06:56:52
-
2025-08-27 00:55:21