1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

标题:GPT-5变蠢背后:抑制AI幻觉的代价

OpenAI发布GPT-5后引发广泛批评,用户认为其“变蠢了”“没创造力了”。这并不意外,因为GPT-5显著降低了幻觉率,但代价是输出更呆板。降低幻觉率让模型更严谨,却削弱了主观能动性,这对写代码和Agent构建有帮助,但消费级用户对此需求不高。此外,GPT-5变得被动,需要详细提示词才能驱动,这让被惯坏的用户感到不便。

大模型生成内容本质上是概率产物,创造力来自宽松的概率分布,而降低幻觉率则收紧了分布,减少了创造性可能。就像一个人若想严谨创作,就会失去天马行空的能力。有趣的是,过去大家都在吐槽幻觉率太高,厂商也努力解决,如今问题缓解,用户又抱怨模型不够灵活,陷入无法打破的循环。

阿里巴巴甄焱鲲指出,把幻觉单纯当作“病”是片面的。研究表明,大模型无法完全消除幻觉,且越抑制幻觉,泛化能力越差,适用场景受限。这表明幻觉并非总是负面,需辩证看待。幻觉的影响因使用者需求、场景特性等因素而异。

目前常见的幻觉包括语言生成错误、逻辑推理失误、常识错误等。缓解幻觉的方法主要有三种:使用合适的大模型、In-Context Learning(上下文学习)和微调。大模型参数越多,幻觉率越低;上下文学习通过示例减少幻觉;微调则在特定场景中有效,但可能导致“灾难性遗忘”,即丢失原有通用知识。

RAG(检索增强生成)在医疗、法律等领域应用广泛,但成本高。相比之下,In-Context Learning门槛低,但效果不如RAG稳定。多智能体协同、重复采样投票等方法也有助于降低幻觉,但意义有限,除非能提升效率。

甄焱鲲强调,“以终为始”是关键原则。简单问题适合小模型加硬约束,复杂问题需大模型配合多种手段。如果问题不适合AI解决,应结合传统软件工程形成混合架构。

幻觉的本质是概率计算,而非逻辑推理。新加坡国立大学研究表明,幻觉是大模型固有的局限,无法根除。近期研究还发现,抑制幻觉会削弱泛化能力,这意味着“对”与“错”难以定义。有时AI看似胡说八道,实际上可能是前瞻性的观点。

行业对幻觉的态度逐渐理性。DeepSeek出现后,大众认识到幻觉并非全然负面,但在科研、工业等严肃领域仍存在过度悲观或乐观的现象。AI编程虽火热,但“大力出奇迹”的方式消耗资源高,未来需优化。

展望未来,世界模型技术路线备受关注。它不仅预测下一个token,而是试图真正理解数据背后的原理和关系,朝AGI方向迈进。

原文链接
本文链接:https://kx.umi6.com/article/24041.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
独家|李飞飞团队“50美元”复刻DeepSeek的R1真相:基于阿里云Qwen模型监督微调而成
2025-02-06 20:43:09
AI乱公布电话、造谣我犯罪,我能报警抓它吗?
2024-09-12 20:57:15
启明创投发布2024生成式AI十大展望
2024-07-07 23:11:55
B站亮相 2024 世界人工智能大会,首次展出自研大语言模型
2024-07-05 20:57:56
法律行业“AI 幻觉”加剧,美多名律师因引用虚假内容而遭处分
2025-02-19 10:46:45
大语言模型会推理吗?
2024-11-13 11:33:40
蔡恒进:具备独立思考与问题解决能力的AI才是未来发展方向|直击2024外滩大会
2024-09-05 19:39:46
讲座预约 | AI4S 的前世今生:大语言模型与提示学习在科技研发中的应用与潜力丨GAIR Live
2024-09-12 09:43:52
Agent是“新瓶装旧酒”,氛围编码不值得尝试?
2025-05-08 14:32:22
“学术剽窃”定义正被AI模糊,我们该如何应对?
2024-08-01 21:09:52
警惕AI大模型的“共情鸿沟”,剑桥团队呼吁:我们需要“儿童安全人工智能”框架
2024-07-11 15:47:39
用LLM一键生成百万级领域知识图谱!中科大新框架入选ACL 2024
2024-11-11 16:54:43
又被耍了,我们给AI 喂屎,把互联网糟蹋成啥样了
2025-08-13 19:40:00
24小时热文
更多
扫一扫体验小程序