如何消除AI幻觉?我们做了个实验
“让AI帮忙推荐楼盘,它说得有理有据,连户型都帮我选好了,我都心动了,结果它推荐的楼盘根本不存在……”
这样无奈的时刻,许多AI用户都曾经历过。AI随叫随到、无所不知,既能秒生成有理有据的小论文,又能充当心理医生抚慰情绪。然而,大家对AI的信任有时也会悄悄动摇:文中附上的链接变成乱码,严谨术语下包裹着虚构的参考文献,统计数据找不到出处……
信源的可靠性对AI回答的准确性至关重要。AI回答错误通常源于引用信源的问题。为此,我们设计实验测试五款国产AI助手(智谱清言、豆包、腾讯元宝、文心一言、Kimi),针对2014年和2024年的经济、社会、科技、文体、国际新闻事件生成介绍,统计引用来源。
结果显示,五款AI普遍引用政府机构与媒体信息,这类信源可信度较高,但部分AI会引用个人账号内容。面对较早的新闻事件,AI更依赖在线百科内容。此外,三款AI与开发机构关联紧密:豆包偏好引用今日头条和抖音百科,腾讯元宝引用微信公众号,文心一言常引用百度内容。
相比不可靠信源,幻觉更难防范。“幻觉”指AI看似真实但包含错误信息或误解语境的回应。实验将其分为四类,发现“无中生有”类幻觉最常见,占一半以上。幻觉的产生机制尚不清晰,但受训练数据偏差和算法影响,目前无法根除。
普通人如何识别幻觉?优化指令是关键。明确用词、设定回答边界、建立标注机制、分段输出并引入交叉验证可有效减少幻觉。我们通过修正指令的实验验证了这一点,在100次提问中,41次出现幻觉,其中26个幻觉被消除,占比63.4%。不同AI表现差异显著,事实诱导问题比逻辑诱导问题诱发更多幻觉,但逻辑谬误更难察觉。
2024年末,《连线》杂志警告:“人工智能的风险来自人类的滥用。”AI存在缺陷与滥用已模糊虚构与真实界限,产生新社会问题。面对AI热潮,我们需要热情拥抱的同时保持冷静和谨慎。
.png)

-
2025-07-19 12:53:03
-
2025-07-19 12:51:53
-
2025-07-19 11:52:20