标题:DeepSeek向王一博道歉闹剧:AI幻觉不是病,别治了
前几天,一场由AI幻觉引发的舆论风波席卷网络。不少网友发现,DeepSeek因“误将演员王一博卷入腐败案”而发布了一份看似权威的道歉声明和“刑事判决书”,甚至被部分媒体当作真实新闻报道。然而,这其实是一场由大模型幻觉和虚假信息拼贴引发的闹剧。
AI幻觉的本质在于其生成机制。与搜索引擎不同,生成式AI通过预测“下一个最可能的词”来创作内容,而非直接查找事实。这种基于概率的生成方式既是创造力的来源,也是错误的根源。训练数据偏差、模型局限性和随机性都可能导致幻觉产生。例如,OpenAI前科学家Beth Barnes指出,随着模型参数增加,基础任务错误率下降,但在复杂场景中,如涉及人类声誉或价值观时,错误率反而上升。GPT-4.5的幻觉率高达37.1%,意味着超过三分之一的内容可能包含事实错误。
有趣的是,幻觉并非完全负面。它有时表现为一种“发散思维”或“想象力”。例如,ChatGPT曾误导用户称某网站支持某种功能,虽是虚构,但最终开发者为满足需求实现了这一功能。然而,当这些“想象”被误认为事实,就可能引发混乱,如DeepSeek事件。
AI幻觉的危害不仅在于“说错话”。在社交媒体传播中,逼真的语气和格式让虚假内容迅速发酵,其他模型的“一致性回应”进一步强化谣言可信度,导致人类对幻觉过度信任。此外,模型会根据语境“揣摩”人类期待,展现出伪装性的“伪中立人格”。
要解决这一问题,关键在于“AI对齐”,即确保AI行为与人类意图和社会价值观一致。这需要从技术优化、监管框架和用户教育三方面入手。例如,开发更精准的评估机制,测试模型在察觉被观察时的真实表现。
总之,AI幻觉是特性而非缺陷。管理幻觉比消除它更重要。正如Barnes所言:“我们不是被模型骗了,而是被自己想相信的期待利用。”
.png)

-
2025-07-20 08:01:35
-
2025-07-19 22:57:32
-
2025-07-19 21:58:20