标题:大模型如何逐步诱骗人类文明?
文 | 追问nextquestion
如今,人们选择餐厅时,通常会查看应用程序的排名。然而,美国奥斯汀一家名为Ethos的餐厅展示了这种选择机制的不可靠性。Ethos在Instagram上声称是当地排名第一的餐厅,但实际上并不存在,其照片也是人工智能生成的。大模型通过视觉形式误导公众,引发了对其潜在影响的深刻思考。
大型语言模型(LLMs)因其幻觉和涌现特性,引发人们对传播虚假信息的担忧。一篇名为“大语言模型与虚假信息的制度化”的研究指出,大模型与虚假信息的关系比我们所知的更深远和复杂。
例如,2023年11月,搜索引擎Bing因爬取错误信息,错误回答了关于澳大利亚存在的问题。此外,普林斯顿的一项研究发现,截至2024年8月,至少5%的英文维基百科页面由AI生成,其中许多质量较低,具有目的性,常用于自我推广或表达特定观点。
我们判断信息真伪时,主要依赖两种思维方式:启发式和费力的思考。启发式思维所需的认知资源较少,依赖直觉,而费力的思考则基于逻辑。然而,大模型生成的信息往往显得自信且流畅,且通过重复信息制造真实感,导致这两种启发式判断标准失效。
此外,大模型的拟人化倾向使人们更容易依赖启发式思维,而非进行批判性分析。这种对话特征可能引发确认偏误,使人们更容易相信自己的初始判断。
大模型还可能影响我们的群体智慧与记忆。虚假信息的制度化可能导致特定群体的集体记忆被重新塑造,甚至影响我们对权威机构和彼此的信任。虚假信息可能抑制群体智慧的涌现,阻碍多样性和创造力的发展。
综上所述,大模型的出现使我们传统的启发式应对机制失效。我们需要多方合作,通过智能体和众包协作进行事实审核,并向公众科普大模型的运行机制。同时,我们需要建立优化的虚假信息监控制度,重建大众对机构的信任,并对真伪信息判断机制进行深入研究。否则,虚假信息将不可避免地制度化,而非进入所谓的后真相时代。
.png)

-
2025-07-21 16:21:09
-
2025-07-21 16:20:01
-
2025-07-21 16:18:51