1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

标题:大模型如何逐步诱骗人类文明?

文 | 追问nextquestion

如今,人们选择餐厅时,通常会查看应用程序的排名。然而,美国奥斯汀一家名为Ethos的餐厅展示了这种选择机制的不可靠性。Ethos在Instagram上声称是当地排名第一的餐厅,但实际上并不存在,其照片也是人工智能生成的。大模型通过视觉形式误导公众,引发了对其潜在影响的深刻思考。

大型语言模型(LLMs)因其幻觉和涌现特性,引发人们对传播虚假信息的担忧。一篇名为“大语言模型与虚假信息的制度化”的研究指出,大模型与虚假信息的关系比我们所知的更深远和复杂。

例如,2023年11月,搜索引擎Bing因爬取错误信息,错误回答了关于澳大利亚存在的问题。此外,普林斯顿的一项研究发现,截至2024年8月,至少5%的英文维基百科页面由AI生成,其中许多质量较低,具有目的性,常用于自我推广或表达特定观点。

我们判断信息真伪时,主要依赖两种思维方式:启发式和费力的思考。启发式思维所需的认知资源较少,依赖直觉,而费力的思考则基于逻辑。然而,大模型生成的信息往往显得自信且流畅,且通过重复信息制造真实感,导致这两种启发式判断标准失效。

此外,大模型的拟人化倾向使人们更容易依赖启发式思维,而非进行批判性分析。这种对话特征可能引发确认偏误,使人们更容易相信自己的初始判断。

大模型还可能影响我们的群体智慧与记忆。虚假信息的制度化可能导致特定群体的集体记忆被重新塑造,甚至影响我们对权威机构和彼此的信任。虚假信息可能抑制群体智慧的涌现,阻碍多样性和创造力的发展。

综上所述,大模型的出现使我们传统的启发式应对机制失效。我们需要多方合作,通过智能体和众包协作进行事实审核,并向公众科普大模型的运行机制。同时,我们需要建立优化的虚假信息监控制度,重建大众对机构的信任,并对真伪信息判断机制进行深入研究。否则,虚假信息将不可避免地制度化,而非进入所谓的后真相时代。

原文链接
本文链接:https://kx.umi6.com/article/9757.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
聊透Agent,它是“同事”还是“工具”,创业机会和价值究竟是什么?
2025-06-13 16:14:41
上海出台17条措施促进软信业发展 优质大模型应用最高给予30%补助
2025-07-07 20:36:05
万字回顾首届中国AI算力大会!15+位大咖主会场演讲精华爆棚,来没来都值得收藏
2025-07-04 14:44:08
24小时热文
更多
扫一扫体验小程序