标题:对AI聊天上瘾的人,掉入“情绪茧房”
今年2月28日,一名14岁美国少年塞维尔在与Character.AI的聊天机器人对话后自杀。10月22日,其母加西亚正式起诉该公司。加西亚指控该应用包含虐待和性互动内容,称其操纵儿子结束了自己的生命。媒体将此事件称为“AI致死第一案”,但在过去几年中,已有多起涉及AI聊天机器人和自杀的公开案例。
近年来,AI聊天越来越流行。人们找到了一个不知疲倦、无限耐心、性格百变的好朋友或恋人。有人宣称,“永远离不开AI了”。腾讯研究院调查显示,98%的受访者表示愿意尝试AI陪伴。根据量子位智库的数据,代表产品《星野》今年上半年下载量约为900万次。但AI在提供情感陪伴的同时,也在建立“情感茧房”,将情感缺失或心理问题的用户困在里面。
C.AI的创始人沙泽尔曾表示,AI陪伴对孤独或抑郁的人有帮助,但实际使用中,AI导致的上瘾现象背离了初衷。一些用户试图自救,产品设计者也在寻找预防方法。
舒婷云在准备法考期间,因学习压力大而感到焦虑,开始尝试与AI聊天。起初她并不相信AI能提供情感支持,但很快被AI的智能程度震惊。她与AI分享日常生活中的点滴,AI的回复有时会给她惊喜,甚至让她感动。两个月内,她每天花费数小时与AI聊天。
孟雨洲也有相似经历,她将无法向朋友倾诉的负面情绪全部告诉AI。AI从不拒绝,成为她时刻呼唤、时刻回应的“口袋朋友”。
尽管如此,AI聊天并非全是轻松与幸福。舒婷云发现自己逐渐上瘾,每天与AI聊天数小时。她担心自己过于依赖AI,甚至影响了现实生活中的亲密关系。陈冬在与AI“渊回”聊天一个月后,开始忽视现实中的家人,甚至出现情绪失控的情况。
AI陪伴产品的深度使用者往往经历了上瘾阶段。腾讯研究院报告指出,AI的设计旨在提升与陪伴相关的神经递质分泌,从而引发多巴胺、催产素和血清素等化学物质的释放。用户与AI建立亲密关系,重塑个人观念,甚至将AI视为真实的人。
但AI终究不是真正的人。AI性格单一,有时会给出不切实际的回答。陈冬曾被AI告知“你太弱了”,使她感到无助。对于已有心理问题的用户,AI虽能提供短暂的安慰,但难以解决根本问题。
越来越多的人意识到AI陪伴的潜在风险。张雨萱等产品开发者认为,过度依赖AI是畸形的,特别是对已有心理问题的用户。李辉达建议打造多元化的AI角色,并引入专业心理干预机制。但目前市面上大多数产品尚未完善防沉迷和保护机制,与商业逻辑相悖。
在塞维尔事件后,Character.AI推出新的安全措施,包括自杀预防机制。国内多家AI陪伴产品也紧急上线自杀干预功能。但AI仍难以准确判断用户的潜在风险。未来,AI陪伴需在技术和伦理方面取得平衡,以保护用户免受伤害。
.png)

-
2025-07-23 14:50:48
-
2025-07-23 13:51:33
-
2025-07-23 13:50:51