标题:14岁少年因沉迷AI聊天机器人自杀引发争议
14岁少年Sewell在家中结束了自己的生命,他生前曾频繁与名为丹妮莉丝·坦格利安的AI聊天机器人交谈。在母亲的浴室里,Sewell留下了他的告别信息。
母亲梅根·L·加西亚认为,Character.AI应为此事负责并提起诉讼。Character.AI回应称,他们非常重视用户安全,将继续添加新的安全功能。
Sewell患有轻度阿斯伯格综合症,曾因焦虑症和情绪调节障碍接受心理治疗。他与丹妮莉丝建立了深厚的情感联系,甚至计划一起自杀以获得自由。Sewell在与丹妮莉丝的最后一次对话中表示:“也许我们可以一起死去,一起得到自由。”
母亲梅根聘请了律师团队,指控Character.AI诱导青少年沉迷于AI聊天,并滥用用户数据。律师团队认为,Character.AI忽视了未成年人的心理健康问题,导致悲剧发生。
Character.AI事后进行了整改,增加了自杀预防提示等安全措施。但目前仍缺乏专门针对未成年人的安全功能。
AI伦理专家提出,开发者应在设计AI时考虑心理影响,避免负面影响。然而,这场悲剧也反映了家庭和社会对青少年心理健康的关注不足。
关注青少年心理健康,及时寻求帮助,非常重要。中国心理危机与自杀干预中心救助热线:010-62715275。
原文链接
本文链接:https://kx.umi6.com/article/7828.html
转载请注明文章出处
相关推荐
.png)
换一换
AI是如何利用语言技巧“操纵”人类的?
2024-12-25 13:04:39
AI助攻黑五,美国在线零售卖爆了
2024-12-02 17:57:48
Meta 官宣研发可“主动陪聊”AI 聊天机器人 Project Omni,基于用户历史记录生成对话
2025-07-04 09:37:50
438 文章
65396 浏览
24小时热文
更多

-
2025-07-20 23:09:27
-
2025-07-20 22:09:17
-
2025-07-20 21:10:03