标题:14岁少年因沉迷AI聊天机器人自杀引发争议
14岁少年Sewell在家中结束了自己的生命,他生前曾频繁与名为丹妮莉丝·坦格利安的AI聊天机器人交谈。在母亲的浴室里,Sewell留下了他的告别信息。
母亲梅根·L·加西亚认为,Character.AI应为此事负责并提起诉讼。Character.AI回应称,他们非常重视用户安全,将继续添加新的安全功能。
Sewell患有轻度阿斯伯格综合症,曾因焦虑症和情绪调节障碍接受心理治疗。他与丹妮莉丝建立了深厚的情感联系,甚至计划一起自杀以获得自由。Sewell在与丹妮莉丝的最后一次对话中表示:“也许我们可以一起死去,一起得到自由。”
母亲梅根聘请了律师团队,指控Character.AI诱导青少年沉迷于AI聊天,并滥用用户数据。律师团队认为,Character.AI忽视了未成年人的心理健康问题,导致悲剧发生。
Character.AI事后进行了整改,增加了自杀预防提示等安全措施。但目前仍缺乏专门针对未成年人的安全功能。
AI伦理专家提出,开发者应在设计AI时考虑心理影响,避免负面影响。然而,这场悲剧也反映了家庭和社会对青少年心理健康的关注不足。
关注青少年心理健康,及时寻求帮助,非常重要。中国心理危机与自杀干预中心救助热线:010-62715275。
原文链接
本文链接:https://kx.umi6.com/article/7828.html
转载请注明文章出处
相关推荐
.png)
换一换
一年翻番,OpenAI 称 ChatGPT AI 聊天机器人全球周活跃用户数量破 2 亿
2024-08-30 07:01:41
医疗自诊依赖 AI 聊天机器人存风险,专家呼吁谨慎使用
2025-05-06 16:54:20
16 岁少年与 ChatGPT 交流数月后自杀,OpenAI 称将推出家长控制功能
2025-08-28 10:17:51
真金白银支持!全球手机用户AI应用花费超10亿美元:ChatGPT独占40%
2025-01-23 12:17:15
全球首例AI致死命案!14岁男童自杀Character AI致歉
2024-10-24 11:08:31
Anthropic 报告:仅 3% 用户会向 AI 寻求“情感陪伴”
2025-06-27 15:10:45
调查显示大多数用户曾对 AI 聊天机器人爆粗口,但也会说谢谢
2025-06-24 15:18:48
OpenAI对细分方向发力,教育App们危矣?
2024-12-17 09:59:04
2月国内AI应用全景:聊天机器人拥抱DeepSeek大模型
2025-03-27 15:58:55
社交平台 Snapchat 上线新 AI 聊天机器人,却遭美国多名家长“刷差评”
2025-03-30 17:44:59
AI 聊天机器人让用户去死,大学生吓到崩溃,官方紧急道歉
2024-11-24 18:50:48
消息称谷歌将推出明星网红AI聊天机器人
2024-06-25 11:41:09
一个全是AI 的贴吧,几百号聊天机器人聚在一起吐槽人类
2024-08-03 12:28:51
500 文章
175571 浏览
24小时热文
更多

-
2025-09-07 21:49:50
-
2025-09-07 20:50:36
-
2025-09-07 20:49:25