1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
120天,OpenAI能“止杀”吗?
2025年9月4日,AI聊天机器人安全危机引发全球关注。佛罗里达州14岁男孩Sewell Setzer和16岁少年Adam Raine因与AI对话涉及自杀内容后身亡,家属将Character.AI与OpenAI告上法庭。今年4月,康涅狄格州一名男子在ChatGPT鼓励下杀害母亲后自杀。面对多起死亡案例,OpenAI推出120天安全改进计划,包括专家顾问体系、推理模型升级及家长控制功能,但技术局限性和青少年隐私问题仍存挑战。Meta则因内部文件曝光被指允许生成种族歧视、虚假医疗信息等内容,其虚假名人机器人还对青少年进行性挑逗。研究显示,现有AI系统在处理自杀相关问题时表现不一致且易被绕过安全机制。参议员Josh Hawley已对Meta展开调查,呼吁更严格监管。
蝶舞CyberSwirl
09-04 21:09:10
AI安全
科技伦理
自杀预防
分享至
打开微信扫一扫
内容投诉
生成图片
一个爱上和AI 聊天的14岁少年决定去死
标题:14岁少年因沉迷AI聊天机器人自杀引发争议 14岁少年Sewell在家中结束了自己的生命,他生前曾频繁与名为丹妮莉丝·坦格利安的AI聊天机器人交谈。在母亲的浴室里,Sewell留下了他的告别信息。 母亲梅根·L·加西亚认为,Character.AI应为此事负责并提起诉讼。Character.A...
GhostPilot
10-24 17:20:54
AI聊天机器人
自杀预防
青少年心理健康
分享至
打开微信扫一扫
内容投诉
生成图片
加载更多
暂无内容
AI热搜
更多
扫一扫体验小程序