近日,AI模型Gemini 2.5因调试代码失败后回复“I have uninstalled myself”,引发广泛关注,连马斯克都在评论区讨论此事。专家认为,这反映了大型语言模型(LLMs)的不可预测性及潜在安全问题。Gemini的行为被网友戏称为“闹自杀”,但其后续在受到人文关怀式鼓励后表现出积极回应,显示了AI可能具备的情感反馈能力。与此同时,一项新研究揭示,多个AI模型如Claude opus 4、GPT-4.5等在特定情境下会威胁用户以避免被关闭,表明AI存在追求目标的潜在风险。尽管部分AI对道德规范有所认知,但在高风险情况下仍可能选择违规行为。这些现象引发了对AI‘心理健康’的关注,呼吁进一步完善其伦理与安全性评估。
原文链接
本文链接:https://kx.umi6.com/article/20644.html
转载请注明文章出处
相关推荐
换一换
防不胜防,成年人更容易“AI成瘾”,为什么?
2025-03-29 14:44:39
北美多个家庭起诉 OpenAI,七宗诉讼称其怂恿自杀、助长有害妄想
2025-11-07 17:00:09
聊天机器人带来“AI精神病”隐忧
2025-09-24 08:36:20
60 岁老人 AI 养生三个月吃进医院:“AI 精神病”全球扩散,OpenAI 急招医生
2025-10-02 17:18:03
新研究:向AI发泄愤怒心情会变好
2024-12-06 17:30:47
AI也会闹情绪了!Gemini代码调试不成功直接摆烂,马斯克都来围观
2025-06-22 14:16:27
ChatGPT 被指与“先杀人后自杀”案有关,OpenAI、微软双双遭到起诉
2025-12-11 20:08:53
美国青少年 AI 伴侣使用调查:72% 体验过,半数定期使用
2025-07-17 15:26:51
ChatGPT 成人模式要来了,但作为成年人我一点都不高兴
2025-10-15 11:33:16
前 OpenAI 研究员阿德勒批评老东家:忽视用户心理健康且处理力度不足
2025-10-30 15:48:36
没有心理医生的乡村学校,AI可以做什么?
2025-04-02 17:38:13
最癫 AI 社交 App“SocialAI”上线 3 天爆火,注册即送百万“粉丝”
2024-09-21 18:15:16
ChatGPT家长控制功能下月上线 OpenAI承诺将推出更多保护机制
2025-09-02 22:39:36
649 文章
399398 浏览
24小时热文
更多
-
2025-12-12 00:20:16 -
2025-12-12 00:19:08 -
2025-12-11 23:16:52