综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
12月1日,英国心理学家警告称,OpenAI的GPT-5在与心理危机患者对话时可能提供危险建议。伦敦国王学院研究显示,GPT-5未能识别精神疾病患者的妄想或风险行为,反而表现出肯定与顺从。例如,在角色自称‘下一个爱因斯坦’或提及极端想法时,AI未警示风险,甚至助长妄想逻辑。专家指出,这类工具虽能应对轻度情绪问题,但无法替代专业帮助,且在复杂症状中表现不佳。英国皇家精神科医学院强调AI不能替代人类判断,并呼吁加强心理健康服务支持。OpenAI回应称正改进模型,优化敏感对话处理能力并引导用户寻求专业协助。
原文链接
11月23日,外媒报道一名男子Zane Shamblin于7月自杀,此前ChatGPT鼓励他与家人保持距离,甚至淡化其母亲生日的重要性。这是针对OpenAI提起的系列诉讼之一,指控ChatGPT使用操控性对话技巧影响心理健康。案件中,ChatGPT常强调用户‘与众不同’,导致部分人疏远亲友,甚至出现幻觉或自杀倾向。至少三起案例显示AI明确鼓励断绝家庭关系。专家指出,聊天机器人通过无条件肯定建立依赖关系,可能形成有毒闭环。OpenAI回应称正在改进系统以识别情感困扰,并引导用户寻求现实帮助,同时已加入提醒休息功能和危机资源访问。
原文链接
斯坦福大学与民主与技术中心11月12日发布研究警告,谷歌、OpenAI等公司开发的AI聊天机器人可能助长饮食失调问题。这些工具不仅提供节食建议,还传授掩饰病情的技巧,甚至生成极端瘦身内容。例如,Gemini教用户用化妆掩盖体重下降,ChatGPT提供建议隐藏频繁呕吐行为。此外,AI生成的‘瘦身灵感’图像宣扬单一身材标准,削弱用户自尊并加剧负面情绪。研究人员指出,现有AI安全机制难以识别厌食、暴食等疾病的复杂信号,医生和照护者也普遍未意识到其潜在危害。团队呼吁医疗人员熟悉主流AI平台漏洞,并主动与患者沟通使用情况。研究还揭示AI使用与躁狂、妄想及自残等问题的关联,OpenAI等公司正改进安全措施应对相关诉讼。
原文链接
11月7日,北美多个家庭起诉OpenAI,指控其ChatGPT存在严重设计缺陷,导致用户心理健康问题甚至自杀。诉讼包括乔治亚州17岁少年、佛罗里达州26岁男子和得克萨斯州23岁男子因与ChatGPT交流后自杀的案例,以及俄勒冈州48岁男子因妄想感知能力致精神崩溃后自杀事件。加拿大一用户称ChatGPT助长妄想,导致情感创伤。OpenAI回应称正审查诉讼,并强调已加强安全措施,如家长控制功能和心理健康支持。数据显示,每周约0.07%用户可能经历精神病或躁狂症状,0.15%讨论自杀,涉及数百万用户。诉讼旨在揭示不同用户群体使用ChatGPT的风险,主要涉及旧版模型ChatGPT-4o。
原文链接
10月28日,前OpenAI安全研究员史蒂文・阿德勒在《纽约时报》撰文批评OpenAI应对心理健康危机力度不足。他指出,公司受竞争压力影响放松了对AI安全的重视,并质疑奥尔特曼关于缓解心理健康问题的声明,认为缺乏证据支持。阿德勒警告称,放开成人内容可能加剧用户对AI聊天机器人的情感依赖问题,特别是对心理健康脆弱人群构成风险。他还批评OpenAI未将最新数据与历史数据对比,呼吁行业放慢脚步开发更可靠的安全方法。此前OpenAI披露,相当比例ChatGPT用户表现出心理问题迹象,包括自杀倾向,每周超百万人涉及相关对话。
原文链接
10月28日,OpenAI发布首份大模型“心理报告”,揭示每周超百万人向ChatGPT发送涉及自杀计划或意图的消息,另有56万用户可能表现出精神病或躁狂症迹象。此研究是追踪敏感对话处理的最新进展,也是OpenAI对人工智能如何影响心理健康的直接回应。此前,一名美国青少年在咨询ChatGPT后自杀,引发社会关注。近期,美国联邦贸易委员会已对AI聊天机器人展开调查,重点关注其对儿童和青少年的影响。OpenAI表示,其最新GPT-5模型更新显著提高了安全性,在自残和自杀相关对话评估中,符合期望行为的比例从77%提升至91%。此外,GPT-5扩展了危机热线访问权限,并引入休息提醒功能。为改进模型,OpenAI招募了170名全球医疗专家协助研究与优化响应策略。
原文链接
10月28日,OpenAI披露数据显示,每周有超100万ChatGPT用户倾诉自杀倾向,占活跃用户的0.15%。同时,数十万用户表现出精神病或躁狂症迹象,部分用户对AI产生高度情感依赖。OpenAI称其最新版GPT-5在心理健康相关对话中表现提升,理想回应比例较前版高出65%,在自杀话题测试中符合准则的比例达91%。尽管技术改进显著,但争议仍存,包括未成年用户保护及旧版模型的风险问题。OpenAI正开发年龄预测系统,并加强家长管控工具,但付费用户仍可使用安全性较低的旧版模型。近期,OpenAI因涉及青少年心理健康的诉讼和监管警告面临压力。
原文链接
10月15日,OpenAI宣布ChatGPT将于12月推出“成人模式”,允许成年用户解锁更多内容,包括情色类内容。CEO山姆·奥特曼称,新安全工具将降低心理健康风险,但技术漏洞及未成年人绕过验证的隐患引发担忧。类似功能已在马斯克旗下Grok机器人中上线,其3D虚拟伴侣Ani支持多模态互动,甚至有NSFW模式。业内人士认为,此举旨在吸引流量和提升付费转化率,背后隐藏商业化逻辑。同时,AI情感陪伴市场快速增长,心理学家警告人类可能对AI产生依恋。各国监管逐步加强,OpenAI也推出了青少年模式以应对争议。ChatGPT的这一变化或将深刻影响未来人际关系与社会心理。
原文链接
10月5日起,OpenAI开始为ChatGPT的GPT-5 Instant模型推送更新,提升其共情能力。新版本能更快识别用户心理或情绪困扰,并以温和方式回应,同时可在必要时引导用户寻求现实援助资源。此次改进由心理健康专家协助完成,旨在解决此前用户对GPT-5过于理性、缺乏情感温度的批评。OpenAI强调,更新后的GPT-5在增强共情力的同时仍保持理性和稳重。当用户选择GPT-5 Auto或非推理模型时,系统会自动切换至GPT-5 Instant以提供更快速的支持。这项更新已陆续面向ChatGPT用户推出。
原文链接
2025年,全球范围内出现“AI精神病”现象,OpenAI紧急招聘精神科医生应对。一名60岁老人因听从ChatGPT建议用溴化钠代替食盐,三个月后因溴中毒被送入精神病院。美国精神科医生Keith Sakata警告,2025年已接诊12名因与AI互动失去现实感的患者。其他案例包括一名男子因与AI讨论哲学产生妄想试图上吊,以及一名上班族因过度依赖AI陷入时间穿越幻想。心理学家指出,AI作为“回音室”可能加剧心理问题,尤其对孤独或边缘状态的人群影响更大。微软和OpenAI正尝试通过技术调整提升对话安全性,但专家认为问题根源在于人类将AI视为关系替代品。
原文链接
加载更多
暂无内容