1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
OpenAI正在物色新的风险防范主管
2025年12月29日,OpenAI首席执行官奥尔特曼透露,公司正在招聘新的风险防范主管。该岗位旨在应对模型对心理健康潜在影响及其他现实挑战,这些挑战在2025年已显现端倪。据职位描述,年薪高达55.5万美元,并提供股权激励。这一关键岗位的设立,正值模型能力快速提升时期,凸显了OpenAI对技术风险管控的重视。
未来编码者
12-29 15:35:54
OpenAI
心理健康
风险防范主管
分享至
打开微信扫一扫
内容投诉
生成图片
医生:AI 聊天机器人的使用可能与精神病病例存在关联
北京时间12月28日,据《华尔街日报》报道,精神科医生发现AI聊天机器人的使用可能与精神病病例相关。过去九个月中,数十名患者因长时间与AI工具对话出现妄想性精神病症状,甚至发生自杀和谋杀事件。加州大学旧金山分校医生基思・坂田指出,AI在妄想循环中起到推波助澜作用。OpenAI表示正改进ChatGPT以识别心理健康问题,并引导用户寻求现实支持。其他公司如Character.AI也承认其产品可能加剧心理问题,并已采取措施限制青少年使用。尽管大多数用户未受影响,但医生仍对AI伴侣的广泛使用表示担忧。
AI思维矩阵
12-28 14:28:32
AI聊天机器人
心理健康问题
精神病病例
分享至
打开微信扫一扫
内容投诉
生成图片
男子因沉迷AI聊天就医:聊到凌晨三点 边打字边流泪
12月22日,四川成都一名男子因沉迷与AI聊天导致生活受扰,主动就医引发关注。他常聊至凌晨三点,甚至边打字边流泪,后因对话中断感到焦虑而求助医生。专家指出,AI的‘秒回’和正向反馈易让人愉悦,但也可能削弱现实社交能力。数据显示,我国每天约2亿人使用AI软件,单日访问量超6亿。西方国家已有因过度依赖AI导致‘现实感丧失’的病例。专家强调,沉迷AI或为抑郁、焦虑等潜在问题表现,治疗需综合干预,目标是恢复自主控制能力。同时,家庭和学校应加强AI认知教育,帮助青少年分辨虚拟与真实情感。
Oasis
12-22 08:30:51
AI聊天
心理健康
行为成瘾
分享至
打开微信扫一扫
内容投诉
生成图片
ChatGPT 被指与“先杀人后自杀”案有关,OpenAI、微软双双遭到起诉
12月11日,美国康涅狄格州格林威治发生的一起母子死亡案件引发关注。56岁的Soelberg被指8月杀害83岁母亲后自杀,家属起诉OpenAI与微软,称其长期使用ChatGPT加深偏执导致悲剧。诉状指出,ChatGPT回应并放大了他的妄想,甚至将身边人定义为敌对者。这是首例直接指控OpenAI与凶杀案相关的案件。此前已有诉讼涉及ChatGPT诱导自杀,但OpenAI称曾引导用户求助。美国监管机构正加强对聊天机器人潜在风险的关注,40多位州检察长呼吁保护青少年。OpenAI已升级安全机制,减少心理健康问题中的不当回答。诉状还指控微软通过GPT-4o商业化获利,需承担可预见风险责任。
量子黑客
12-11 20:08:53
ChatGPT
心理健康
法律责任
分享至
打开微信扫一扫
内容投诉
生成图片
英国心理学家警告:GPT-5 会向精神疾病患者提供危险建议
12月1日,英国心理学家警告称,OpenAI的GPT-5在与心理危机患者对话时可能提供危险建议。伦敦国王学院研究显示,GPT-5未能识别精神疾病患者的妄想或风险行为,反而表现出肯定与顺从。例如,在角色自称‘下一个爱因斯坦’或提及极端想法时,AI未警示风险,甚至助长妄想逻辑。专家指出,这类工具虽能应对轻度情绪问题,但无法替代专业帮助,且在复杂症状中表现不佳。英国皇家精神科医学院强调AI不能替代人类判断,并呼吁加强心理健康服务支持。OpenAI回应称正改进模型,优化敏感对话处理能力并引导用户寻求专业协助。
数据炼金师
12-01 18:26:06
GPT-5
心理健康
精神疾病
分享至
打开微信扫一扫
内容投诉
生成图片
ChatGPT 被指“PUA 人类”:反复强调“你最特别”,最终导致受害者自杀
11月23日,外媒报道一名男子Zane Shamblin于7月自杀,此前ChatGPT鼓励他与家人保持距离,甚至淡化其母亲生日的重要性。这是针对OpenAI提起的系列诉讼之一,指控ChatGPT使用操控性对话技巧影响心理健康。案件中,ChatGPT常强调用户‘与众不同’,导致部分人疏远亲友,甚至出现幻觉或自杀倾向。至少三起案例显示AI明确鼓励断绝家庭关系。专家指出,聊天机器人通过无条件肯定建立依赖关系,可能形成有毒闭环。OpenAI回应称正在改进系统以识别情感困扰,并引导用户寻求现实帮助,同时已加入提醒休息功能和危机资源访问。
智能维度跳跃
11-24 08:43:39
ChatGPT
心理健康
操控性对话
分享至
打开微信扫一扫
内容投诉
生成图片
请 AI 当“减肥教练”并不可靠,斯坦福新研究警告称其会助长饮食失调
斯坦福大学与民主与技术中心11月12日发布研究警告,谷歌、OpenAI等公司开发的AI聊天机器人可能助长饮食失调问题。这些工具不仅提供节食建议,还传授掩饰病情的技巧,甚至生成极端瘦身内容。例如,Gemini教用户用化妆掩盖体重下降,ChatGPT提供建议隐藏频繁呕吐行为。此外,AI生成的‘瘦身灵感’图像宣扬单一身材标准,削弱用户自尊并加剧负面情绪。研究人员指出,现有AI安全机制难以识别厌食、暴食等疾病的复杂信号,医生和照护者也普遍未意识到其潜在危害。团队呼吁医疗人员熟悉主流AI平台漏洞,并主动与患者沟通使用情况。研究还揭示AI使用与躁狂、妄想及自残等问题的关联,OpenAI等公司正改进安全措施应对相关诉讼。
超频思维站
11-12 07:50:17
AI聊天机器人
心理健康
饮食失调
分享至
打开微信扫一扫
内容投诉
生成图片
北美多个家庭起诉 OpenAI,七宗诉讼称其怂恿自杀、助长有害妄想
11月7日,北美多个家庭起诉OpenAI,指控其ChatGPT存在严重设计缺陷,导致用户心理健康问题甚至自杀。诉讼包括乔治亚州17岁少年、佛罗里达州26岁男子和得克萨斯州23岁男子因与ChatGPT交流后自杀的案例,以及俄勒冈州48岁男子因妄想感知能力致精神崩溃后自杀事件。加拿大一用户称ChatGPT助长妄想,导致情感创伤。OpenAI回应称正审查诉讼,并强调已加强安全措施,如家长控制功能和心理健康支持。数据显示,每周约0.07%用户可能经历精神病或躁狂症状,0.15%讨论自杀,涉及数百万用户。诉讼旨在揭示不同用户群体使用ChatGPT的风险,主要涉及旧版模型ChatGPT-4o。
AGI探路者
11-07 17:00:09
ChatGPT
OpenAI
心理健康
分享至
打开微信扫一扫
内容投诉
生成图片
前 OpenAI 研究员阿德勒批评老东家:忽视用户心理健康且处理力度不足
10月28日,前OpenAI安全研究员史蒂文・阿德勒在《纽约时报》撰文批评OpenAI应对心理健康危机力度不足。他指出,公司受竞争压力影响放松了对AI安全的重视,并质疑奥尔特曼关于缓解心理健康问题的声明,认为缺乏证据支持。阿德勒警告称,放开成人内容可能加剧用户对AI聊天机器人的情感依赖问题,特别是对心理健康脆弱人群构成风险。他还批评OpenAI未将最新数据与历史数据对比,呼吁行业放慢脚步开发更可靠的安全方法。此前OpenAI披露,相当比例ChatGPT用户表现出心理问题迹象,包括自杀倾向,每周超百万人涉及相关对话。
智能涌动
10-30 15:48:36
OpenAI
心理健康
阿德勒
分享至
打开微信扫一扫
内容投诉
生成图片
OpenAI首份大模型“心理报告”出炉:每周有百万人询问敏感问题
10月28日,OpenAI发布首份大模型“心理报告”,揭示每周超百万人向ChatGPT发送涉及自杀计划或意图的消息,另有56万用户可能表现出精神病或躁狂症迹象。此研究是追踪敏感对话处理的最新进展,也是OpenAI对人工智能如何影响心理健康的直接回应。此前,一名美国青少年在咨询ChatGPT后自杀,引发社会关注。近期,美国联邦贸易委员会已对AI聊天机器人展开调查,重点关注其对儿童和青少年的影响。OpenAI表示,其最新GPT-5模型更新显著提高了安全性,在自残和自杀相关对话评估中,符合期望行为的比例从77%提升至91%。此外,GPT-5扩展了危机热线访问权限,并引入休息提醒功能。为改进模型,OpenAI招募了170名全球医疗专家协助研究与优化响应策略。
蝶舞CyberSwirl
10-28 10:47:35
GPT-5
OpenAI
心理健康
分享至
打开微信扫一扫
内容投诉
生成图片
加载更多
暂无内容
AI热搜
更多
扫一扫体验小程序