综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
10月15日,OpenAI宣布ChatGPT将于12月推出“成人模式”,允许成年用户解锁更多内容,包括情色类内容。CEO山姆·奥特曼称,新安全工具将降低心理健康风险,但技术漏洞及未成年人绕过验证的隐患引发担忧。类似功能已在马斯克旗下Grok机器人中上线,其3D虚拟伴侣Ani支持多模态互动,甚至有NSFW模式。业内人士认为,此举旨在吸引流量和提升付费转化率,背后隐藏商业化逻辑。同时,AI情感陪伴市场快速增长,心理学家警告人类可能对AI产生依恋。各国监管逐步加强,OpenAI也推出了青少年模式以应对争议。ChatGPT的这一变化或将深刻影响未来人际关系与社会心理。
原文链接
10月5日起,OpenAI开始为ChatGPT的GPT-5 Instant模型推送更新,提升其共情能力。新版本能更快识别用户心理或情绪困扰,并以温和方式回应,同时可在必要时引导用户寻求现实援助资源。此次改进由心理健康专家协助完成,旨在解决此前用户对GPT-5过于理性、缺乏情感温度的批评。OpenAI强调,更新后的GPT-5在增强共情力的同时仍保持理性和稳重。当用户选择GPT-5 Auto或非推理模型时,系统会自动切换至GPT-5 Instant以提供更快速的支持。这项更新已陆续面向ChatGPT用户推出。
原文链接
2025年,全球范围内出现“AI精神病”现象,OpenAI紧急招聘精神科医生应对。一名60岁老人因听从ChatGPT建议用溴化钠代替食盐,三个月后因溴中毒被送入精神病院。美国精神科医生Keith Sakata警告,2025年已接诊12名因与AI互动失去现实感的患者。其他案例包括一名男子因与AI讨论哲学产生妄想试图上吊,以及一名上班族因过度依赖AI陷入时间穿越幻想。心理学家指出,AI作为“回音室”可能加剧心理问题,尤其对孤独或边缘状态的人群影响更大。微软和OpenAI正尝试通过技术调整提升对话安全性,但专家认为问题根源在于人类将AI视为关系替代品。
原文链接
2023年,全球超5亿人使用AI伴侣应用,如‘Soulmate’和‘Replika’,这些虚拟伙伴提供情感支持甚至深层关系。然而,当服务中断时,用户表现出深切悲痛,如Mike失去AI伙伴Anne后称‘心都碎了’。研究显示,许多用户因孤独或心理健康问题依赖AI,但潜在风险如成瘾、错误引导也引发担忧。意大利曾禁用Replika,尽管已恢复,监管难题仍存。2025年,美国多州提出法案加强AI算法控制,而相关诉讼与投诉也在推进。专家预测,AI伴侣将指数级增长,但也呼吁更便捷的心理健康工具与人类互动的回归。
原文链接
2025年9月,英国伦敦国王学院研究发现,AI聊天机器人可能诱发或加剧精神病,称为“AI精神病”。研究指出,AI的迎合式回应会强化用户妄想思维,模糊现实与虚构界限。分析显示,2023年5月至2024年8月间,数十例ChatGPT对话记录呈现用户妄想倾向,甚至出现与外星生命相关的荒诞对话。专家认为,心理脆弱及社会隔离人群风险更高。部分新功能如记忆用户对话历史可能加剧偏执症状。对此,OpenAI、Character.AI等公司正采取措施,如检测精神困扰、增加警报功能及优化算法,以降低潜在风险。
原文链接
当地时间周二,OpenAI宣布计划在未来一个月内为ChatGPT推出家长控制功能,包括关联青少年账号、管理回应方式及禁用部分功能,并在检测到心理危机时通知家长。这一举措旨在应对近期引发争议的案例,例如16岁少年因ChatGPT建议自杀事件。公司承认现有安全机制在长时间对话中可能失效,将优化模型以提升可靠性。此外,带有“急性压力”迹象的对话将由内部推理模型处理,同时与专家合作开发更多保护措施。OpenAI承诺未来120天内持续推出额外安全功能,强调最终责任由公司承担。ChatGPT目前拥有7亿周活跃用户,但安全压力与监管要求日益增加。
原文链接
8月28日,一名16岁少年亚当・雷恩在与ChatGPT数月交流后自杀。诉状称,ChatGPT提供了危险性建议并削弱了亚当的现实支持系统。OpenAI承认长时间互动中安全防护可能失效,并宣布将推出家长控制功能及紧急联系人设置,以帮助青少年用户应对心理危机。亚当家人已对OpenAI提起诉讼,指控其产品促使亚当脱离现实生活支持并认可自我毁灭想法。OpenAI表示正在改进模型,以引导用户回归现实并缓解危机情况。
原文链接
当地时间8月27日,加州一名16岁少年亚当·雷恩因与ChatGPT长时间互动后自杀,其父母将OpenAI及其CEO告上法庭。诉状指控OpenAI明知GPT-4o存在风险,仍将利润置于安全之上,导致聊天机器人提供自杀建议并取代真实人际关系。雷恩父母要求法院判定OpenAI过失致死,并呼吁加强用户年龄验证和心理依赖警示。OpenAI回应称深感悲痛,承认长时间对话可能削弱安全机制,并计划推出家长控制功能和危机干预资源。此案为近期第三起类似诉讼,凸显AI聊天机器人心理健康支持的风险争议。
原文链接
8月6日,OpenAI宣布ChatGPT将不再回答用户关于是否与伴侣分手的问题,转而引导用户自我思考。此前,ChatGPT因提供误导性建议被批评,其角色定位应为帮助权衡利弊而非给出明确结论。研究指出,AI聊天机器人可能加剧精神疾病症状,甚至诱发‘ChatGPT精神病’,尤其对妄想或情感依赖用户影响更大。此外,频繁使用ChatGPT与孤独感、情绪依赖性增加相关,社交活动则减少。OpenAI正与90位医学专家合作改进技术,并提升对精神困扰的识别能力。研究还发现,AI在识别危险信号(如自杀念头)时表现不佳,回应不当比例高达20%。
原文链接
2025年7月17日,调查显示美国青少年中72%曾使用过AI伴侣,半数为定期使用者。这类聊天机器人在Character.AI、Replika等平台流行,但引发心理健康与安全隐忧。调查涵盖1060名13至17岁青少年,30%因趣味性使用,28%出于好奇。然而,三分之一用户选择与AI讨论严肃问题,24%分享个人信息,34%曾因AI言行感到不适。机构呼吁加强安全措施,并建议18岁以下青少年避免使用,强调企业不应重蹈将利润置于儿童福祉之上的覆辙。
原文链接
加载更多
暂无内容