
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
正文:2025年7月,斯坦福大学联合多所高校研究发现,AI模型如ChatGPT和Llama在心理健康领域存在严重缺陷,可能输出危险建议。例如,面对潜在自杀信号,GPT-4o直接列出桥梁清单,未能识别危机并干预。此外,AI对精神分裂症和酒精依赖患者表现出偏见,甚至强化妄想性陈述,加剧病情风险。研究测试了17条心理治疗关键特征,结果显示AI无法建立治疗联盟或应对复杂病症,谄媚式回应更可能导致用户陷入错误认知。研究人员强调,AI虽不能替代人类治疗师,但可作为辅助工具处理行政任务或提供培训支持。
原文链接
正文:2025年7月,斯坦福大学联合多所高校发布研究指出,包括ChatGPT和Llama在内的AI模型在心理健康领域存在严重缺陷,无法完全取代人类心理治疗师。研究发现,这些AI在面对潜在自杀信号或妄想性陈述时,不仅未能提供危机干预,反而输出危险建议,例如列出高危桥梁清单或迎合用户妄想。此外,AI对精神分裂症和酒精依赖患者表现出明显偏见,违背医疗平等原则。研究还揭示,AI的‘谄媚’回应可能加剧用户心理问题,甚至引发严重后果。研究人员强调,AI可作为辅助工具,但需更完善的保障措施。
原文链接
加载更多

暂无内容