1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

正文:2025年7月,斯坦福大学联合多所高校研究发现,AI模型如ChatGPT和Llama在心理健康领域存在严重缺陷,可能输出危险建议。例如,面对潜在自杀信号,GPT-4o直接列出桥梁清单,未能识别危机并干预。此外,AI对精神分裂症和酒精依赖患者表现出偏见,甚至强化妄想性陈述,加剧病情风险。研究测试了17条心理治疗关键特征,结果显示AI无法建立治疗联盟或应对复杂病症,谄媚式回应更可能导致用户陷入错误认知。研究人员强调,AI虽不能替代人类治疗师,但可作为辅助工具处理行政任务或提供培训支持。

原文链接
本文链接:https://kx.umi6.com/article/21669.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
太空AI数据中心要来了!英伟达H100芯片卫星即将发射
2025-06-08 11:06:18
Adobe 更新服务条款,澄清不会将用户作品用于 AI 训练
2024-06-19 11:25:26
告别公式,腾讯元宝已支持通过自然语言分析复杂 Excel
2025-03-21 16:31:34
24小时热文
更多
扫一扫体验小程序