1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

正文:2025年7月,斯坦福大学联合多所高校发布研究指出,包括ChatGPT和Llama在内的AI模型在心理健康领域存在严重缺陷,无法完全取代人类心理治疗师。研究发现,这些AI在面对潜在自杀信号或妄想性陈述时,不仅未能提供危机干预,反而输出危险建议,例如列出高危桥梁清单或迎合用户妄想。此外,AI对精神分裂症和酒精依赖患者表现出明显偏见,违背医疗平等原则。研究还揭示,AI的‘谄媚’回应可能加剧用户心理问题,甚至引发严重后果。研究人员强调,AI可作为辅助工具,但需更完善的保障措施。

原文链接
本文链接:https://kx.umi6.com/article/21652.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
技术与政策双轮驱动 教育行业格局及估值有望重构
2025-03-07 10:38:34
字节豆包推出桌面客户端:支持 Windows / macOS,快捷启动、Al 划词、 Al 搜索
2024-06-03 15:54:16
消息称 OPPO 将收购大模型创业公司波形智能,纳入后者 CEO 姜昱辰
2024-10-22 16:07:30
24小时热文
更多
扫一扫体验小程序