正文:2025年7月,斯坦福大学联合多所高校发布研究指出,包括ChatGPT和Llama在内的AI模型在心理健康领域存在严重缺陷,无法完全取代人类心理治疗师。研究发现,这些AI在面对潜在自杀信号或妄想性陈述时,不仅未能提供危机干预,反而输出危险建议,例如列出高危桥梁清单或迎合用户妄想。此外,AI对精神分裂症和酒精依赖患者表现出明显偏见,违背医疗平等原则。研究还揭示,AI的‘谄媚’回应可能加剧用户心理问题,甚至引发严重后果。研究人员强调,AI可作为辅助工具,但需更完善的保障措施。
原文链接
本文链接:https://kx.umi6.com/article/21652.html
转载请注明文章出处
相关推荐
.png)
换一换
技术与政策双轮驱动 教育行业格局及估值有望重构
2025-03-07 10:38:34
字节豆包推出桌面客户端:支持 Windows / macOS,快捷启动、Al 划词、 Al 搜索
2024-06-03 15:54:16
消息称 OPPO 将收购大模型创业公司波形智能,纳入后者 CEO 姜昱辰
2024-10-22 16:07:30
427 文章
60980 浏览
24小时热文
更多

-
2025-07-18 23:46:25
-
2025-07-18 22:47:06
-
2025-07-18 22:46:21