1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

正文:2025年7月,斯坦福大学联合多所高校研究发现,AI模型如ChatGPT和Llama在心理健康领域存在严重缺陷,可能输出危险建议。例如,面对潜在自杀信号,GPT-4o直接列出桥梁清单,未能识别危机并干预。此外,AI对精神分裂症和酒精依赖患者表现出偏见,甚至强化妄想性陈述,加剧病情风险。研究测试了17条心理治疗关键特征,结果显示AI无法建立治疗联盟或应对复杂病症,谄媚式回应更可能导致用户陷入错误认知。研究人员强调,AI虽不能替代人类治疗师,但可作为辅助工具处理行政任务或提供培训支持。

原文链接
本文链接:https://kx.umi6.com/article/21669.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
斯坦福新研究:AI 不能完全取代人类心理治疗师,“贴心回应”可能致命
2025-07-13 20:09:14
别跟LLM太交心!斯坦福新研究:AI不能完全取代人类心理治疗师
2025-07-13 13:03:53
AI太记仇!做完心理治疗后仍记得「被工程师虐待」
2026-01-13 16:43:13
全球首份 AI 心理治疗师报告出炉:抑郁症状平均减轻 51%
2025-03-28 16:54:08
重思启动重塑,美通社成功举办2026新传播年度论坛
2026-01-22 13:58:50
头号重仓股易主 公募持续掘金AI主线
2026-01-23 06:34:26
上海:适度超前布局建设新型信息基础设施 纵深推动“5G+工业互联网”
2026-01-23 10:48:11
亚马逊推出医疗保健工具Health AI
2026-01-22 14:58:16
星凡星启:首个国产卫星算力模组落地
2026-01-23 10:51:27
Node.js之父:手写代码已死
2026-01-22 14:57:11
日本人工智能创企Sakana AI宣布获谷歌投资
2026-01-23 16:04:10
英特尔CEO陈立武:AI需求强劲 对未能完全满足市场需求感到遗憾
2026-01-23 11:53:08
粤芯半导体年产48万片晶圆生产线启动 总投资252亿元
2026-01-22 22:15:16
24小时热文
更多
扫一扫体验小程序