近期研究发现,AI在医疗领域的应用可能加剧‘看人下菜碟’的问题。美国研究显示,标注为高收入者更易获得高级检查机会,而中低收入或无住房者常被推荐紧急护理或侵入性干预。这源于投喂AI的脏数据及模型固有偏见,可能导致健康差距扩大及资源浪费。尽管人机对齐工具如RAG、RLHF能部分缓解,但生成式AI本质仍是概率模型,难以彻底消除偏见。解决之道需依赖医学进步与数据完善,同时推动以患者整体为中心的医疗模式转型,减少过度诊疗并提升诊断透明度。
原文链接
本文链接:https://kx.umi6.com/article/19648.html
转载请注明文章出处
相关推荐
.png)
换一换
媒体探营|WAIC 2024将于7月4日开幕,媒体记者提前探营
2024-06-24 13:23:38
Llama 3.1磁力链提前泄露,开源模型王座一夜易主,GPT-4o被超越
2024-07-23 12:59:35
AI被质疑冲击文科就业 武汉大学校长:不存在AI过度使用问题 不会缩减文科
2025-05-16 17:58:55
427 文章
61069 浏览
24小时热文
更多

-
2025-07-19 07:49:30
-
2025-07-18 23:46:25
-
2025-07-18 22:47:06