纽约大学研究显示,训练数据中仅含0.001%的错误信息就可“毒害”医学AI模型。研究团队在常用于LLM训练的“The Pile”数据库中植入错误信息,发现即使仅替换0.5%-1%的相关信息,模型生成错误答案的概率也会显著增加。研究指出,制药公司只需发布几份针对性文件,就能影响模型对药物的认知。错误信息比例降至0.001%时,仍有超7%的答案有害。研究还发现,现有医学数据库中也存在错误信息问题,即使依赖优质医学数据库也无法完全避免。
原文链接
本文链接:https://kx.umi6.com/article/11657.html
转载请注明文章出处
相关推荐
.png)
换一换
AI打假AI,拿下SOTA丨厦大&腾讯优图
2025-07-20 15:08:21
黄仁勋力赞DeepSeek 对中国创新能力充满信心
2025-07-21 04:12:05
又爆10亿元融资,半年融了三次的众擎要扩产“最接地气”的人形机器人
2025-07-21 11:18:28
436 文章
64972 浏览
24小时热文
更多

-
2025-07-22 00:23:59
-
2025-07-21 22:23:40
-
2025-07-21 21:25:24