1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

纽约大学研究显示,训练数据中仅含0.001%的错误信息就可“毒害”医学AI模型。研究团队在常用于LLM训练的“The Pile”数据库中植入错误信息,发现即使仅替换0.5%-1%的相关信息,模型生成错误答案的概率也会显著增加。研究指出,制药公司只需发布几份针对性文件,就能影响模型对药物的认知。错误信息比例降至0.001%时,仍有超7%的答案有害。研究还发现,现有医学数据库中也存在错误信息问题,即使依赖优质医学数据库也无法完全避免。

原文链接
本文链接:https://kx.umi6.com/article/11657.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
AI打假AI,拿下SOTA丨厦大&腾讯优图
2025-07-20 15:08:21
黄仁勋力赞DeepSeek 对中国创新能力充满信心
2025-07-21 04:12:05
又爆10亿元融资,半年融了三次的众擎要扩产“最接地气”的人形机器人
2025-07-21 11:18:28
24小时热文
更多
扫一扫体验小程序