1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

纽约大学研究显示,训练数据中仅含0.001%的错误信息就可“毒害”医学AI模型。研究团队在常用于LLM训练的“The Pile”数据库中植入错误信息,发现即使仅替换0.5%-1%的相关信息,模型生成错误答案的概率也会显著增加。研究指出,制药公司只需发布几份针对性文件,就能影响模型对药物的认知。错误信息比例降至0.001%时,仍有超7%的答案有害。研究还发现,现有医学数据库中也存在错误信息问题,即使依赖优质医学数据库也无法完全避免。

原文链接
本文链接:https://kx.umi6.com/article/11657.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
0.01%虚假训练文本可致有害内容增加11.2% 警惕人工智能“数据投毒”
2025-08-05 07:08:37
大模型中毒记
2025-10-20 20:12:54
研究:训练数据含 0.001% 的错误信息足以“毒害”医学 AI 模型
2025-01-14 18:15:55
一系列离谱答案出现后 谷歌对“AI概览”功能进行了紧急修复
2024-06-01 04:23:48
官方提醒警惕AI“数据投毒” 0.01%虚假训练文本可致有害内容增加11.2%
2025-08-05 08:14:46
艾伦・图灵研究所等最新研究:只需 250 份恶意文档就能攻破任意体量 AI 模型
2025-10-11 17:32:43
黄仁勋将在GTC华盛顿特区峰会发布主题演讲
2025-10-27 15:09:17
蚂蚁集团投资AI科技硬件公司艾德未来智能
2025-10-27 10:58:39
半年2亿营收,400亿市值,它是又一个「寒武纪」?
2025-10-27 07:47:08
AI抢工作!亚马逊据称拟裁员约3万,或创2022年来最大规模
2025-10-28 09:42:30
科创板ETF目前已达105只 总规模3000亿元
2025-10-27 16:13:33
百度旗下基金等入股深朴智能 后者为AI模型技术研发商
2025-10-28 10:53:09
豆包们,开始「上链接」
2025-10-27 10:54:08
24小时热文
更多
扫一扫体验小程序