纽约大学研究显示,训练数据中仅含0.001%的错误信息就可“毒害”医学AI模型。研究团队在常用于LLM训练的“The Pile”数据库中植入错误信息,发现即使仅替换0.5%-1%的相关信息,模型生成错误答案的概率也会显著增加。研究指出,制药公司只需发布几份针对性文件,就能影响模型对药物的认知。错误信息比例降至0.001%时,仍有超7%的答案有害。研究还发现,现有医学数据库中也存在错误信息问题,即使依赖优质医学数据库也无法完全避免。
原文链接
本文链接:https://kx.umi6.com/article/11657.html
转载请注明文章出处
相关推荐
换一换
官方提醒警惕AI“数据投毒” 0.01%虚假训练文本可致有害内容增加11.2%
2025-08-05 08:14:46
大模型中毒记
2025-10-20 20:12:54
一系列离谱答案出现后 谷歌对“AI概览”功能进行了紧急修复
2024-06-01 04:23:48
0.01%虚假训练文本可致有害内容增加11.2% 警惕人工智能“数据投毒”
2025-08-05 07:08:37
研究:训练数据含 0.001% 的错误信息足以“毒害”医学 AI 模型
2025-01-14 18:15:55
艾伦・图灵研究所等最新研究:只需 250 份恶意文档就能攻破任意体量 AI 模型
2025-10-11 17:32:43
元宝AI生图功能日均调用增长30倍
2026-02-06 22:16:33
上海将设立AI青年创业基金
2026-02-07 14:04:02
特斯拉中国AI训练中心已投入使用
2026-02-06 20:13:16
Anthropic发布擅长金融研究的新人工智能模型 金融服务股应声下跌
2026-02-06 03:31:07
亚马逊将开发AI工具以加速影视产出效率
2026-02-05 17:03:01
上海市经信委:在上海好模型不缺算力 好应用不缺语料 好产品不缺芯片
2026-02-07 20:23:14
SaaS的末日已经来了?
2026-02-07 09:49:00
699 文章
473956 浏览
24小时热文
更多
-
2026-02-07 22:25:40 -
2026-02-07 20:23:14 -
2026-02-07 20:22:16