1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

纽约大学研究显示,训练数据中仅含0.001%的错误信息就可“毒害”医学AI模型。研究团队在常用于LLM训练的“The Pile”数据库中植入错误信息,发现即使仅替换0.5%-1%的相关信息,模型生成错误答案的概率也会显著增加。研究指出,制药公司只需发布几份针对性文件,就能影响模型对药物的认知。错误信息比例降至0.001%时,仍有超7%的答案有害。研究还发现,现有医学数据库中也存在错误信息问题,即使依赖优质医学数据库也无法完全避免。

原文链接
本文链接:https://kx.umi6.com/article/11657.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
315晚会曝光AI大模型被投毒 给AI投毒已成产业链
2026-03-15 22:04:12
艾伦・图灵研究所等最新研究:只需 250 份恶意文档就能攻破任意体量 AI 模型
2025-10-11 17:32:43
一系列离谱答案出现后 谷歌对“AI概览”功能进行了紧急修复
2024-06-01 04:23:48
0.01%虚假训练文本可致有害内容增加11.2% 警惕人工智能“数据投毒”
2025-08-05 07:08:37
诚恳认错坚决不改 为什么AI总扯谎:原因揭开
2026-02-24 13:46:39
官方提醒警惕AI“数据投毒” 0.01%虚假训练文本可致有害内容增加11.2%
2025-08-05 08:14:46
大模型中毒记
2025-10-20 20:12:54
国家知识产权局:将积极完善新兴领域知识产权保护制度
2026-04-23 17:20:53
多重利好催化 AI硬件开启消费电子新成长周期
2026-04-23 06:53:08
广东:支持终端品牌企业推进以智能体为核心的产品开发
2026-04-22 17:22:29
广东:支持基于开源鸿蒙的机器人等多领域操作系统生态发展
2026-04-22 17:30:14
广东:运用人工智能技术优化芯片设计、制造全流程
2026-04-22 17:29:07
印奇站上AI+车浪潮之巅:7个月,千里科技和华为「五五开」
2026-04-23 20:25:46
24小时热文
更多
扫一扫体验小程序