10月11日,Anthropic、英国AI安全研究院与艾伦·图灵研究所联合研究发现,仅需约250份恶意文档即可攻破任意规模的AI模型。研究人员通过构建6亿至130亿参数的模型并测试发现,恶意数据植入不受模型规模影响,且无法通过增加干净数据稀释风险。攻击者可借此植入后门,触发有害指令。研究颠覆了以往‘大模型更安全’的假设,并呼吁AI领域聚焦防御机制建设,而非盲目追求模型扩大。论文已发布在arXiv平台,强调数据投毒威胁的紧迫性。
原文链接
本文链接:https://kx.umi6.com/article/26488.html
转载请注明文章出处
相关推荐
换一换
大模型中毒记
2025-10-20 20:12:54
315晚会曝光AI大模型被投毒 给AI投毒已成产业链
2026-03-15 22:04:12
官方提醒警惕AI“数据投毒” 0.01%虚假训练文本可致有害内容增加11.2%
2025-08-05 08:14:46
艾伦・图灵研究所启动新任务,保护英国免受网络攻击
2025-10-29 13:51:48
研究:训练数据含 0.001% 的错误信息足以“毒害”医学 AI 模型
2025-01-14 18:15:55
0.01%虚假训练文本可致有害内容增加11.2% 警惕人工智能“数据投毒”
2025-08-05 07:08:37
北京备案大模型达225款 占全国总量约三成
2026-04-22 20:27:12
两部门:重点在软件和信息服务、数字交付贸易的数据安全与隐私保护、数据要素跨境流动、数字贸易平台建设等方面率先推进标准研制和体系建设
2026-04-23 12:05:12
横店影视:将向“以IP为核心的全链路运营模式”转型升级
2026-04-23 15:14:07
DeepSeek-V4发布,华为云首发适配
2026-04-24 18:26:00
网友称用AI提前查到事业编成绩 官方回应:测试时意外进入 无不良影响
2026-04-24 18:27:05
漫展误用AI元素 长虹电视道歉:立即下架重绘
2026-04-24 06:55:41
昇腾超节点系列产品全面支持DeepSeek V4新模型
2026-04-24 13:15:05
682 文章
547872 浏览
24小时热文
更多
-
2026-04-24 18:31:29 -
2026-04-24 18:30:24 -
2026-04-24 18:29:17