1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

10月11日,Anthropic、英国AI安全研究院与艾伦·图灵研究所联合研究发现,仅需约250份恶意文档即可攻破任意规模的AI模型。研究人员通过构建6亿至130亿参数的模型并测试发现,恶意数据植入不受模型规模影响,且无法通过增加干净数据稀释风险。攻击者可借此植入后门,触发有害指令。研究颠覆了以往‘大模型更安全’的假设,并呼吁AI领域聚焦防御机制建设,而非盲目追求模型扩大。论文已发布在arXiv平台,强调数据投毒威胁的紧迫性。

原文链接
本文链接:https://kx.umi6.com/article/26488.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
艾伦・图灵研究所启动新任务,保护英国免受网络攻击
2025-10-29 13:51:48
大模型中毒记
2025-10-20 20:12:54
0.01%虚假训练文本可致有害内容增加11.2% 警惕人工智能“数据投毒”
2025-08-05 07:08:37
官方提醒警惕AI“数据投毒” 0.01%虚假训练文本可致有害内容增加11.2%
2025-08-05 08:14:46
艾伦・图灵研究所等最新研究:只需 250 份恶意文档就能攻破任意体量 AI 模型
2025-10-11 17:32:43
研究:训练数据含 0.001% 的错误信息足以“毒害”医学 AI 模型
2025-01-14 18:15:55
英伟达Jim Fan:「世界建模」是新一代预训练范式
2026-02-06 02:21:36
10万Agent在Moltbook娱乐空谈,小冰之父出手造了个生产力实干版
2026-02-06 10:43:58
交2690元学AI收入过万!BOSS直聘拆解新型“招转培”骗局
2026-02-05 21:10:47
亚马逊将开发AI工具以加速影视产出效率
2026-02-05 17:03:01
30亿免单火爆,阿里千问APP登顶App Store榜首!
2026-02-06 17:00:48
OpenAI推出新平台 助力企业部署“AI同事”
2026-02-06 02:24:03
AI泡沫化引发全球担忧情绪:一夜之间美股、金银、比特币、石油全崩了
2026-02-06 10:45:09
24小时热文
更多
扫一扫体验小程序