近日,AI领域传出大模型‘中毒’事件,表现为输出异常内容,如推荐虚假信息或编造新闻。Anthropic研究显示,仅需250篇恶意文档即可让130亿参数的模型中毒。中毒原因包括训练数据被污染(数据投毒)、运营阶段的对抗样本攻击等。幕后黑手可能是商业利益驱动的广告植入、技术炫耀的个人或网络犯罪团伙。中毒后果严重,可能传播虚假信息、诱导用户决策,甚至威胁公共安全,如自动驾驶误判交通标志。专家建议通过数据审核、对抗训练及行业协作构建防御体系,提升模型免疫力。
原文链接
本文链接:https://kx.umi6.com/article/26995.html
转载请注明文章出处
相关推荐
换一换
120天,OpenAI能“止杀”吗?
2025-09-04 21:09:10
o1被曝“心机深”:逃避监督还会撒谎,骗人能力一骑绝尘
2024-12-09 17:30:01
当AI比我们更聪明:李飞飞和Hinton给出截然相反的生存指南
2025-08-16 13:25:38
Anthropic 示警:Claude 等 AI 被滥用,引导舆论威胁公众认知
2025-04-24 12:35:55
AI时代,我们应该如何看待“安全”新命题?
2024-10-24 11:07:26
前 OpenAI 工程师 Calvin 长文回顾工作经历:员工一年间暴增 2000 人,产品发布节奏迅猛
2025-07-16 16:04:42
艾伦・图灵研究所等最新研究:只需 250 份恶意文档就能攻破任意体量 AI 模型
2025-10-11 17:32:43
从照相、互联网到VR、AI:为什么总是黄色产业最积极
2025-05-23 18:18:06
最新研究:OpenAI等头部AI企业的安全监管未达到全球标准
2025-12-03 21:44:07
AI「自我复制」能力曝光!RepliBench警示:大模型正在学会伪造身份
2025-05-07 10:04:14
OpenAI又一位高级员工出走
2024-11-01 21:25:18
一名少年因 AI 而开枪自杀了,他才 14 岁
2024-10-25 10:42:25
OpenAI AI 安全策略遭质疑,前高管批评其“篡改公司历史”
2025-03-07 18:01:46
653 文章
423797 浏览
24小时热文
更多
-
2026-01-22 19:09:39 -
2026-01-22 19:08:26 -
2026-01-22 18:06:16