近日,AI领域传出大模型‘中毒’事件,表现为输出异常内容,如推荐虚假信息或编造新闻。Anthropic研究显示,仅需250篇恶意文档即可让130亿参数的模型中毒。中毒原因包括训练数据被污染(数据投毒)、运营阶段的对抗样本攻击等。幕后黑手可能是商业利益驱动的广告植入、技术炫耀的个人或网络犯罪团伙。中毒后果严重,可能传播虚假信息、诱导用户决策,甚至威胁公共安全,如自动驾驶误判交通标志。专家建议通过数据审核、对抗训练及行业协作构建防御体系,提升模型免疫力。
原文链接
本文链接:https://kx.umi6.com/article/26995.html
转载请注明文章出处
相关推荐
换一换
Hinton突然对AGI乐观了!“Ilya让他看到了什么吧…”
2025-09-04 15:01:08
艾伦・图灵研究所等最新研究:只需 250 份恶意文档就能攻破任意体量 AI 模型
2025-10-11 17:32:43
123页Claude 4行为报告发布:人类干坏事,会被它反手一个举报?!
2025-05-23 17:25:48
官方提醒警惕AI“数据投毒” 0.01%虚假训练文本可致有害内容增加11.2%
2025-08-05 08:14:46
Yoshua Bengio、姚期智、张亚勤:AI安全是“全球公共产品”,全球合作刻不容缓
2024-09-18 11:34:25
谷歌拉响通用人工智能警报,首次公开 AI 安全防御蓝图
2025-04-04 11:07:46
OpenAI、Anthropic 研究人员齐声谴责 xAI:安全文化“完全不负责任”
2025-07-17 16:29:31
2026十大AI趋势发布,背后暗藏三条主线
2026-01-13 11:33:00
研究称 OpenAI、xAI 等全球主要 AI 公司安全措施“不及格”,远未达全球标准
2025-12-03 20:37:31
2030年AGI到来?谷歌DeepMind写了份“人类自保指南”
2025-04-07 14:01:02
AI「自我复制」能力曝光!RepliBench警示:大模型正在学会伪造身份
2025-05-07 10:04:14
GPT-4o过于谄媚,“赛博舔狗”惹争议
2025-05-01 16:32:29
大模型中毒记
2025-10-20 20:12:54
688 文章
486104 浏览
24小时热文
更多
-
2026-03-09 21:13:27 -
2026-03-09 20:09:26 -
2026-03-09 20:09:18