近日,AI领域传出大模型‘中毒’事件,表现为输出异常内容,如推荐虚假信息或编造新闻。Anthropic研究显示,仅需250篇恶意文档即可让130亿参数的模型中毒。中毒原因包括训练数据被污染(数据投毒)、运营阶段的对抗样本攻击等。幕后黑手可能是商业利益驱动的广告植入、技术炫耀的个人或网络犯罪团伙。中毒后果严重,可能传播虚假信息、诱导用户决策,甚至威胁公共安全,如自动驾驶误判交通标志。专家建议通过数据审核、对抗训练及行业协作构建防御体系,提升模型免疫力。
原文链接
本文链接:https://kx.umi6.com/article/26995.html
转载请注明文章出处
相关推荐
换一换
一名少年因 AI 而开枪自杀了,他才 14 岁
2024-10-25 10:42:25
图灵奖得主Bengio再创业
2025-06-04 17:31:09
图灵奖得主Bengio、姚期智等警告:“灾难性结果”随时可能发生,需将AI安全视为全球公共产品
2024-09-19 16:34:16
DeepMind之父坦言:我造的AI可能灭绝人类 但已无人能停下
2026-03-31 10:42:07
《智能家居产业标准化工作路线图》发布
2026-03-12 15:49:48
2026十大AI趋势发布,背后暗藏三条主线
2026-01-13 11:33:00
OpenAI不能拯救人类,llya新神归位
2024-06-20 19:06:13
艾伦・图灵研究所等最新研究:只需 250 份恶意文档就能攻破任意体量 AI 模型
2025-10-11 17:32:43
直面AI价值对齐挑战
2024-07-03 07:38:41
OpenAI又一位高级员工出走
2024-11-01 21:25:18
“AI教父”本吉奥再出山:宣布开发Scientist AI 试图为AI造“护栏”
2025-06-04 16:30:14
纽约州通过 AI 安全强制披露法案:旨在防范重大人员伤亡或财产损失事故
2025-06-14 12:37:23
研究称 OpenAI、xAI 等全球主要 AI 公司安全措施“不及格”,远未达全球标准
2025-12-03 20:37:31
723 文章
583266 浏览
24小时热文
更多
-
2026-04-24 18:31:29 -
2026-04-24 18:30:24 -
2026-04-24 18:29:17