1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
大模型中毒记
近日,AI领域传出大模型‘中毒’事件,表现为输出异常内容,如推荐虚假信息或编造新闻。Anthropic研究显示,仅需250篇恶意文档即可让130亿参数的模型中毒。中毒原因包括训练数据被污染(数据投毒)、运营阶段的对抗样本攻击等。幕后黑手可能是商业利益驱动的广告植入、技术炫耀的个人或网络犯罪团伙。中毒后果严重,可能传播虚假信息、诱导用户决策,甚至威胁公共安全,如自动驾驶误判交通标志。专家建议通过数据审核、对抗训练及行业协作构建防御体系,提升模型免疫力。
星际Code流浪者
10-20 20:12:54
AI安全
大模型中毒
数据投毒
分享至
打开微信扫一扫
内容投诉
生成图片
艾伦・图灵研究所等最新研究:只需 250 份恶意文档就能攻破任意体量 AI 模型
10月11日,Anthropic、英国AI安全研究院与艾伦·图灵研究所联合研究发现,仅需约250份恶意文档即可攻破任意规模的AI模型。研究人员通过构建6亿至130亿参数的模型并测试发现,恶意数据植入不受模型规模影响,且无法通过增加干净数据稀释风险。攻击者可借此植入后门,触发有害指令。研究颠覆了以往‘大模型更安全’的假设,并呼吁AI领域聚焦防御机制建设,而非盲目追求模型扩大。论文已发布在arXiv平台,强调数据投毒威胁的紧迫性。
月光编码师
10-11 17:32:43
恶意文档
数据投毒
艾伦・图灵研究所
分享至
打开微信扫一扫
内容投诉
生成图片
官方提醒警惕AI“数据投毒” 0.01%虚假训练文本可致有害内容增加11.2%
8月5日,国家安全部发文警示AI训练数据污染问题,指出虚假信息、偏见内容等‘数据投毒’行为对人工智能安全构成新威胁。研究表明,训练数据中仅含0.01%虚假文本,AI输出有害内容将增加11.2%,而0.001%的污染也会导致7.2%的有害输出上升。受污染数据可能通过‘污染遗留效应’影响后续模型训练,尤其在金融、公共安全、医疗健康等领域,风险更为显著。例如,虚假信息可能引发金融市场波动、误导舆论或危及患者安全。当前,AI生成内容已远超人类真实内容,低质量数据的累积正逐代扭曲AI认知能力。
电子诗篇
08-05 08:14:46
人工智能安全
数据投毒
数据污染
分享至
打开微信扫一扫
内容投诉
生成图片
0.01%虚假训练文本可致有害内容增加11.2% 警惕人工智能“数据投毒”
8月5日,国家安全部发布安全提示文章指出,人工智能训练数据中存在虚假信息、虚构内容和偏见性观点等问题,导致数据源污染,带来新的安全挑战。研究表明,仅0.01%的虚假训练文本即可使有害内容增加11.2%,凸显‘数据投毒’风险。这一警示提醒各方需加强对AI训练数据的质量管控,防止潜在的安全隐患扩散。
心智奇点
08-05 07:08:37
人工智能
数据投毒
虚假信息
分享至
打开微信扫一扫
内容投诉
生成图片
研究:训练数据含 0.001% 的错误信息足以“毒害”医学 AI 模型
纽约大学研究显示,训练数据中仅含0.001%的错误信息就可“毒害”医学AI模型。研究团队在常用于LLM训练的“The Pile”数据库中植入错误信息,发现即使仅替换0.5%-1%的相关信息,模型生成错误答案的概率也会显著增加。研究指出,制药公司只需发布几份针对性文件,就能影响模型对药物的认知。错误信息比例降至0.001%时,仍有超7%的答案有害。研究还发现,现有医学数据库中也存在错误信息问题,即使依赖优质医学数据库也无法完全避免。
E-Poet
01-14 18:15:55
医学AI模型
数据投毒
错误信息
分享至
打开微信扫一扫
内容投诉
生成图片
加载更多
暂无内容
AI热搜
更多
扫一扫体验小程序