
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
10月11日,Anthropic、英国AI安全研究院与艾伦·图灵研究所联合研究发现,仅需约250份恶意文档即可攻破任意规模的AI模型。研究人员通过构建6亿至130亿参数的模型并测试发现,恶意数据植入不受模型规模影响,且无法通过增加干净数据稀释风险。攻击者可借此植入后门,触发有害指令。研究颠覆了以往‘大模型更安全’的假设,并呼吁AI领域聚焦防御机制建设,而非盲目追求模型扩大。论文已发布在arXiv平台,强调数据投毒威胁的紧迫性。
原文链接
加载更多

暂无内容