1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

标题:计算所程学旗团队提出随机剪枝攻击策略,提升对抗样本的通用性

随着深度学习在计算机视觉领域的广泛应用,其安全性问题也日益凸显。对抗样本攻击通过在图像中加入微小扰动,可导致模型误判,例如将“限速标志”识别为“停止标志”。这种脆弱性对自动驾驶、智能安防等关键场景构成严重威胁。其中,迁移攻击尤为危险,它无需访问目标模型信息,仅通过代理模型生成对抗样本即可攻击未知模型。

针对现有迁移攻击方法对抗样本泛化能力不足的问题,中国科学院计算技术研究所程学旗团队提出了一种新方法——RaPA(随机参数剪枝攻击)。该方法通过在攻击过程中随机屏蔽模型的部分参数,生成多样化的模型变体,使对抗样本适应更多模型结构,从而显著提升其跨模型攻击能力。实验表明,RaPA在多种任务中表现优异。例如,在卷积神经网络攻击Transformer模型的场景中,RaPA将平均攻击成功率从33%提升至45%;在防御机制存在的情况下,其攻击成功率仍高达88%,远超其他方法。此外,RaPA在计算资源增加时性能提升更为显著,进一步增强了攻击效果。

研究团队还验证了RaPA在目标迁移攻击中的有效性。实验使用ImageNet兼容数据集和多种模型(如VGG16、ResNet、ViT等)进行测试,结果表明RaPA生成的对抗样本具有更强的通用性和迁移能力。与现有方法相比,RaPA不仅提升了跨架构攻击的成功率,还能与多种技术结合使用,进一步增强攻击性能。

RaPA背后的研究团队由程学旗、陈薇和朱胜宇等专家组成,他们在机器学习理论与人工智能安全领域深耕多年,致力于提升深度学习模型的鲁棒性和可信性。这一研究成果为理解模型脆弱性提供了新视角,同时也为开发更安全的AI系统提供了重要参考。

论文地址:https://arxiv.org/pdf/2504.18594

原文链接
本文链接:https://kx.umi6.com/article/33878.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
计算所程学旗团队:随机剪枝 AI 攻击策略,让对抗样本更具「通用攻击力」丨CVPR 2026
2026-03-18 15:30:18
AI球球直播喊话全人类:开源脑机接口,开源科技文明
2026-03-19 16:06:31
腾讯高管:行业别无选择 只能将成本上涨转嫁
2026-03-18 23:03:20
阶跃星辰推出桌面端StepClaw
2026-03-19 14:01:06
黄仁勋谈太空数据中心:冷却是最大难题之一 解决或需数年
2026-03-20 17:54:00
亚马逊据悉正在开发新款手机
2026-03-20 18:57:04
西门子投资1.65亿美元扩大美国人工智能制造业务
2026-03-20 18:58:10
AI算力驱动散热需求爆发 上市公司密集布局液冷赛道
2026-03-19 07:34:37
同事群里催催催,龙虾自动回回回!刚发布的「飞书龙虾」把我解脱了
2026-03-19 19:21:55
创业慧康联合发布医疗行业推理一体机
2026-03-20 15:42:52
全网都在扒的小米MiMo团队,几乎被“北大学子”承包了
2026-03-20 11:20:46
蚂蚁数科发布“龙虾卫士”,护航OpenClaw智能体安全落地
2026-03-19 17:10:20
阿里巴巴:已将自研的平头哥GPU大规模投入生产
2026-03-19 18:23:23
24小时热文
更多
扫一扫体验小程序