计算所程学旗团队:随机剪枝AI攻击策略,让对抗样本更具「通用攻击力」丨CVPR2026

机器学习算法与自然语言处理 2026-03-12 06:43
文章摘要
本文背景是深度学习模型在关键场景中广泛应用,但面临对抗样本的安全挑战,尤其是无需目标模型信息的迁移攻击更具现实威胁。研究目的是解决现有迁移攻击方法生成的对抗样本过度依赖代理模型特定参数、导致跨模型泛化能力不足的问题,为此提出了名为RaPA的随机参数剪枝攻击方法。结论表明,该方法通过在攻击迭代中随机屏蔽模型参数,生成能适应多样模型结构的对抗样本,显著提升了跨模型(尤其是卷积神经网络与Transformer之间)的攻击成功率和泛化能力,并在多种防御机制下保持最优性能,且实现简单、易于与其他攻击技术结合。
计算所程学旗团队:随机剪枝AI攻击策略,让对抗样本更具「通用攻击力」丨CVPR2026
本站注明稿件来源为其他媒体的文/图等稿件均为转载稿,本站转载出于非商业性的教育和科研之目的,并不意味着赞同其观点或证实其内容的真实性。如转载稿涉及版权等问题,请作者速来电或来函联系。
机器学习算法与自然语言处理
最新文章
热门类别
相关文章
联系我们:info@booksci.cn Book学术提供免费学术资源搜索服务,方便国内外学者检索中英文文献。致力于提供最便捷和优质的服务体验。 Copyright © 2023 布克学术 All rights reserved.
京ICP备2023020795号-1
ghs 京公网安备 11010802042870号
Book学术文献互助
Book学术文献互助群
群 号:604180095
Book学术官方微信