对抗样本攻防的两种奇思妙想

围绕图像对抗样本攻防这一核心主题,介绍以 Block Shuffle & Rotation(BSR) 为代表的迁移攻击增强策略,以及以 Delta Data Augmentation(DDA)为代表的基于扰动空间的数据增强防御。通过分析其理论动机、核心算法及实验表现,探讨模型注意力一致性、扰动多样性与鲁棒性提升之间的关联。

对抗样本攻防的两种奇思妙想-罗天长笑

原创文章,作者:bfs,如若转载,请注明出处:https://www.isclab.org.cn/2025/11/17/%e5%af%b9%e6%8a%97%e6%a0%b7%e6%9c%ac%e6%94%bb%e9%98%b2%e7%9a%84%e4%b8%a4%e7%a7%8d%e5%a5%87%e6%80%9d%e5%a6%99%e6%83%b3/

(0)
bfsbfs
上一篇 2025年11月17日 下午4:31
下一篇 2025年11月24日 上午10:11

相关推荐

  • 联邦学习的后门攻击方法

    联邦学习在保证数据安全和隐私的情况下解决了数据孤岛和数据碎片化问题,主要分为横向联邦学习、纵向联邦学习和联邦迁移学习。本次学术报告首先介绍联邦学习的历史现状、分类及应用场景,然后通…

    2022年8月30日
    2.2K
  • 二进制文件复合数据类型恢复

    二进制文件复合类型恢复技术在程序理解、逆向分析和漏洞检测等领域具有关键价值,能够显著提升类型信息还原与代码语义解析的准确性与效率。该技术通过推断和重建结构体、数组等复杂数据类型,有…

    2025年9月4日
    1.3K
  • 人工智能系统安全综述

    人类正在经历着由深度学习技术推动的人工智能浪潮,它为人类生产和生活带来了巨大的技术革新。然而,以往的机器学习理论大多没有考虑开放甚至对抗的系统运行环境,逐渐暴露出了许多安全和隐私问…

    2020年4月22日
    2.3K
  • 扩散模型的后门攻击研究

    文本-图像生成模型在当今生活中有广泛应用,最新研究表明,这类多模态的生成模型也面临着安全风险,例如对抗样本攻击、成员推理攻击和后门攻击等。本次学术报告介绍了文本-图像生成模型最新的…

    2025年9月16日
    1.6K
  • 文本生成大模型后门攻击研究

    研究文本生成大模型的后门攻击,揭示了现有文本大模型的后门风险。本次学术报告详细介绍了现有文本生成模型的后门分类方法以及基准数据集,在文本大模型的多个下游任务实现了后门攻击,并总结了…

    2025年3月24日
    1.9K
  • 如何优雅地进行模型训练

    本次报告介绍了机器学习模型训练过程中的显存优化方法。首先介绍了深度学习框架的显存利用机制,随后结合原理和具体实例讲解了“代码级”和“框架级”显存优化方法,引导大家在实际科研过程中更…

    2022年5月5日
    1.9K
  • 深度神经网络中的对抗样本攻防

          2013年以来深度的神经网络模型在各方面得到了广泛应用,甚至在某些方面达到可以匹配人类的性能,用于“欺骗”神…

    2018年8月1日
    1.6K
  • Deep Learning Backdoor Attacks Detection

    The susceptibility of deep neural networks to backdoor or trojan attacks has been demonstr…

    2023年6月26日
    1.4K
  • 恶意软件动态分析中的反检测技术及其对抗方法

    1.环境感知型恶意软件使用的反检测方法及实例    2.部分高水平文献中的反检测算法原理    3.反检测技术的对抗策略

    2020年9月27日
    2.1K
  • 极端多标签文本分类

    极端多标签文本分类旨在为每个文本分配大量可能的标签,处理标签数量巨大和数据稀疏性问题。该技术通过高效的特征选择、标签嵌入和深度学习模型,提高分类准确性和速度。极端多标签文本分类广泛…

    2024年9月17日
    1.6K