对抗样本攻防的两种奇思妙想

围绕图像对抗样本攻防这一核心主题,介绍以 Block Shuffle & Rotation(BSR) 为代表的迁移攻击增强策略,以及以 Delta Data Augmentation(DDA)为代表的基于扰动空间的数据增强防御。通过分析其理论动机、核心算法及实验表现,探讨模型注意力一致性、扰动多样性与鲁棒性提升之间的关联。

对抗样本攻防的两种奇思妙想-罗天长笑

原创文章,作者:bfs,如若转载,请注明出处:https://www.isclab.org.cn/2025/11/17/%e5%af%b9%e6%8a%97%e6%a0%b7%e6%9c%ac%e6%94%bb%e9%98%b2%e7%9a%84%e4%b8%a4%e7%a7%8d%e5%a5%87%e6%80%9d%e5%a6%99%e6%83%b3/

(0)
bfsbfs
上一篇 2025年11月17日 下午4:31
下一篇 2025年11月24日 上午10:11

相关推荐

  • 基于深度学习的文本分类方法

    在自然语言处理任务中,文本分类旨在将文本文档分类为给定的类别,是一项基础而重要的任务。近年来,深度神经模型由于其表现力和对特征工程的最低要求而在文本分类中越来越受欢迎。然而,将深度…

    2022年3月7日
    876
  • Web快速开发方法简介

    本次报告先介绍了五种Web开发模式,讲解了各种开发模式的结构和优缺点,并结合实验室内部情况对合适的开发模式进行了推荐。之后简单介绍了Django、Flask、CherryPy这三个…

    2020年1月13日
    1.2K
  • DNN模型水印及其鲁棒性评估

    模型水印技术是一种利用特定信息认证保护模型知识产权的方法。本次报告分析了深度学习领域现有的模型水印嵌入方法,从性能鲁棒性和稳定鲁棒性两方面讲述模型水印鲁棒性评估方法,并以实例分析和…

    2023年11月30日
    979
  • 人工智能模型的公平性测试

    人工智能技术发展迅速,不仅在图像领域,在决策系统等领域也发挥了重要作用。用于模型训练的数据集中含有显示或者隐式的敏感属性(如性别、种族等),模型往往会利用敏感属性的特征做出决策,这…

    2024年9月29日
    1.0K
  • 代码变更表示学习技术

    代码变更表示学习技术通常将代码变更进行结构化或序列化的中间表示,并将中间表示输入到表示学习模型以获取代码变更中更细粒度的特征,是众多软件工程任务的重要环节之一。本次报告介绍了2类任…

    2023年10月23日
    823
  • 成员推理攻击

    成员推理攻击(Membership Inference Attack)作为一种隐私攻击方法,其攻击对象是机器学习目标模型,攻击目标是推理一条或一批数据是否作为目标模型的训练集,以此…

    2022年10月16日
    3.5K
  • 深度神经网络后门攻击

    人工智能模型安全是人工智能应用落地需要考量的重要问题,后门攻击威胁是人工智能模型安全的重要议题。本次学术报告以深度神经网络为后门攻击的对象,从深度神经网络训练的内部机理出发,通过了…

    2021年8月15日
    1.5K
  • 基于GNN的加密流量方法

    本次报告围绕基于GNN的加密流量分类技术展开,首先阐述了基于GNN的加密流量分类的基本概念、研究背景和研究意义,然后介绍了传统加密流量识别方法的特点与优劣势,并介绍了利用GNN进行…

    2025年6月4日
    765
  • Android自定义权限及其设计缺陷

    本次报告主要讲述了Android权限机制和自定义权限的相关内容。介绍了权限机制和自定义权限的基本概念,解释了权限升级漏洞的基本概念,并详细讲解了发现此类漏洞的模式测试方法,最后思考…

    2022年4月17日
    870
  • 软件定义网络拓扑发现技术

    软件定义网络,作为一种可编程的新型网络架构,相比于传统网络具有许多的优点,在网络可视化、流量监控、访问控制等网络管理和运维领域中具有得天独厚的优势。而由于软件定义网络的控制器要求对…

    2020年7月26日
    1.1K