简述对抗样本检测方法

      对抗样本会的存在严重威胁到机器学习模型的输出准确性。目前最常用的对抗样本生成方法是FGSM,其通过在沿着损失函数梯度方向添加一个细小的扰动,来“增大”损失,进而改变目标函数的输出。而我们通过FGSM基于目标模型生成对抗样本,并将其与原始样本组合去训练一个二分类器,最终将对抗样本从原始样本中“剔除”出去。

附件-对抗样本检测方法.pdf

原创文章,作者:admin,如若转载,请注明出处:https://www.isclab.org.cn/2018/10/17/%e7%ae%80%e8%bf%b0%e5%af%b9%e6%8a%97%e6%a0%b7%e6%9c%ac%e6%a3%80%e6%b5%8b%e6%96%b9%e6%b3%95/

(18)
adminadmin
上一篇 2018年10月8日 上午9:42
下一篇 2018年10月18日

相关推荐

  • 联邦学习的后门攻击方法

    联邦学习在保证数据安全和隐私的情况下解决了数据孤岛和数据碎片化问题,主要分为横向联邦学习、纵向联邦学习和联邦迁移学习。本次学术报告首先介绍联邦学习的历史现状、分类及应用场景,然后通…

    2022年8月30日
    1.6K
  • 多视角深度学习

    多视角即从各种不同的角度观察同一事物 ,在深度学习中即引入一个函数去模型化特定的视角,并且利用相同输入的冗余视角去联合优化所有函数,达到更好的模型效果。多视角学习可应用于大多数数据…

    2021年7月18日
    1.1K
  • 面向网络应用程序的模糊测试

    本报告介绍了模糊测试中的基本概念及网络应用程序漏洞挖掘发展历史和类型划分等背景知识,对2种基于覆盖引导的灰盒web模糊测试算法进行了具体说明,阐述了网络应用程序漏洞挖掘的发展趋势和…

    2024年5月31日
    651
  • DNN模型水印及其鲁棒性评估

    模型水印技术是一种利用特定信息认证保护模型知识产权的方法。本次报告分析了深度学习领域现有的模型水印嵌入方法,从性能鲁棒性和稳定鲁棒性两方面讲述模型水印鲁棒性评估方法,并以实例分析和…

    2023年11月30日
    989
  • 开放式信息抽取技术

    本报告介绍了开放式信息抽取(OIE)的基本概念,展示了Neural OIE的两大类方法原理,并分别讲述了基于Transformer的Nerual OIE技术和利用Meta-Lear…

    2023年5月4日
    1.1K
  • Spectre攻击及检测

    2018年初,推测执行攻击Spectre的出现表明,一些软件尽管通过了如模糊测试、符号执行等技术的安全检测,但是在执行过程中,攻击者还是可以通过推测执行窃取重要信息。而且,推测执行…

    2022年8月12日
    1.4K
  • Android第三方库检测

    本次报告主要讲述了Android第三方库检测的相关内容。介绍了第三方库的基本概念和相关研究,解释了第三方库检测的基本方法,详细讲解其中的相似性对比方法,主要针对库检测和库版本识别进…

    2022年11月20日
    1.0K
  • 服务端模板注入漏洞

          服务端模板注入是攻击者通过与服务端模板的输入输出交互,在过滤不严格的情况下,构造恶意输入数据,从而达到获取关…

    2019年4月16日
    850
  • 元胞自动机原理及其在显著性检测中的应用

          元胞自动机(cellular automata,CA) 是一种时间、空间、状态都离散,空间相互作用和时间因果…

    2018年11月6日
    1.3K
  • 缺失模态的情绪变化识别

    随着多模态情绪识别应用不断发展,真实场景中的模态缺失问题对模型鲁棒性提出了挑战。本次学术报告聚焦缺失模态下的情绪变化识别,介绍了基于单模态专家融合与难度感知课程学习的代表性方法,为…

    2025年12月30日
    717