简述对抗样本检测方法

      对抗样本会的存在严重威胁到机器学习模型的输出准确性。目前最常用的对抗样本生成方法是FGSM,其通过在沿着损失函数梯度方向添加一个细小的扰动,来“增大”损失,进而改变目标函数的输出。而我们通过FGSM基于目标模型生成对抗样本,并将其与原始样本组合去训练一个二分类器,最终将对抗样本从原始样本中“剔除”出去。

附件-对抗样本检测方法.pdf

原创文章,作者:admin,如若转载,请注明出处:https://www.isclab.org.cn/2018/10/17/%e7%ae%80%e8%bf%b0%e5%af%b9%e6%8a%97%e6%a0%b7%e6%9c%ac%e6%a3%80%e6%b5%8b%e6%96%b9%e6%b3%95/

(18)
adminadmin
上一篇 2018年10月8日 上午9:42
下一篇 2018年10月18日

相关推荐

  • 基于输入输出扰动的模型窃取防御方法

    模型窃取防御技术能够促进深度神经网络的健康发展,推动数据交流与共享。本次报告从输入输出扰动的角度分析了模型窃取防御方法的框架,从数学角度给出了防御的基本原理以及优缺点,利用防御方法…

    2024年7月21日
    1.2K
  • 对抗式多任务学习

          对抗式多任务学习是针对普通的多任务学习模型在共享特征提取时,可能会被特定任务的特定特征所污染的问题所提出的,…

    2019年8月13日
    1.6K
  • 面向网络应用程序的模糊测试

    本报告介绍了模糊测试中的基本概念及网络应用程序漏洞挖掘发展历史和类型划分等背景知识,对2种基于覆盖引导的灰盒web模糊测试算法进行了具体说明,阐述了网络应用程序漏洞挖掘的发展趋势和…

    2024年5月31日
    1.0K
  • DEEP-GAUSSIAN-MIXTURE-MODEL

    近年来,尽管针对监督任务的深度模型取得了巨大成功,但机器学习和统计学界对深度聚类方 法的研究有限。在这次学术报告中,我们将讨论深度高斯混合聚类,一个由经典高斯混合模型推广而来 的强…

    2019年10月27日
    1.5K
  • DQN深度强化学习算法

    本次学术报告主要给大家详细的介绍DQN算法原理及其调参细节,并且进行举例说明和总结以加深大家的理解。

    2020年5月31日
    1.6K
  • 针对文本嵌入模型的模型反演攻击方法研究

    研究针对文本嵌入模型的模型反演攻击,揭示了自然语言处理领域面临的隐私泄露风险。本次学术报告介绍了关于文本嵌入模型模型反演攻击的最新方法,并指明了现有的缺陷和未来发展方向。

    2024年11月5日
    1.5K
  • 机器学习模型后门攻击检测

    本次学术报告简要介绍了人工智能系统面临的各种安全威胁,通过将对抗样本与后门攻击进行多方面比较,从而引入了机器学习模型后门攻击的原理和检测方法,以及后门攻击技术的应用领域。

    2021年8月22日
    2.0K
  • 基于深度学习的恶意软件检测

    1.恶意软件检测发展历史2.深度学习在恶意软件检测上的应用3.恶意软件反检测技术

    2020年9月27日
    1.4K
  • 软件灰盒定向模糊测试技术

    随着软件程序日益复杂化、功能多样化,传统的通用模糊测试已经不能满足高效、快速的测试程序中特定高风险区域的崩溃问题。灰盒定向模糊测试应用其特殊的距离计算方法及种子排序方法,将模糊测试…

    2025年6月30日
    1.1K
  • 从赋能学习到知识追踪

    人工智能的发展,驱动新赋能方式,2018年国家自然科学基金首次在信息科学部下增设“教育信息科学与技术”的专门代码(F0701),同时《地平线报告(2022高等教育版)》智能学习分析…

    2022年9月19日
    1.6K