深度神经网络对抗样本防御方法

近年来深度学习技术不断突破,极大促进了人工智能行业的发展,但人工智能模型本身易受到对抗攻击从而引起严重后果。对原始样本有针对性地加入微小扰动,该扰动不易被人眼所察觉,但会导致人工智能模型识别错误,这种攻击被称为“对抗攻击“。本次报告首先介绍了深度神经网络中对抗样本的基本概念,分析经典的对抗样本攻击方法,接着介绍了对抗攻击的防御思路,并讲解了两篇领域内经典的防御论文,为之后深度神经网络对抗样本防御的研究提供了方向。

深度神经网络对抗样本防御方法-王琛

原创文章,作者:bfs,如若转载,请注明出处:https://www.isclab.org.cn/2021/01/04/%e6%b7%b1%e5%ba%a6%e7%a5%9e%e7%bb%8f%e7%bd%91%e7%bb%9c%e5%af%b9%e6%8a%97%e6%a0%b7%e6%9c%ac%e9%98%b2%e5%be%a1%e6%96%b9%e6%b3%95/

(1)
bfsbfs
上一篇 2020年12月28日 上午11:47
下一篇 2021年1月10日 下午8:54

相关推荐

  • 深度域适应方法

    本次学术报告介绍了深度域适应方法的基本概念,以三种无监督域适应基本算法为例,简要梳理了域适应方法的发展脉络。通过分析半监督域适应方法论文,详细讲解了半监督域适应方法的基本原理。最后…

    2022年11月7日
    716
  • Dropout随机失活

    具有大量参数的深度神经网络是非常强大的机器学习系统。然而,在这样复杂的网络中,过拟合的问题难以解决。复杂的网络结构和缓慢的运行速度导致我们很难在测试时通过组合许多不同大型神经网络的…

    2022年1月21日
    604
  • 源代码安全补丁存在性测试

    本报告围绕“源代码安全补丁存在性测试”展开,聚焦于如何自动识别开源软件中的安全补丁,解决安全补丁与普通补丁混杂、厂商静默发布、攻击窗口缩短等问题,介绍了一种结构感知的检测方法——R…

    2025年7月21日
    466
  • 降维算法(二)—— MDS

    2014年10月22日
    499
  • LDA主题模型浅析

          LDA主题模型可以将文档集中每篇文档的主题按照概率分布的形式给出。同时它是一种无监督学习算法,在训练时不需要…

    2018年7月3日
    830
  • 深度模型可解释方法

          深度模型可解释性一直是业界关注的问题。报告介绍了一种新颖的深度学习可解释性方法——树正则化。通过在深度模型训…

    学术报告 2018年3月26日
    639
  • 图神经网络可解释方法

    图神经网络模型的可解释性对于建立用户与决策模型之间的信任关系至关重要,为了安全、可信地部署图神经网络模型,需要提高图神经网络模型的可解释性和透明性。本次报告带大家了解图神经网络的可…

    2021年7月11日
    925
  • XenAccess介绍

    1.Xen虚拟平台 Xen Hypervisor 位于操作系统与硬件之间,为其上层运行的操作系统内核提供虚拟化的硬件环境。Xen采用混合模式(Hybrid Model),因此在Xe…

    2014年10月21日
    1.1K
  • 预训练语言模型GPT3

    为了从网络上海量文本信息提取有价值信息,需要使用计算机处理文本数据,首要任务是将文本转换为计算机可以处理的向量化数据。单词是文本的最小单位,所以需要使用语言模型得到词向量表示成为文…

    2021年2月19日
    1.2K
  • 从赋能学习到知识追踪

    人工智能的发展,驱动新赋能方式,2018年国家自然科学基金首次在信息科学部下增设“教育信息科学与技术”的专门代码(F0701),同时《地平线报告(2022高等教育版)》智能学习分析…

    2022年9月19日
    926