深度神经网络中的对抗样本攻防

      2013年以来深度的神经网络模型在各方面得到了广泛应用,甚至在某些方面达到可以匹配人类的性能,用于“欺骗”神经网络的对抗样本(Adversarial examples)是近期计算机视觉和机器学习领域的热门研究方向。本次学术报告分析介绍了对抗样本的产生的根本原因、对抗样本生成方法、对抗样本防御思路以及最新的研究进展。

附件-深度神经网络中的对抗样本攻防.pdf

原创文章,作者:admin,如若转载,请注明出处:https://www.isclab.org.cn/2018/08/01/%e6%b7%b1%e5%ba%a6%e7%a5%9e%e7%bb%8f%e7%bd%91%e7%bb%9c%e4%b8%ad%e7%9a%84%e5%af%b9%e6%8a%97%e6%a0%b7%e6%9c%ac%e6%94%bb%e9%98%b2/

(1)
adminadmin
上一篇 2018年7月25日 下午9:15
下一篇 2018年8月20日 上午11:51

相关推荐

  • Bias-Variance trade-off

    背景 熟悉模式识别的童鞋都很清楚,在模式识别领域内存在许多的学习算法和技术。面对纷繁的算法,我们必然会产生疑问:究竟哪一个算法才是“最好的”。值的强调的是每个算法都有相应的先验假设…

    2016年1月21日
    2.5K
  • 程序崩溃的故障定位方法

    程序崩溃的故障定位方法通过统计调试或符号执行,自动推断出程序崩溃的根本原因。本次报告介绍了1个基于符号执行的方法、1个结合统计调试和符号执行的方法,旨在提高故障定位的准确性与效率,…

    2025年1月12日
    1.8K
  • 媒体安全

    走近特定音频识别(之一)——让计算机分辨出“这是什么声音” 走进特定音频识别(之二)——计算机是靠什么来分辨声音种类的? 走进特定音频识别(之三)——检索 Vs 识别 走近特定音频…

    学术报告 2014年10月18日
    1.7K
  • 人工智能模型的谈忘学习方法

    遗忘学习被称为机器遗忘或取消学习,是指机器学习或深度学习系统中先前获取的知识随着时间推移而退化的现象。本次学习报告的主要讲解了两种人工智能模型的遗忘学习方法,遗忘训练数据中的特定样…

    2024年11月5日
    2.1K
  • 聚类知识及其初始化问题

    聚类学习作为机器学习中最为常用的算法,已经广泛的应用于许多领域。本文主要介绍聚类的一些基础知识,并且以概率聚类模型为例,并讲解一个聚类算法:基于t分布的熵惩罚最大期望算法,使大家对…

    2019年8月24日
    2.1K
  • CSRF跨站请求伪造

          CSRF(Cross-site request forgery)全称跨站请求伪造,是利用受害者尚未失效的身份…

    2019年1月7日
    2.0K
  • 源代码补丁正确性测试

    源代码补丁正确性测试是自动程序修复(Automated Program Repair, APR)流程的最后一个环节,旨在验证APR所生成的补丁是否真正解决了目标缺陷且未引入新的问题…

    2025年3月10日
    1.9K
  • 深度学习系统安全性测试及测试样本优先级排序

    深度学习在近十年取得了长足发展。由于其在复杂领域表现出优异的性能,逐渐被集成到软件体系中形成深度学习系统。这一方面推动了深度学习的发展,另一方面也对深度学习的安全性提出了巨大挑战:…

    2021年11月29日
    2.8K
  • 简述对抗样本检测方法

          对抗样本会的存在严重威胁到机器学习模型的输出准确性。目前最常用的对抗样本生成方法是FGSM,其通过在沿着损失…

    2018年10月17日
    3.9K