对抗环境下的鲁棒机器学习

对抗样本的存在表明现代神经网络是相当脆弱的。为解决这一问题,研究者相继提出了许多方法,其中使用对抗样本进行训练被认为是至今最有效的方法之一。

然而,经过对抗训练后神经网络对于正常样本的性能往往会下降,这一问题引起了学术界的广泛关注,这种准确度与鲁棒性之间互相妥协的本质原因仍未被找出。传统的基于经验风险最小化的神经网络为何不鲁棒?为何需要对抗训练才能使其鲁棒?为什么越鲁棒的模型,在干净测试集上的精度反而越低?甚至鲁棒性越强的模型,在干净样本上的准确率越差。带着这些问题,本次学术报告结合2019-2020年的经典顶会论文,针对深度学习时代下深度神经网络的鲁棒性问题展开讨论。

对抗环境下的鲁棒机器学习-郝靖伟

原创文章,作者:bfs,如若转载,请注明出处:https://www.isclab.org.cn/2021/01/21/%e5%af%b9%e6%8a%97%e7%8e%af%e5%a2%83%e4%b8%8b%e7%9a%84%e9%b2%81%e6%a3%92%e6%9c%ba%e5%99%a8%e5%ad%a6%e4%b9%a0/

(0)
bfsbfs
上一篇 2021年1月10日 下午8:54
下一篇 2021年1月24日 下午8:28

相关推荐

  • 设计模式简介

          需求频繁变化是软件设计的基本特征,提升软件的可复用性、可维护性、可扩展性是软件设计的重要目标。以封装、继承和…

    2019年4月30日
    1.1K
  • 机器学习中的多分类问题

          机器学习在现实中常常遇到多分类问题,而一些优秀的二分类学习算法(如逻辑回归,SVM等等)不支持多分类任务。一…

    2019年4月21日
    1.3K
  • 预训练语言模型GPT3

    为了从网络上海量文本信息提取有价值信息,需要使用计算机处理文本数据,首要任务是将文本转换为计算机可以处理的向量化数据。单词是文本的最小单位,所以需要使用语言模型得到词向量表示成为文…

    2021年2月19日
    1.7K
  • 反序列化漏洞简介

          反序列化漏洞是指在服务端过滤不严格的情况下,攻击者通过构造恶意序列化结果,使服务端在反序列化过程中执行恶意代…

    2019年5月6日
    1.7K
  • 神经网络模型的覆盖测试

    人工智能系统在近年来取得丰硕的成果,其中神经网络在自动驾驶领域等图像处理方向应用较为广泛。但是神经网络存在安全隐患,容易受到攻击导致决策错误,比如对抗样本攻击和后门攻击。如何测试神…

    2022年1月4日
    1.4K
  • Linux高级网络配置

          Linux系统强大的网络配置能力使得Linux能够工作在各种复杂网络环境下并提供各种稳定的服务。本次报告介绍…

    2019年5月13日
    1.3K
  • AI幻觉陷阱与创造力

    聚焦大模型生成中“幻觉”问题的原理、检测方法及其创造力价值。内容涵盖AI幻觉的定义与分类、典型案例、LLM-Check与Verify-and-Edit两种前沿算法的原理与实验评估,…

    2025年6月9日
    1.3K
  • 单词级文本对抗攻击

    本报告介绍了单词级文本对抗攻击(Word-Level Attack)的背景和基本原理,展示了在OpenAttack和TextAttack两类开源工具上的测试样例,并分别讲述了基于义…

    2023年5月29日
    1.7K
  • 虚拟化平台操作系统内核级恶意攻击行为及其检测技术

          虚拟化技术的提出为操作系统内核安全的保护引入了新的思路和手段——虚拟机监视器( Virtual Machin…

    2019年5月20日
    1.3K
  • 跨语言词向量

        跨语言词向量(corss-lingual word embeddings)是一种的对单语言环境下的模型进行多语言扩展的有效手段。通过…

    学术报告 2018年2月26日
    1.5K