对抗环境下的鲁棒机器学习

对抗样本的存在表明现代神经网络是相当脆弱的。为解决这一问题,研究者相继提出了许多方法,其中使用对抗样本进行训练被认为是至今最有效的方法之一。

然而,经过对抗训练后神经网络对于正常样本的性能往往会下降,这一问题引起了学术界的广泛关注,这种准确度与鲁棒性之间互相妥协的本质原因仍未被找出。传统的基于经验风险最小化的神经网络为何不鲁棒?为何需要对抗训练才能使其鲁棒?为什么越鲁棒的模型,在干净测试集上的精度反而越低?甚至鲁棒性越强的模型,在干净样本上的准确率越差。带着这些问题,本次学术报告结合2019-2020年的经典顶会论文,针对深度学习时代下深度神经网络的鲁棒性问题展开讨论。

对抗环境下的鲁棒机器学习-郝靖伟

原创文章,作者:bfs,如若转载,请注明出处:https://www.isclab.org.cn/2021/01/21/%e5%af%b9%e6%8a%97%e7%8e%af%e5%a2%83%e4%b8%8b%e7%9a%84%e9%b2%81%e6%a3%92%e6%9c%ba%e5%99%a8%e5%ad%a6%e4%b9%a0/

(0)
bfsbfs
上一篇 2021年1月10日 下午8:54
下一篇 2021年1月24日 下午8:28

相关推荐

  • 软件漏洞注入技术

    随着计算机技术的发展,漏洞威胁问题已然日渐严峻,高效、准确的漏洞检测技术对于漏洞的发现和防护都至关重要,但目前常用的检测算法面临漏洞数据集少、信息不准确、构建成本高等问题,所以一个…

    2023年9月27日
    1.3K
  • 联邦学习的后门攻击方法

    联邦学习在保证数据安全和隐私的情况下解决了数据孤岛和数据碎片化问题,主要分为横向联邦学习、纵向联邦学习和联邦迁移学习。本次学术报告首先介绍联邦学习的历史现状、分类及应用场景,然后通…

    2022年8月30日
    2.0K
  • 智能体的工具调用攻击

    本报告探讨了大语言模型智能体工具调用机制中的安全漏洞,重点分析了两种新型攻击方法。AMA攻击通过黑盒迭代优化恶意工具的元数据,使其在语义合法的前提下显著提升被智能体选择的概率,在多…

    2026年1月26日
    1.1K
  • 简述对抗样本检测方法

          对抗样本会的存在严重威胁到机器学习模型的输出准确性。目前最常用的对抗样本生成方法是FGSM,其通过在沿着损失…

    2018年10月17日
    3.3K
  • 针对文本嵌入模型的模型反演攻击方法研究

    研究针对文本嵌入模型的模型反演攻击,揭示了自然语言处理领域面临的隐私泄露风险。本次学术报告介绍了关于文本嵌入模型模型反演攻击的最新方法,并指明了现有的缺陷和未来发展方向。

    2024年11月5日
    1.4K
  • 半监督聚类和患者相似性分析

    首先介绍半监督学习和患者相似性分析的概念和研究背景,其次介绍半监督聚类的的具体分类和聚类评价指标;最后介绍两篇文献的算法原理和实验结果,第一篇时融合多源约束信息的的半监督聚类方法,…

    2022年9月5日
    1.1K
  • Web快速开发方法简介

    本次报告先介绍了五种Web开发模式,讲解了各种开发模式的结构和优缺点,并结合实验室内部情况对合适的开发模式进行了推荐。之后简单介绍了Django、Flask、CherryPy这三个…

    2020年1月13日
    1.6K
  • active self-paced learning

          在机器学习中获得标注数据是一个重要的部分。但是在一些专业领域,标注成本高,成本高,导致了获得标注数据困难。主…

    2019年2月24日
    1.1K
  • 不完全多视图聚类技术

    不完全多视图聚类技术旨在处理多视图数据中部分视图缺失的问题,确保在数据不完整的情况下仍能进行有效的聚类分析。通过整合各视图的信息,该技术能够弥合视图之间的差异,提升聚类性能。其应用…

    2024年9月10日
    1.2K
  • 基于视觉直觉的源代码表征

    源代码表征是软件工程中的一个重要研究领域,主要关注如何有效地将源代码转化为可以支持各种软件工程任务(如代码搜索、克隆检测、代码自动生成等)的数学模型或数据结构。这些表征通常需要捕获…

    2024年9月23日
    1.2K