对抗环境下的鲁棒机器学习

对抗样本的存在表明现代神经网络是相当脆弱的。为解决这一问题,研究者相继提出了许多方法,其中使用对抗样本进行训练被认为是至今最有效的方法之一。

然而,经过对抗训练后神经网络对于正常样本的性能往往会下降,这一问题引起了学术界的广泛关注,这种准确度与鲁棒性之间互相妥协的本质原因仍未被找出。传统的基于经验风险最小化的神经网络为何不鲁棒?为何需要对抗训练才能使其鲁棒?为什么越鲁棒的模型,在干净测试集上的精度反而越低?甚至鲁棒性越强的模型,在干净样本上的准确率越差。带着这些问题,本次学术报告结合2019-2020年的经典顶会论文,针对深度学习时代下深度神经网络的鲁棒性问题展开讨论。

对抗环境下的鲁棒机器学习-郝靖伟

原创文章,作者:bfs,如若转载,请注明出处:https://www.isclab.org.cn/2021/01/21/%e5%af%b9%e6%8a%97%e7%8e%af%e5%a2%83%e4%b8%8b%e7%9a%84%e9%b2%81%e6%a3%92%e6%9c%ba%e5%99%a8%e5%ad%a6%e4%b9%a0/

(0)
bfsbfs
上一篇 2021年1月10日 下午8:54
下一篇 2021年1月24日 下午8:28

相关推荐

  • 多标签学习

    每天都有大量的数据生成,这导致人们越来越需要新的努力来应对大数据给多标签学习带来的巨大挑战。例如,极端多标签分类是一个活跃且快速发展的研究领域,它处理的分类任务具有极其大量的类别或…

    2021年8月22日
    2.3K
  • 基于图的知识追踪方法研究

    随着智慧教育系统(Intelligent Tutoring System, ITS)的快速发展,ITS以其时空约束少、便捷程度高和个性化定制学习的优势,在现代教育事业中获得广泛关注…

    2023年5月15日
    2.1K
  • Python对象探究

          探讨了语言的分类方式:编译型语言和解释型语言,动态类型语言和静态类型语言,以及Python对象是如何实现的,…

    2018年7月9日
    2.0K
  • 深度学习系统安全性测试及测试样本优先级排序

    深度学习在近十年取得了长足发展。由于其在复杂领域表现出优异的性能,逐渐被集成到软件体系中形成深度学习系统。这一方面推动了深度学习的发展,另一方面也对深度学习的安全性提出了巨大挑战:…

    2021年11月29日
    2.8K
  • 深度神经网络后门攻击

    人工智能模型安全是人工智能应用落地需要考量的重要问题,后门攻击威胁是人工智能模型安全的重要议题。本次学术报告以深度神经网络为后门攻击的对象,从深度神经网络训练的内部机理出发,通过了…

    2021年8月15日
    2.6K
  • 自动化漏洞挖掘初探

    摘要:本报告介绍了web漏洞挖掘中的基本概念,实战通用方案及相关思路总结,进一步详细讲解了手工挖掘中存在的痛点问题,重点阐述了前沿自动化漏洞挖掘算法原理,分析其如何弥补手工挖掘的不…

    2023年2月13日
    2.3K
  • Cache侧信道攻击与防御

    本报告讲述了cache侧信道攻击与防御基本分类及理论基础,给出了基于冲突和基于访问两类侧信道攻击和反制措施的基本概念,并对介绍基于映射随机化和基于隔离两类防御方法的文献进行了详细介…

    2021年11月23日
    3.3K
  • 从任务划分就开始与众不同的元学习

    meta-learning即元学习,也可以称为“learning to learn”。常见的深度学习模型,目的是学习一个用于预测的数学模型。而元学习面向的不是学习的结果,而是学习的…

    2022年10月3日
    1.9K
  • 服务端模板注入漏洞

          服务端模板注入是攻击者通过与服务端模板的输入输出交互,在过滤不严格的情况下,构造恶意输入数据,从而达到获取关…

    2019年4月16日
    1.9K
  • 提示词怎么在别人兜里:提示词窃取攻击

    研究提示词窃取攻击,揭示了提示词面临的泄露风险。本次学术报告介绍了提示词的应用价值和市场体量,讲述了关于提示词窃取攻击的最新方法,指明了现有的缺陷和未来发展方向。

    2025年3月17日
    2.3K