对抗环境下的鲁棒机器学习

对抗样本的存在表明现代神经网络是相当脆弱的。为解决这一问题,研究者相继提出了许多方法,其中使用对抗样本进行训练被认为是至今最有效的方法之一。

然而,经过对抗训练后神经网络对于正常样本的性能往往会下降,这一问题引起了学术界的广泛关注,这种准确度与鲁棒性之间互相妥协的本质原因仍未被找出。传统的基于经验风险最小化的神经网络为何不鲁棒?为何需要对抗训练才能使其鲁棒?为什么越鲁棒的模型,在干净测试集上的精度反而越低?甚至鲁棒性越强的模型,在干净样本上的准确率越差。带着这些问题,本次学术报告结合2019-2020年的经典顶会论文,针对深度学习时代下深度神经网络的鲁棒性问题展开讨论。

对抗环境下的鲁棒机器学习-郝靖伟

原创文章,作者:bfs,如若转载,请注明出处:https://www.isclab.org.cn/2021/01/21/%e5%af%b9%e6%8a%97%e7%8e%af%e5%a2%83%e4%b8%8b%e7%9a%84%e9%b2%81%e6%a3%92%e6%9c%ba%e5%99%a8%e5%ad%a6%e4%b9%a0/

(0)
bfsbfs
上一篇 2021年1月10日 下午8:54
下一篇 2021年1月24日 下午8:28

相关推荐

  • 联邦学习的后门攻击方法

    联邦学习在保证数据安全和隐私的情况下解决了数据孤岛和数据碎片化问题,主要分为横向联邦学习、纵向联邦学习和联邦迁移学习。本次学术报告首先介绍联邦学习的历史现状、分类及应用场景,然后通…

    2022年8月30日
    1.4K
  • Using Sentiment Representation Learning to Enhance Gender Classification for User Profiling

          用户画像意味着利用机器学习技术来预测用户的属性,例如人口统计学属性,兴趣属性,偏好属性等。它是精确营销的强大…

    2018年12月17日
    524
  • 大模型在微调阶段的后门攻击

    随着大语言模型的快速发展与广泛应用,其安全问题日益凸显,后门攻击便是主要威胁之一。本次报告介绍了两种针对大模型微调阶段的后门攻击方法,它们分别通过确定目标生成条件和改变Token,…

    2025年11月24日
    498
  • 网络未知协议逆向技术

    网络协议逆向技术是指根据网络流量数据包进行静态分析,推断其所属协议的字段信息、报文格式、交互模式等信息。针对互联网中存在的大量未知(私有)协议进行逆向分析,发现潜在安全漏洞,对维护…

    2024年12月23日
    938
  • 基于GAN的表格数据生成

    生成式对抗网络(GAN, Generative Adversarial Networks )是一种深度学习模型,是近年来复杂分布上无监督学习最具前景的方法之一。本次学术报告将回顾关…

    2020年10月12日
    2.9K
  • 媒体安全

    走近特定音频识别(之一)——让计算机分辨出“这是什么声音” 走进特定音频识别(之二)——计算机是靠什么来分辨声音种类的? 走进特定音频识别(之三)——检索 Vs 识别 走近特定音频…

    学术报告 2014年10月18日
    550
  • 机器学习模型后门攻击检测

    本次学术报告简要介绍了人工智能系统面临的各种安全威胁,通过将对抗样本与后门攻击进行多方面比较,从而引入了机器学习模型后门攻击的原理和检测方法,以及后门攻击技术的应用领域。

    2021年8月22日
    1.3K
  • Sandworm Attack小结

    这个漏洞网上的各种中英文分析已经很多了,因此这里我只根据自己的情况做一个小的整理和总结,并将参考的各种相关资料贴上来大家交流学习。   1. CVE-2014-4114 …

    2015年1月28日
    734
  • 程序的链接

    本次报告介绍了程序链接过程的基本概念,以及静态链接和动态链接中文件的结构和链接过程。基本概念包括程序构建(Build)过程、链接的历史和链接的作用等。链接的主要工作就是处理各个模块…

    2021年3月15日
    1.1K
  • 从任务划分就开始与众不同的元学习

    meta-learning即元学习,也可以称为“learning to learn”。常见的深度学习模型,目的是学习一个用于预测的数学模型。而元学习面向的不是学习的结果,而是学习的…

    2022年10月3日
    721