1. 信息系统及安全对抗实验中心首页
  2. 学术报告

对抗环境下的鲁棒机器学习

对抗样本的存在表明现代神经网络是相当脆弱的。为解决这一问题,研究者相继提出了许多方法,其中使用对抗样本进行训练被认为是至今最有效的方法之一。

然而,经过对抗训练后神经网络对于正常样本的性能往往会下降,这一问题引起了学术界的广泛关注,这种准确度与鲁棒性之间互相妥协的本质原因仍未被找出。传统的基于经验风险最小化的神经网络为何不鲁棒?为何需要对抗训练才能使其鲁棒?为什么越鲁棒的模型,在干净测试集上的精度反而越低?甚至鲁棒性越强的模型,在干净样本上的准确率越差。带着这些问题,本次学术报告结合2019-2020年的经典顶会论文,针对深度学习时代下深度神经网络的鲁棒性问题展开讨论。

对抗环境下的鲁棒机器学习-郝靖伟

原创文章,作者:BFS,如若转载,请注明出处:https://www.isclab.org.cn/2021/01/21/%e5%af%b9%e6%8a%97%e7%8e%af%e5%a2%83%e4%b8%8b%e7%9a%84%e9%b2%81%e6%a3%92%e6%9c%ba%e5%99%a8%e5%ad%a6%e4%b9%a0/