1. 信息系统及安全对抗实验中心首页
  2. 学术报告

深度神经网络中的后门攻击

深度神经网络在图像识别、语音处理以及机器翻译等领域具有良好的预测性能,但是由于深度神经网络对决策结果可解释性的缺乏以及解决训练开销而寻求的外包训练的安全难以有效保证,都导致深度神经网络存在脆弱性,攻击者可以利用脆弱性对模型做出卓有成效的攻击。学术报告从深度神经网络的一般训练过程出发,讲述了深度神经网络中常见攻击存在的环节以及攻击的效果,详细阐述了深度神经网络典型后门攻击方法,简单分析了最新的后门攻击方法做出的改进以及成效,最后对深度神经网络后门攻击方法的研究前景做了展望。深度神经网络及在其之上改进的神经网络模型在AI领域的预测效果越来越好,后门攻击的存在不会掣肘深度神经网络发展,如何规避后门攻击,增强神经网络模型的鲁棒性,让模型预测结果具有较强的可解释性是未来研究要解决的问题。

深度神经网络中的后门攻击-韩飞

原创文章,作者:BFS,如若转载,请注明出处:https://www.isclab.org.cn/2020/12/07/%e6%b7%b1%e5%ba%a6%e7%a5%9e%e7%bb%8f%e7%bd%91%e7%bb%9c%e4%b8%ad%e7%9a%84%e5%90%8e%e9%97%a8%e6%94%bb%e5%87%bb/