1. 信息系统及安全对抗实验中心首页
  2. 学术报告

特定安全领域中的对抗样本防御方法

以深度学习为代表的人工智能技术正在悄然改变人们的生产生活方式,但深度学习模型的部署也带来了一定的安全隐患。对抗样本攻击能使深度学习模型系统进行误判,对各个人工智能应用领域造成了严重的安全威胁。本文从人工智能应用的特定安全领域出发,如入侵检测领域和恶意软件检测领域,介绍了对抗样本攻击的生成原因,安全领域中对抗样本与图像领域的区别以及安全领域中的对抗样本防御方法,并对当前主流的防御方法进行了总结归纳和优劣分析,对深刻理解模型内在脆弱性、全面保障智能系统安全性、广泛部署人工智能应用具有重要意义。

特定安全领域中的对抗样本防御方法-王琛

原创文章,作者:BFS,如若转载,请注明出处:https://www.isclab.org.cn/2021/08/31/%e7%89%b9%e5%ae%9a%e5%ae%89%e5%85%a8%e9%a2%86%e5%9f%9f%e4%b8%ad%e7%9a%84%e5%af%b9%e6%8a%97%e6%a0%b7%e6%9c%ac%e9%98%b2%e5%be%a1%e6%96%b9%e6%b3%95/