人工智能软件系统的安全逐渐受到人们的重视,深度学习软件库存在的缺陷可能威胁到框架之上的模型和系统,目前仍然缺少深度学习软件库测试的系统方法。面对深度学习安全领域,针对深度学习软件库的漏洞方法存在的测试预期如何选取的问题,本次汇报分享了通过两两比较不同框架下模型输出差异的差分测试方法,方法对于分类任务和回归任务分别提出了各自的距离度量,来衡量不同框架输出差异的大小,以及通过计算模型每一层函数输出差异的变化率、手动定位缺陷在代码的最终位置。
面向深度学习组件的漏洞挖掘-刘力源原创文章,作者:BFS,如若转载,请注明出处:https://www.isclab.org.cn/2021/12/12/%e9%9d%a2%e5%90%91%e6%b7%b1%e5%ba%a6%e5%ad%a6%e4%b9%a0%e7%bb%84%e4%bb%b6%e7%9a%84%e6%bc%8f%e6%b4%9e%e6%8c%96%e6%8e%98/