神经网络模型测试方法与模型健壮性

针对神经网络模型的缺陷测试使用了神经元覆盖率指标指导测试,这是一种从软件测试领域迁移的概念,指的是测试激活的神经元越多,测试越充分。但是近年来这种测试方法的有效性存疑,特别是测试生成样本对模型健壮性提升的效果。本报告重点讲述了神经网络模型测试方法与模型健壮性的关系,并介绍了部分测试方法对模型健壮性的提升效果

神经网络模型测试方法与模型健壮性-侯钰斌

原创文章,作者:bfs,如若转载,请注明出处:https://www.isclab.org.cn/2022/07/24/%e7%a5%9e%e7%bb%8f%e7%bd%91%e7%bb%9c%e6%a8%a1%e5%9e%8b%e6%b5%8b%e8%af%95%e6%96%b9%e6%b3%95%e4%b8%8e%e6%a8%a1%e5%9e%8b%e5%81%a5%e5%a3%ae%e6%80%a7/

(0)
bfsbfs
上一篇 2022年7月21日
下一篇 2022年7月27日

相关推荐

  • 视频深度伪造及检测技术——攻与防

    摘要:本报告介绍了视频深度伪造的基本算法,针对算法中存在的3个问题,重点讲述了在小样本条件下的域迁移学习生成伪造视频,并通过攻防对抗的概念引出了伪造视频检测算法,阐明针对伪造视频中…

    2023年2月20日
    1.5K
  • 基于深度学习的恶意软件检测

    1.恶意软件检测发展历史2.深度学习在恶意软件检测上的应用3.恶意软件反检测技术

    2020年9月27日
    1.3K
  • XSS跨站脚本攻击

          XSS攻击是客户端脚本安全中的头号大敌,多次位列OWASP TOP 10榜首,严重威胁到web网络安全。XS…

    2018年6月25日
    1.3K
  • 对抗式多任务学习

          对抗式多任务学习是针对普通的多任务学习模型在共享特征提取时,可能会被特定任务的特定特征所污染的问题所提出的,…

    2019年8月13日
    1.5K
  • 弱监督技术方法

    当前监督学习技术已经取得了巨大的成功,但是值得注意的是,由于数据标注过程的成本太高,很多任务很难获得如全部真值标签这样的强监督信息。而无监督学习由于学习过程太过困难,它的发展缓慢。…

    2022年2月21日
    1.2K
  • 对抗环境下的鲁棒机器学习

    对抗样本的存在表明现代神经网络是相当脆弱的。为解决这一问题,研究者相继提出了许多方法,其中使用对抗样本进行训练被认为是至今最有效的方法之一。 然而,经过对抗训练后神经网络对于正常样…

    2021年1月21日
    1.6K
  • 深度神经网络鲁棒性评估方法

    深度学习模型具有高度非线性和特征空间抽象等特性,内部决策逻辑难以解释,导致其实际应用严重受限。本次报告从深度神经网络可解释性的基本概念出发,对常见的解释方法进行简介,并介绍了一篇将…

    2023年11月30日
    1.2K
  • 源代码漏洞分类

    漏洞分类是漏洞分析中的重要一环,为了及时评估并缓解漏洞问题,快速、准确的漏洞分类方法必不可少,但目前漏洞分类领域面临着由于不同类型的漏洞数量高度不平衡导致的漏洞类型预测精度不佳的问…

    2023年12月14日
    1.5K
  • 联邦学习及其后门攻击方法初探

    本次报告对联邦学习及其后门攻击方法展开介绍,阐述了联邦学习的发展脉络和三大主要框架,介绍了联邦学习安全性问题及后门攻击分类方法,重点讲解经典的集中式/分布式联邦后门攻击方法,启发思…

    2022年5月16日
    1.7K
  • 关系抽取之远程监督

    远程监督方法用于关系抽取任务,会给数据集带来噪声样本,为此,本文介绍了两种基于多示例学习的去噪方法,能够有效的去除训练集中存在的噪声样本。

    2019年8月24日
    1.3K