神经网络模型的覆盖测试

人工智能系统在近年来取得丰硕的成果,其中神经网络在自动驾驶领域等图像处理方向应用较为广泛。但是神经网络存在安全隐患,容易受到攻击导致决策错误,比如对抗样本攻击和后门攻击。如何测试神经网络模型,提前发现模型潜在的缺陷成为亟待解决的问题。本报告重点讲述了人工智能系统的测试框架和测试指标,并介绍了应用覆盖测试思想对神经网络模型进行测试的方法。

神经网络模型的覆盖测试-侯钰斌

原创文章,作者:bfs,如若转载,请注明出处:https://www.isclab.org.cn/2022/01/04/%e7%a5%9e%e7%bb%8f%e7%bd%91%e7%bb%9c%e6%a8%a1%e5%9e%8b%e7%9a%84%e8%a6%86%e7%9b%96%e6%b5%8b%e8%af%95/

(2)
bfsbfs
上一篇 2021年12月27日 下午3:11
下一篇 2022年1月14日 下午4:49

相关推荐

  • 音频事件识别参数优化方法

    目前音频处理领域各种系统的参数优化研究,通常把系统的各个层次(一般包括特征提取、特征向量生成、模型训练等)割裂开来进行相互独立的参数寻优,再将独立寻优结果进行简单组合,构成系统的参…

    2015年1月28日
    1.2K
  • DNN中的理论可解释性

    自DNN诞生起,人们就开始尝试对其解释。若要对DNN进行定量、严谨的解释,数学层面的理论构建是必要的。本次报告介绍了基于博弈论Shapley Value构建的DNN可解释性理论体系…

    2024年1月17日
    1.1K
  • 深度学习优化算法概述

        优化问题是机器学习的核心和本质。在深度学习中,即使有完全相同的数据集和模型框架,使用的优化算法不同,所得到的训练结果也可能不同。深度…

    学术报告 2018年1月22日
    1.3K
  • 模型窃取

    机器学习,尤其是神经网络,已广泛部署在行业环境中,模型通常被部署为预测服务。但是,具有对模型的查询访问权的对手可以窃取该模型以获得与远程目标模型基本一致的替代模型,这就是模型窃取攻…

    2021年5月10日
    3.5K
  • Cache侧信道攻击与防御

    本报告讲述了cache侧信道攻击与防御基本分类及理论基础,给出了基于冲突和基于访问两类侧信道攻击和反制措施的基本概念,并对介绍基于映射随机化和基于隔离两类防御方法的文献进行了详细介…

    2021年11月23日
    2.6K
  • 强化学生个性的知识追踪

    知识追踪是缓解基础教育普及需求和严重不足的教师数量之间矛盾的一个关键途径。目前,提高知识追踪的个性化水平是研究重点之一。本次报告介绍了两类强化学生个性的知识追踪技术,包括额外个性化…

    2023年12月27日
    963
  • 对抗环境下的鲁棒机器学习

    对抗样本的存在表明现代神经网络是相当脆弱的。为解决这一问题,研究者相继提出了许多方法,其中使用对抗样本进行训练被认为是至今最有效的方法之一。 然而,经过对抗训练后神经网络对于正常样…

    2021年1月21日
    1.6K
  • 无监督数据增强研究

          面对渴求大量数据的深度学习,数据扩增方法可以缓和一部分需求,但数据扩增方法往往只应用在有监督学习设定中,带来…

    2019年7月28日
    1.5K
  • 大模型也不安全-小心信息被泄露

    研究大模型隐私泄露攻击,揭示了大模型面临的隐私信息泄露风险。本次学术报告介绍了大模型的应用价值和市场体量,讲述了关于大模型隐私泄露攻击的最新方法,指明了现有的缺陷和未来发展方向。

    2025年8月27日
    1.5K
  • 面向深度学习模型的鲁棒性解释方法研究

    深度学习模型的鲁棒性解释方法旨在提升模型在面对输入扰动或对抗攻击时的解释一致性,是增强模型可信性和应用价值的重要研究方向。本次学术报告介绍了该领域的研究背景与发展现状,重点阐述了M…

    2024年12月19日
    1.1K