深度神经网络模型窃取检测

本报告介绍了深度神经网络模型窃取检测的三种方法,从算法思想,实验结果,算法分析三个角度对已有算法进行贯穿式总结,阐述了模型窃取检测领域的难点,提升对模型安全领域问题的认识

深度神经网络模型窃取检测-张辰龙

原创文章,作者:bfs,如若转载,请注明出处:https://www.isclab.org.cn/2023/03/06/%e6%b7%b1%e5%ba%a6%e7%a5%9e%e7%bb%8f%e7%bd%91%e7%bb%9c%e6%a8%a1%e5%9e%8b%e7%aa%83%e5%8f%96%e6%a3%80%e6%b5%8b/

(1)
bfsbfs
上一篇 2023年2月27日 上午9:23
下一篇 2023年3月12日 下午8:51

相关推荐

  • 特定安全攻防场景中的对抗样本生成方法

    最新的特定安全攻防场景可以细化为两个研究方向:匿名通信网络的网站指纹防御和僵尸网络的域名生成,以此来介绍对抗样本在防御任务和攻击任务中的应用。网站指纹攻击可以从网站中提取流量模式,…

    2021年7月26日
    2.2K
  • 软件缺陷自动修复方法

    随着现代软件规模的不断扩大和复杂性的不断提高,软件缺陷调试所消耗的成本也在不断增加,软件缺陷的自动修复成为越来越迫切的需求。软件缺陷自动修复可以分为缺陷定位、补丁生成、补丁验证三个…

    2021年12月20日
    2.3K
  • 智能体的工具调用攻击

    本报告探讨了大语言模型智能体工具调用机制中的安全漏洞,重点分析了两种新型攻击方法。AMA攻击通过黑盒迭代优化恶意工具的元数据,使其在语义合法的前提下显著提升被智能体选择的概率,在多…

    2026年1月26日
    1.7K
  • 协同训练

        协同训练是一种多视角学习方法,当数据充分时,在具有这种特征的数据集的任何一个视图上均可以利用一定的机器学习算法训练出一个强分类器。但…

    学术报告 2018年1月7日
    1.8K
  • 偷走你的训练数据:模型反演攻击方法研究

    通过模型反演攻击方法研究,验证了模型训练数据面临泄露风险的问题,并希望以此促进对应防御手段的发展。本次学术报告介绍了模型反演攻击方法的相关知识,并聚焦于两个经典的白盒和黑盒攻击方法…

    2024年2月27日
    2.2K
  • 大语言模型调研

    针对大语言模型展开调研,介绍大语言模型发展背景和研究现状,通过讲解LLaMA2模型的预训练和微调步骤,全面讲解大语言模型的训练过程,随后对越狱攻击大语言模型的方法进行研究,通过讲解…

    2024年1月3日
    1.8K
  • 文本风格迁移

    风格迁移是将多种类型风格转换成另一风格,是自然语言处理领域的一个重要问题,表征着文本生成和风格控制技术的发展情况,在大数据时代下的隐私保护等方面起着重要作用。本文主要介绍了文本风格…

    2020年11月10日
    2.4K
  • 机器学习模型后门攻击检测

    本次学术报告简要介绍了人工智能系统面临的各种安全威胁,通过将对抗样本与后门攻击进行多方面比较,从而引入了机器学习模型后门攻击的原理和检测方法,以及后门攻击技术的应用领域。

    2021年8月22日
    2.4K
  • 浅谈TCP/IP协议栈

    本次报告从TCP/IP四层模型出发,讲解了分层模型的原理和意义,并系统地从底层到顶层分别讲解了数据链路层、传输层和网络层这三层的主要协议和这些协议的实现原理。通过此次学术报告可以清…

    2020年1月12日
    2.1K
  • 深度学习讨论会

        本次学术报告简单介绍了深度学习的定义和过程,并给出了基于Keras实现手写数字识别的基本过程和实验结果,讨论了设置不同batch s…

    学术报告 2017年12月3日
    1.9K