基于输入输出扰动的模型窃取防御方法

模型窃取防御技术能够促进深度神经网络的健康发展,推动数据交流与共享。本次报告从输入输出扰动的角度分析了模型窃取防御方法的框架,从数学角度给出了防御的基本原理以及优缺点,利用防御方法的创新为其它领域的科学研究提供思路。

基于输入输出扰动的模型窃取防御方法-张辰龙

原创文章,作者:bfs,如若转载,请注明出处:https://www.isclab.org.cn/2024/07/21/%e5%9f%ba%e4%ba%8e%e8%be%93%e5%85%a5%e8%be%93%e5%87%ba%e6%89%b0%e5%8a%a8%e7%9a%84%e6%a8%a1%e5%9e%8b%e7%aa%83%e5%8f%96%e9%98%b2%e5%be%a1%e6%96%b9%e6%b3%95/

(0)
bfsbfs
上一篇 2024年7月18日 下午1:00
下一篇 2024年7月23日 上午10:35

相关推荐

  • 协同训练

        协同训练是一种多视角学习方法,当数据充分时,在具有这种特征的数据集的任何一个视图上均可以利用一定的机器学习算法训练出一个强分类器。但…

    学术报告 2018年1月7日
    1.5K
  • AI幻觉陷阱与创造力

    聚焦大模型生成中“幻觉”问题的原理、检测方法及其创造力价值。内容涵盖AI幻觉的定义与分类、典型案例、LLM-Check与Verify-and-Edit两种前沿算法的原理与实验评估,…

    2025年6月9日
    1.5K
  • 源代码自动化编辑方法

    代码自动编辑任务通过应用频繁出现的编辑模式对现有代码进行修改,能够提升软件开发的效率。CODIT方法将代码编辑过程建模为树结构变换和标记生成两个阶段。MODIT方法输入整合需要编辑…

    2022年7月10日
    1.4K
  • 缓冲区溢出漏洞浅析

    1.认识漏洞   1.1.漏洞的定义 百度:漏洞是在硬件、软件、协议的具体实现或系统安全策略上存在的缺陷,从而可以使攻击者能够在未授权的情况下访问或破坏系统。 Wikip…

    2014年10月21日
    2.3K
  • 内部威胁检测方法

    近年来,内部(insider)攻击,包括组织信息系统破坏、信息盗窃、电子欺诈等,具有很强的隐蔽性和破坏性,对个人、企业和国家安全构成了巨大的威胁。因此,我们应该更加关注内部威胁的研…

    2021年10月27日
    1.7K
  • 扩散模型加速采样方法与应用

    扩散模型在数据生成的众多领域上呈现出了非常好的效果。然而,在实际应用过程中,扩散模型的采样原理导致其生成速度非常缓慢,严重限制了模型的实际应用效果。为了对采样生成过程进行优化,近年…

    2023年4月17日
    1.5K
  • 面向NIDS的流量对抗样本检测

    在AI攻击复杂性和密集性不断提升的大背景下,ML-NIIDS面临巨大挑战,其中流量对抗样本严重威胁其安全稳定。本次报告从NIDS的迭代发展,聚焦到对抗性安全威胁,再引出主流流量对抗…

    2023年10月23日
    1.5K
  • 联邦学习的参数更新方法

    联邦学习在为解决数据交换时的信息隐私安全及数据孤岛问题时被提出,现广泛应用的为横向联邦与纵向联邦,本次学术报告介绍了联邦学习的基本思路,并基于横向联邦说明了两种经典的参数更新和合并…

    2021年10月11日
    2.1K
  • Not all bytes are equal Neural byte siev

          简单高效的漏洞检测方法一直是信息系统安全领域研究的热点,微软研究人员借助机器学习和深度神经网络开发出一种用于…

    2019年1月21日
    1.3K
  • 人工智能系统安全综述

    人类正在经历着由深度学习技术推动的人工智能浪潮,它为人类生产和生活带来了巨大的技术革新。然而,以往的机器学习理论大多没有考虑开放甚至对抗的系统运行环境,逐渐暴露出了许多安全和隐私问…

    2020年4月22日
    2.1K