基于知识蒸馏的模型窃取方法

随着大数据时代的来临和计算机算力的不断提升,机器学习模型迅速发展,成为计算机视觉、自然语言处理以及恶意软件检测等领域的研究热点。然而最近的研究发现,机器学习模型面临着严峻的安全威胁。本次学术报告介绍了机器学习模型存在的安全性问题,并以模型窃取为例,介绍了模型窃取的发展历史与主要的窃取方法,重点讲解了在未知目标模型训练数据的情况下,如何通过知识蒸馏实现模型窃取。实验结果表明,基于知识蒸馏方法所得到的替代模型在效果上明显优于其他方法。

基于知识蒸馏的模型窃取方法-丁杨

原创文章,作者:bfs,如若转载,请注明出处:https://www.isclab.org.cn/2021/11/15/%e5%9f%ba%e4%ba%8e%e7%9f%a5%e8%af%86%e8%92%b8%e9%a6%8f%e7%9a%84%e6%a8%a1%e5%9e%8b%e7%aa%83%e5%8f%96%e6%96%b9%e6%b3%95/

(4)
bfsbfs
上一篇 2021年11月8日 下午4:46
下一篇 2021年11月23日 上午10:23

相关推荐

  • 大模型也不安全-小心信息被泄露

    研究大模型隐私泄露攻击,揭示了大模型面临的隐私信息泄露风险。本次学术报告介绍了大模型的应用价值和市场体量,讲述了关于大模型隐私泄露攻击的最新方法,指明了现有的缺陷和未来发展方向。

    2025年8月27日
    1.5K
  • 源代码漏洞检测

    本次学术报告对实验室以往在源代码漏洞检测方向的积累做一个总结,展望未来的发展方向,从技术和应用两个视角审查当前源代码漏洞检测面临的问题。进一步从泛化性、细粒度漏洞检测两个方面进行论…

    2023年5月15日
    1.6K
  • 智能体的工具调用攻击

    本报告探讨了大语言模型智能体工具调用机制中的安全漏洞,重点分析了两种新型攻击方法。AMA攻击通过黑盒迭代优化恶意工具的元数据,使其在语义合法的前提下显著提升被智能体选择的概率,在多…

    2026年1月26日
    1.0K
  • 从赋能学习到知识追踪

    人工智能的发展,驱动新赋能方式,2018年国家自然科学基金首次在信息科学部下增设“教育信息科学与技术”的专门代码(F0701),同时《地平线报告(2022高等教育版)》智能学习分析…

    2022年9月19日
    1.5K
  • 命名实体识别简介

    2014年10月18日
    1.8K
  • 深度学习系统的自动化测试简介

    深度学习(DL)在图像分类、语音识别等领域达到或超过了人类水平的性能,且被广泛应用于安全关键领域中(自动驾驶、恶意软件检测等)。然而一些原因(如训练数据偏差、模型过拟合或欠拟合),…

    2020年7月12日
    1.9K
  • 基于汇编指令嵌入的漏洞同源性判别

    同源函数是由相同源码编译得到的程序函数。同源漏洞判别是漏洞挖掘的主要方法之一,用于发现已知漏洞的同源漏洞。本次报告主要汇报基于汇编指令嵌入的同源漏洞判别方法,介绍了汇编指令嵌入的基…

    2021年11月8日
    1.2K
  • 并查集算法及其在约束传递中的应用

    <img src="https://www.isclab.org.cn/wp-content/uploads/2015/06/41.png" alt=&q…

    2015年6月15日
    1.1K
  • 高斯混合模型及求解算法

          高斯混合模型(Gaussian mixture model,GMM)用于对样本的概率密度分布进行估计,而估计…

    2019年2月18日
    1.1K
  • Boosting Methods

      集成学习是机器学习领域中提升单一模型学习效果的典型方法,而Boosting则是集成学习中常用且效果良好的算法之一。通过将Weak learner巧妙地组合成Strong lea…

    学术报告 2017年9月14日
    1.2K