偷走你的训练数据:模型反演攻击方法研究

通过模型反演攻击方法研究,验证了模型训练数据面临泄露风险的问题,并希望以此促进对应防御手段的发展。本次学术报告介绍了模型反演攻击方法的相关知识,并聚焦于两个经典的白盒和黑盒攻击方法。

偷走你的训练数据:模型反演攻击方法研究-皮佳伟

原创文章,作者:bfs,如若转载,请注明出处:https://www.isclab.org.cn/2024/02/27/%e5%81%b7%e8%b5%b0%e4%bd%a0%e7%9a%84%e8%ae%ad%e7%bb%83%e6%95%b0%e6%8d%ae%ef%bc%9a%e6%a8%a1%e5%9e%8b%e5%8f%8d%e6%bc%94%e6%94%bb%e5%87%bb%e6%96%b9%e6%b3%95%e7%a0%94%e7%a9%b6/

(1)
bfsbfs
上一篇 2024年1月26日 下午5:12
下一篇 2024年2月27日 下午5:13

相关推荐

  • 走近特定音频识别(之四)—— 训练和识别

    上篇文章介绍了“识别”和“检索”的区别和关系,从这篇开始,我们将从更近的距离接触特定音频识别,本文将向大家介绍特定音频识别系统的基本构成。     一个典型的特定音频识别系统的原理…

    2014年10月28日
    1.4K
  • 人工智能系统安全综述

    人类正在经历着由深度学习技术推动的人工智能浪潮,它为人类生产和生活带来了巨大的技术革新。然而,以往的机器学习理论大多没有考虑开放甚至对抗的系统运行环境,逐渐暴露出了许多安全和隐私问…

    2020年4月22日
    2.0K
  • Cache侧信道攻击与防御

    本报告讲述了cache侧信道攻击与防御基本分类及理论基础,给出了基于冲突和基于访问两类侧信道攻击和反制措施的基本概念,并对介绍基于映射随机化和基于隔离两类防御方法的文献进行了详细介…

    2021年11月23日
    2.7K
  • Glibc内存管理2

          内存管理是指软件运行时对计算机内存资源的分配和使用的技术。其最主要的目的是如何高效,快速的分配,并且在适当的…

    2019年6月19日
    1.3K
  • 智能体的工具调用攻击

    本报告探讨了大语言模型智能体工具调用机制中的安全漏洞,重点分析了两种新型攻击方法。AMA攻击通过黑盒迭代优化恶意工具的元数据,使其在语义合法的前提下显著提升被智能体选择的概率,在多…

    2026年1月26日
    1.1K
  • 对抗性扰动下的后门防御方法

    后门防御旨在使用神经元剪枝、知识蒸馏等手段消除模型中隐藏的后门,阻止攻击者使用触发器样本控制深度学习模型的输出。本次学术报告主要讲解了两种以对抗性扰动和后门攻击关系为基础的后门防御…

    2024年1月17日
    1.7K
  • 深度神经网络中的后门攻击

    深度神经网络在图像识别、语音处理以及机器翻译等领域具有良好的预测性能,但是由于深度神经网络对决策结果可解释性的缺乏以及解决训练开销而寻求的外包训练的安全难以有效保证,都导致深度神经…

    2020年12月7日
    2.1K
  • http协议概览

    HTTP 协议本身并不复杂,理解起来也不会花费太多学习成本,但很多前端工程师常常忽视了 HTTP 协议这部分基础内容。实际上,如果想要在专业技术道路上走得更坚实,绝对不能绕开学习 …

    2020年4月25日
    1.5K
  • 异质图神经网络

    异构图(HG)也称为异构信息网络,在现实世界中已变得无处不在;因此,HG嵌入(HG embedding)近年来受到了广泛关注,它旨在学习低维空间中的表示,同时保留下游任务的异构结构…

    2022年9月26日
    1.6K
  • 隧道流量识别研究

    本文介绍两种隧道流量识别方法:DecETT方法构建不同的损失解耦隧道流协议特征和应用语义特征,实现AF检测;Graphtunnel方法构建DNS递归解析图进行DNS隧道流量监测。未…

    2026年2月3日
    739