面向生成模型的模型窃取方法

针对判别模型窃取及防御方法的研究日趋成熟,近期的研究表明,生成模型同样面临模型窃取威胁。本次学术报告重点介绍了关于生成模型的窃取方法的原理,以及其与判别模型窃取方法、评价指标的区别,最后给出相对应的防御措施。

面向生成模型的模型窃取方法-丁杨

原创文章,作者:bfs,如若转载,请注明出处:https://www.isclab.org.cn/2022/07/19/%e9%9d%a2%e5%90%91%e7%94%9f%e6%88%90%e6%a8%a1%e5%9e%8b%e7%9a%84%e6%a8%a1%e5%9e%8b%e7%aa%83%e5%8f%96%e6%96%b9%e6%b3%95/

(1)
bfsbfs
上一篇 2022年7月10日 下午8:27
下一篇 2022年7月21日

相关推荐

  • 自动化程序缺陷修复及其应用研究

    大型复杂软件系统的高频率开发迭代,导致潜在缺陷数量增加,影响工业控制、交通管理等关键领域正常运转。缺陷修复指生成软件缺陷的修复代码,降低人工成本。研究自动化缺陷修复,能够及时修复软…

    2024年8月18日
    1.8K
  • 音频事件识别参数优化方法

    目前音频处理领域各种系统的参数优化研究,通常把系统的各个层次(一般包括特征提取、特征向量生成、模型训练等)割裂开来进行相互独立的参数寻优,再将独立寻优结果进行简单组合,构成系统的参…

    2015年1月28日
    2.0K
  • 增强认知诊断结果的可解释性

    认知诊断通过挖掘学习者行为、心理和认知之间的关系,利用学习者的学习数据,对其认知状态进行综合评估和诊断,其输出结果,即学生对于不同知识概念的熟练程度应与实际情况相符,具有高度的可解…

    2024年10月17日
    1.9K
  • 人工智能模型的谈忘学习方法

    遗忘学习被称为机器遗忘或取消学习,是指机器学习或深度学习系统中先前获取的知识随着时间推移而退化的现象。本次学习报告的主要讲解了两种人工智能模型的遗忘学习方法,遗忘训练数据中的特定样…

    2024年11月5日
    2.1K
  • 从赋能学习到知识追踪

    人工智能的发展,驱动新赋能方式,2018年国家自然科学基金首次在信息科学部下增设“教育信息科学与技术”的专门代码(F0701),同时《地平线报告(2022高等教育版)》智能学习分析…

    2022年9月19日
    2.2K
  • 深度学习系统的自动化测试简介

    深度学习(DL)在图像分类、语音识别等领域达到或超过了人类水平的性能,且被广泛应用于安全关键领域中(自动驾驶、恶意软件检测等)。然而一些原因(如训练数据偏差、模型过拟合或欠拟合),…

    2020年7月12日
    2.7K
  • 组合对抗攻击的自动化搜索方法

    对抗攻击是当下智能系统的新威胁,它使得很多在现实世界中应用的智能系统存在的安全漏洞极大地暴露了出来。近年来,学界提出了多种实现对抗攻击的方法,但是在不知道目标模型的防御细节的情况下…

    2021年5月6日
    2.3K
  • 机器学习模型后门攻击检测

    本次学术报告简要介绍了人工智能系统面临的各种安全威胁,通过将对抗样本与后门攻击进行多方面比较,从而引入了机器学习模型后门攻击的原理和检测方法,以及后门攻击技术的应用领域。

    2021年8月22日
    2.6K
  • Web应用漏洞挖掘技术研究

    该报告系统探讨了基于黑盒扫描的Web应用漏洞挖掘技术。报告重点分析了两项前沿工作:YuraScanner利用大语言模型(LLM)理解网站功能并自主执行任务流,以探索传统扫描器难以触…

    2026年4月27日
    328
  • 单词级文本对抗攻击

    本报告介绍了单词级文本对抗攻击(Word-Level Attack)的背景和基本原理,展示了在OpenAttack和TextAttack两类开源工具上的测试样例,并分别讲述了基于义…

    2023年5月29日
    2.5K