学术报告

  • 基于知识蒸馏的模型窃取方法

    随着大数据时代的来临和计算机算力的不断提升,机器学习模型迅速发展,成为计算机视觉、自然语言处理以及恶意软件检测等领域的研究热点。然而最近的研究发现,机器学习模型面临着严峻的安全威胁…

    2021年11月15日
    2.3K
  • 基于汇编指令嵌入的漏洞同源性判别

    同源函数是由相同源码编译得到的程序函数。同源漏洞判别是漏洞挖掘的主要方法之一,用于发现已知漏洞的同源漏洞。本次报告主要汇报基于汇编指令嵌入的同源漏洞判别方法,介绍了汇编指令嵌入的基…

    2021年11月8日
    1.2K
  • 匮乏资源命名实体识别

    NER作为自然语言处理中的一项基础任务,应用范围非常广泛。命名实体识别是许多任务的基本组成部分,并已被深度神经网络大大推进。目前NER只是在有限的领域和实体类型中取得了较好的成绩,…

    2021年11月2日
    1.3K
  • 内部威胁检测方法

    近年来,内部(insider)攻击,包括组织信息系统破坏、信息盗窃、电子欺诈等,具有很强的隐蔽性和破坏性,对个人、企业和国家安全构成了巨大的威胁。因此,我们应该更加关注内部威胁的研…

    2021年10月27日
    1.4K
  • 小样本实体关系抽取方法

    信息抽取是自然语言处理中的重要组成部分,特别是在当今信息化社会中,从海量数据中抽取出有用的信息显得格外有意义。实体关系抽取是信息抽取的基础任务。现实生活中存在着长尾分布的问题,这导…

    2021年10月21日
    1.9K
  • 隐私保护的领域自适应迁移学习方法

    本报告讲述了隐私计算技术体系的整体架构及主要理论,给出了迁移学习及领域自适应问题的基本概念,通过详细介绍隐私保护政策下最新的去中心化无监督领域自适应论文以及基于隐私保护的模型联邦个…

    2021年10月11日
    1.4K
  • 联邦学习的参数更新方法

    联邦学习在为解决数据交换时的信息隐私安全及数据孤岛问题时被提出,现广泛应用的为横向联邦与纵向联邦,本次学术报告介绍了联邦学习的基本思路,并基于横向联邦说明了两种经典的参数更新和合并…

    2021年10月11日
    1.8K
  • 日志数据的深度学习异常检测方法

    本报告介绍了利用系统的日志数据进行异常检测所面临的挑战,给出了日志数据分类、用途、实例等基本概念和基础知识,并对日志数据的解析处理和利用日志数据进行异常检测的高水平文献算法进行了详…

    2021年9月23日
    1.5K
  • 鲁棒性认证方法

    随着对抗样本的危险性日益凸显,提高模型的鲁棒性成为研究的主要方向之一,然而,在评估鲁棒性方面还没有统一的标准,使得不同的防御方法之间对比存在很大的困难。

    2021年9月13日
    1.8K
  • 特定安全领域中的对抗样本防御方法

    以深度学习为代表的人工智能技术正在悄然改变人们的生产生活方式,但深度学习模型的部署也带来了一定的安全隐患。对抗样本攻击能使深度学习模型系统进行误判,对各个人工智能应用领域造成了严重…

    2021年8月31日
    1.5K