学术报告

  • 时空数据挖掘

    物联网技术和人工智能的快速发展,含时间、空间特性的数据指数增长。如何进行多源异构时空数据本身特性出发,和机器学习深度学习技术深入融合,实现数据实现知识发现和信息挖掘,服务于城市发展与生活应用,是一个巨大挑战。

    2021 年 5 月 18 日 70 0
  • 模型窃取

    机器学习,尤其是神经网络,已广泛部署在行业环境中,模型通常被部署为预测服务。但是,具有对模型的查询访问权的对手可以窃取该模型以获得与远程目标模型基本一致的替代模型,这就是模型窃取攻击。本次学术汇报从模型窃取的基本概念和常用方法分类展开讨论,然后结合两篇顶会论文介绍了两类模型窃取方法的基本原理,分析两类方法的优劣势,并且在最后还讨论了模型窃取的未来发展方向。

    2021 年 5 月 10 日 134 0
  • 组合对抗攻击的自动化搜索方法

    对抗攻击是当下智能系统的新威胁,它使得很多在现实世界中应用的智能系统存在的安全漏洞极大地暴露了出来。近年来,学界提出了多种实现对抗攻击的方法,但是在不知道目标模型的防御细节的情况下,研究者很难根据经验选择到对当前模型最优的攻击算法。本次学术报告首先说明了对抗攻击和自动机器学习的基础知识,然后介绍了2021的顶会论文中提出的组合对抗攻击的自动化搜索方法,该方法…

    2021 年 5 月 6 日 91 0
  • 基于图神经网络的二进制程序函数相似性检测

    二进制程序函数相似性检测常用于代码抄袭检测,同源漏洞判别,恶意软件分析等领域,本次报告主要简要介绍了基于图匹配,图嵌入的检测方法,详细介绍了基于图神经网络的相似性检测方法,最后介绍了相关领域下的应用方法。

    2021 年 4 月 26 日 114 0
  • 提高对抗鲁棒性的特征降噪方法

    当深度学习以惊人的准确性执行各种各样任务的同时,在图像分类等领域的深度神经网络却容易受到对抗样本的攻击,从而输出错误的预测结果。本次学术报告首先说明了对抗攻防的主要方法分类和残差网络的特点,然后重点讲解了一种提高对抗鲁棒性的特征降噪方法,最后介绍了对抗样本的应用领域。

    2021 年 4 月 19 日 90 0
  • 缺乏先验知识条件下的模型窃取方法

    随着机器学习的快速发展,图像分类、恶意软件识别等多个领域都通过建立机器学习模型解决相应的问题。但由于一些训练出的模型可能涉及训练数据的隐私信息与模型的商业价值,所以其安全性一直备受关注。本次学术报告介绍了模型窃取技术的发展历程,重点讲解了在缺乏模型参数、模型结构以及训练数据等先验条件下,如何通过构造数据实现模型窃取的方法。

    2021 年 4 月 14 日 75 0
  • 基于T-Closeness的微聚集数据脱敏算法

    大数据时代的到来,同时也带来了隐私、敏感信息保护方面的棘手难题。数据脱敏措施层出不穷,K-Anonymity,L-Diversity,T-Closeness,以及相结合的微聚集算法,能够在保证数据效用的同时,最大化防止隐私数据泄露,本次学术报告详细讲解了T-Closeness的原理、用来计算两种概率分布距离的EMD(Earth Mover ‘s …

    2021 年 4 月 6 日 113 0
  • AFL–基于覆盖的模糊测试工具

    本次报告介绍了模糊测试以及各种分类方法,并且讲解了目前流行的模糊测试工具AFL的原理,阐明了AFL工具是如何提高代码覆盖率的。针对AFL存在的测试用例生成盲目性的问题,介绍了一种基于自适应随机测试的测试用例生成方法,实验结果表明使用改进后的方法显著提高了软件测试的效率和质量。

    2021 年 3 月 29 日 106 0