学术报告

  • Dropout随机失活

    具有大量参数的深度神经网络是非常强大的机器学习系统。然而,在这样复杂的网络中,过拟合的问题难以解决。复杂的网络结构和缓慢的运行速度导致我们很难在测试时通过组合许多不同大型神经网络的预测来处理过度拟合。本报告重点讲述了一种深度网络的正则化思想——Dropout方法的原理,并介绍了Dropout思想下相关算法的发展与应用。

    2022 年 1 月 21 日 14 0
  • 深度生成模型

    近年,机器学习已经在计算机视觉、语音识别、语音合成以及自然语言处理(NLP)领域取得了突破性成果,在机器翻译和情感计算中展现的能力也颇令人期待。 其中机器学习方法可以分为生成方法(generative approach)和判别方法(discriminative approach),所学到的模型分别称为生成式模型(generative model)和判别式模型…

    2022 年 1 月 14 日 18 0
  • 神经网络模型的覆盖测试

    人工智能系统在近年来取得丰硕的成果,其中神经网络在自动驾驶领域等图像处理方向应用较为广泛。但是神经网络存在安全隐患,容易受到攻击导致决策错误,比如对抗样本攻击和后门攻击。如何测试神经网络模型,提前发现模型潜在的缺陷成为亟待解决的问题。本报告重点讲述了人工智能系统的测试框架和测试指标,并介绍了应用覆盖测试思想对神经网络模型进行测试的方法。

    2022 年 1 月 4 日 37 0
  • 结合溯源图的APT检测方法

    APT攻击事件频发,严重危害着各国政府部门、组织、公司的网络信息安全。溯源图追踪日志之间的因果关系,保留了系统的丰富执行历史信息,便于检测长期且隐蔽的APT攻击。本次汇报首先讲解了APT攻击的基本概念和检测难点,介绍了网络安全领域常用的Kill-chain模型和ATT&CK框架,并对两种先进的结合溯源图的APT检测方法做了详细讲解,最后分析两种方法的…

    2021 年 12 月 27 日 51 0
  • 软件缺陷自动修复方法

    随着现代软件规模的不断扩大和复杂性的不断提高,软件缺陷调试所消耗的成本也在不断增加,软件缺陷的自动修复成为越来越迫切的需求。软件缺陷自动修复可以分为缺陷定位、补丁生成、补丁验证三个阶段。本次汇报分享了两种常见的补丁生成方法,基于修复模板的方法利用人工总结的模板生成补丁;基于神经机器翻译的方法则是将缺陷修复的过程视作是将缺陷程序翻译为修复程序的过程,使用自然语…

    2021 年 12 月 20 日 45 0
  • 面向深度学习组件的漏洞挖掘

    人工智能软件系统的安全逐渐受到人们的重视,深度学习软件库存在的缺陷可能威胁到框架之上的模型和系统,目前仍然缺少深度学习软件库测试的系统方法。面对深度学习安全领域,针对深度学习软件库的漏洞方法存在的测试预期如何选取的问题,本次汇报分享了通过两两比较不同框架下模型输出差异的差分测试方法,方法对于分类任务和回归任务分别提出了各自的距离度量,来衡量不同框架输出差异的…

    2021 年 12 月 12 日 55 0
  • 利用差分隐私噪声扰动的单词替换方法

    在机器学习(ML)和人工智能(AI)时代,保护隐私的数据分析至关重要,在这个时代,一个可用性强的数据集可以提供比优化算法更高的收益。然而现有机制无法提供足够的隐私保障阻碍了自然语言处理(NLP)领域的发展,所以对敏感数据的计算和脱敏处理是近年来的一个重要目标。本报告介绍了数据脱敏的重要性和应用场景,简述了数据脱敏针对多元异构的输入数据所使用的方法,并重点描述…

    2021 年 12 月 7 日 36 0
  • 深度学习系统安全性测试及测试样本优先级排序

    深度学习在近十年取得了长足发展。由于其在复杂领域表现出优异的性能,逐渐被集成到软件体系中形成深度学习系统。这一方面推动了深度学习的发展,另一方面也对深度学习的安全性提出了巨大挑战:由于模型过拟合、欠拟合,训练数据不平衡等问题,模型在面对极端样本时往往会做出不正确的预测行为。在对预测正确性至关重要的领域,错误的预测行为将会造成灾难性后果,如何测试深度学习系统也…

    2021 年 11 月 29 日 47 0