学术报告

  • 深度神经网络对抗样本防御方法

    近年来深度学习技术不断突破,极大促进了人工智能行业的发展,但人工智能模型本身易受到对抗攻击从而引起严重后果。对原始样本有针对性地加入微小扰动,该扰动不易被人眼所察觉,但会导致人工智能模型识别错误,这种攻击被称为“对抗攻击“。本次报告首先介绍了深度神经网络中对抗样本的基本概念,分析经典的对抗样本攻击方法,接着介绍了对抗攻击的防御思路,并讲解了两篇领域内经典的防…

    2021 年 1 月 4 日 167 0
  • 基于深度学习的恶意流量检测方法

    近年来,基于机器学习的算法在恶意流量检测领域中越来越流行,但此类算法通常使用浅层模型,在训练之前需要一组专家手工制作的特征来预处理数据。此类方法的主要问题是,在不同类型的场景下,手工制作的特征可能无法表现出较好的分类结果。深度学习模型可以在一定程度上解决这类问题,它从输入的原始或未处理数据中学习特征表示,不需要对数据进行复杂的特征构建也能够得到很好的分类效果…

    2020 年 12 月 27 日 207 0
  • 基于网络一致性的对抗样本检测

    人工智能系统面临着多种安全威胁,其中对抗样本攻击被广泛应用于诸如计算机视觉、自然语言处理、音频处理以及恶意软件检测等多个领域。本文介绍了常见的对抗样本检测方法和原理。特别的,简单分析了两种基于网络一致性的对抗样本检测方法,并对对抗样本检测技术在网络安全领域的未来发展做了展望。随着攻击手法越来越多样化,攻击算法越来越高效,更加稳健、通用的防御方法是未来的研究热…

    2020 年 12 月 20 日 150 0
  • 大规模多标签分类方法

    近年来,随着互联网技术的高速发展和数据规模的快速增长、大数据的应用,多标签分类应用场景越来越多,如电子商务中的商品分类、网页标签、新闻标注、蛋白质功能分类、音乐分类、语义场景分类等。大规模多标签文本分类(XMTC)是一个自然语言处理(NLP)任务,标记每个给定文本与最相关的多个标签,即从超大空间的类别中找到每个文档中最相关的标签子集,不同于多分类,每个实例只…

    2020 年 12 月 13 日 293 0
  • 深度神经网络中的后门攻击

    深度神经网络在图像识别、语音处理以及机器翻译等领域具有良好的预测性能,但是由于深度神经网络对决策结果可解释性的缺乏以及解决训练开销而寻求的外包训练的安全难以有效保证,都导致深度神经网络存在脆弱性,攻击者可以利用脆弱性对模型做出卓有成效的攻击。学术报告从深度神经网络的一般训练过程出发,讲述了深度神经网络中常见攻击存在的环节以及攻击的效果,详细阐述了深度神经网络…

    2020 年 12 月 7 日 298 0
  • 法律文本可解释性研究

    法律文本可解释性研究是将可解释性研究方法应用到法律文本领域,旨在构建智慧法庭,辅助法官判案,实现法律检索和类案匹配。本次学术报告从案件罪名预测和相似案例匹配两个应用角度进行讲解,对可解释性的概念进行全面说明。

    2020 年 11 月 22 日 121 0
  • 时序网络嵌入方法介绍

    网络嵌入(Network Embedding)是针对网络中节点进行特征学习的一项新兴的研究任务,它旨在将网络中的节点表示成低维、实值、稠密的向量形式,使得得到的向量形式可以在向量空间中具有表示以及推理的能力,从而运用到社交网络中常见的应用中,如节点分类、链接预测等。本次学术报告主要讲述基于霍克斯工程的时序网络嵌入的算法模型。

    2020 年 11 月 16 日 190 0
  • 文本风格迁移

    风格迁移是将多种类型风格转换成另一风格,是自然语言处理领域的一个重要问题,表征着文本生成和风格控制技术的发展情况,在大数据时代下的隐私保护等方面起着重要作用。本文主要介绍了文本风格迁移存在的问题及解决方法,并介绍了两篇经典的风格迁移方法。

    2020 年 11 月 10 日 240 0