学术报告

  • 隐私保护的领域自适应迁移学习方法

    本报告讲述了隐私计算技术体系的整体架构及主要理论,给出了迁移学习及领域自适应问题的基本概念,通过详细介绍隐私保护政策下最新的去中心化无监督领域自适应论文以及基于隐私保护的模型联邦个…

    2021年10月11日
    738
  • 联邦学习的参数更新方法

    联邦学习在为解决数据交换时的信息隐私安全及数据孤岛问题时被提出,现广泛应用的为横向联邦与纵向联邦,本次学术报告介绍了联邦学习的基本思路,并基于横向联邦说明了两种经典的参数更新和合并…

    2021年10月11日
    1.2K
  • 日志数据的深度学习异常检测方法

    本报告介绍了利用系统的日志数据进行异常检测所面临的挑战,给出了日志数据分类、用途、实例等基本概念和基础知识,并对日志数据的解析处理和利用日志数据进行异常检测的高水平文献算法进行了详…

    2021年9月23日
    856
  • 鲁棒性认证方法

    随着对抗样本的危险性日益凸显,提高模型的鲁棒性成为研究的主要方向之一,然而,在评估鲁棒性方面还没有统一的标准,使得不同的防御方法之间对比存在很大的困难。

    2021年9月13日
    1.2K
  • 特定安全领域中的对抗样本防御方法

    以深度学习为代表的人工智能技术正在悄然改变人们的生产生活方式,但深度学习模型的部署也带来了一定的安全隐患。对抗样本攻击能使深度学习模型系统进行误判,对各个人工智能应用领域造成了严重…

    2021年8月31日
    911
  • 多标签学习

    每天都有大量的数据生成,这导致人们越来越需要新的努力来应对大数据给多标签学习带来的巨大挑战。例如,极端多标签分类是一个活跃且快速发展的研究领域,它处理的分类任务具有极其大量的类别或…

    2021年8月22日
    859
  • 机器学习模型后门攻击检测

    本次学术报告简要介绍了人工智能系统面临的各种安全威胁,通过将对抗样本与后门攻击进行多方面比较,从而引入了机器学习模型后门攻击的原理和检测方法,以及后门攻击技术的应用领域。

    2021年8月22日
    1.2K
  • 深度神经网络后门攻击

    人工智能模型安全是人工智能应用落地需要考量的重要问题,后门攻击威胁是人工智能模型安全的重要议题。本次学术报告以深度神经网络为后门攻击的对象,从深度神经网络训练的内部机理出发,通过了…

    2021年8月15日
    1.1K
  • 特定安全攻防场景中的对抗样本生成方法

    最新的特定安全攻防场景可以细化为两个研究方向:匿名通信网络的网站指纹防御和僵尸网络的域名生成,以此来介绍对抗样本在防御任务和攻击任务中的应用。网站指纹攻击可以从网站中提取流量模式,…

    2021年7月26日
    1.1K
  • 多视角深度学习

    多视角即从各种不同的角度观察同一事物 ,在深度学习中即引入一个函数去模型化特定的视角,并且利用相同输入的冗余视角去联合优化所有函数,达到更好的模型效果。多视角学习可应用于大多数数据…

    2021年7月18日
    776