学术报告

  • 弱监督技术方法

    当前监督学习技术已经取得了巨大的成功,但是值得注意的是,由于数据标注过程的成本太高,很多任务很难获得如全部真值标签这样的强监督信息。而无监督学习由于学习过程太过困难,它的发展缓慢。…

    2022年2月21日
    1.2K
  • Dropout随机失活

    具有大量参数的深度神经网络是非常强大的机器学习系统。然而,在这样复杂的网络中,过拟合的问题难以解决。复杂的网络结构和缓慢的运行速度导致我们很难在测试时通过组合许多不同大型神经网络的…

    2022年1月21日
    1.0K
  • 深度生成模型

    近年,机器学习已经在计算机视觉、语音识别、语音合成以及自然语言处理(NLP)领域取得了突破性成果,在机器翻译和情感计算中展现的能力也颇令人期待。 其中机器学习方法可以分为生成方法(…

    2022年1月14日
    1.3K
  • 神经网络模型的覆盖测试

    人工智能系统在近年来取得丰硕的成果,其中神经网络在自动驾驶领域等图像处理方向应用较为广泛。但是神经网络存在安全隐患,容易受到攻击导致决策错误,比如对抗样本攻击和后门攻击。如何测试神…

    2022年1月4日
    1.3K
  • 结合溯源图的APT检测方法

    APT攻击事件频发,严重危害着各国政府部门、组织、公司的网络信息安全。溯源图追踪日志之间的因果关系,保留了系统的丰富执行历史信息,便于检测长期且隐蔽的APT攻击。本次汇报首先讲解了…

    2021年12月27日
    2.6K
  • 软件缺陷自动修复方法

    随着现代软件规模的不断扩大和复杂性的不断提高,软件缺陷调试所消耗的成本也在不断增加,软件缺陷的自动修复成为越来越迫切的需求。软件缺陷自动修复可以分为缺陷定位、补丁生成、补丁验证三个…

    2021年12月20日
    1.7K
  • 面向深度学习组件的漏洞挖掘

    人工智能软件系统的安全逐渐受到人们的重视,深度学习软件库存在的缺陷可能威胁到框架之上的模型和系统,目前仍然缺少深度学习软件库测试的系统方法。面对深度学习安全领域,针对深度学习软件库…

    2021年12月12日
    1.4K
  • 利用差分隐私噪声扰动的单词替换方法

    在机器学习(ML)和人工智能(AI)时代,保护隐私的数据分析至关重要,在这个时代,一个可用性强的数据集可以提供比优化算法更高的收益。然而现有机制无法提供足够的隐私保障阻碍了自然语言…

    2021年12月7日
    1.3K
  • 深度学习系统安全性测试及测试样本优先级排序

    深度学习在近十年取得了长足发展。由于其在复杂领域表现出优异的性能,逐渐被集成到软件体系中形成深度学习系统。这一方面推动了深度学习的发展,另一方面也对深度学习的安全性提出了巨大挑战:…

    2021年11月29日
    1.9K
  • Cache侧信道攻击与防御

    本报告讲述了cache侧信道攻击与防御基本分类及理论基础,给出了基于冲突和基于访问两类侧信道攻击和反制措施的基本概念,并对介绍基于映射随机化和基于隔离两类防御方法的文献进行了详细介…

    2021年11月23日
    2.6K