人工智能系统安全综述

人类正在经历着由深度学习技术推动的人工智能浪潮,它为人类生产和生活带来了巨大的技术革新。然而,以往的机器学习理论大多没有考虑开放甚至对抗的系统运行环境,逐渐暴露出了许多安全和隐私问题。本次学术报告介绍了人工智能系统安全防护的基本思想,并分享了六种经典的人工智能系统攻击手段及相应对策,最后讨论了人工智能系统未来在安全研究方面的发展趋势。

网络安全组-学术报告-人工智能系统安全综述-王琛-2020-04-12

原创文章,作者:bfs,如若转载,请注明出处:https://www.isclab.org.cn/2020/04/22/%e4%ba%ba%e5%b7%a5%e6%99%ba%e8%83%bd%e7%b3%bb%e7%bb%9f%e5%ae%89%e5%85%a8%e7%bb%bc%e8%bf%b0/

(1)
bfsbfs
上一篇 2020年4月21日 下午5:08
下一篇 2020年4月25日 下午8:10

相关推荐

  • 模型窃取防御:从被动溯源到主动防御

    本次学术报告探讨模型窃取防御方法,重点介绍两种前沿防御方案。ModelShield采用自适应鲁棒水印技术,通过查询响应分布自动注入水印,实现被动溯源与版权验证;QUEEN则基于查询…

    2025年12月8日
    689
  • 网络嵌入研究方法综述

    网络嵌入(Network Embedding)是针对网络中节点进行特征学习的一项新兴的研究任务,它旨在将网络中的节点表示成低维、实值、稠密的向量形式,使得得到的向量形式可以在向量空…

    2020年3月23日
    2.0K
  • 网络拓扑混淆技术

    这篇报告围绕网络拓扑混淆技术展开,首先阐述了网络拓扑脆弱性及攻击者推理真实结构的威胁,强调了混淆防御的重要性。报告详细介绍了AntiTomo和EigenObfu两种主流方法,包括各…

    2025年4月27日
    907
  • 深度神经网络后门攻击

    人工智能模型安全是人工智能应用落地需要考量的重要问题,后门攻击威胁是人工智能模型安全的重要议题。本次学术报告以深度神经网络为后门攻击的对象,从深度神经网络训练的内部机理出发,通过了…

    2021年8月15日
    1.5K
  • 成员推理攻击和防御

    机器学习已经演化为了一种服务模式,即机器学习即服务模式。互联网公司或提供模型训练接口,或提供模型预测接口给用户以提供相应的服务。但是,在提供服务的整个过程中,机器学习模型不可避免的…

    2021年6月24日
    2.7K
  • Deep Learning Backdoor Attacks Detection

    The susceptibility of deep neural networks to backdoor or trojan attacks has been demonstr…

    2023年6月26日
    769
  • 操作系统结构与内核安全基础

      虽然每个电脑使用者都听说过操作系统,但是大部分人对于操作系统的结构,以及平时计算机安全领域常常提到的“操作系统内核”是十分陌生的。  本次学术报告为大家讲解了操作系统最基本的结…

    学术报告 2017年8月30日
    1.0K
  • 基于Transformer的时间序列分析

    本次报告主要从Transformer框架入手,介绍基于Transformer模型的时间序列分析方法。针对Transformer模型的位置嵌入、注意力机制、模型架构三个方向在时间序列…

    2023年6月17日
    1.1K
  • 扩散模型的后门攻击研究

    文本-图像生成模型在当今生活中有广泛应用,最新研究表明,这类多模态的生成模型也面临着安全风险,例如对抗样本攻击、成员推理攻击和后门攻击等。本次学术报告介绍了文本-图像生成模型最新的…

    2025年9月16日
    854
  • 深度生成模型

    近年,机器学习已经在计算机视觉、语音识别、语音合成以及自然语言处理(NLP)领域取得了突破性成果,在机器翻译和情感计算中展现的能力也颇令人期待。 其中机器学习方法可以分为生成方法(…

    2022年1月14日
    1.1K