图神经网络可解释方法

图神经网络模型的可解释性对于建立用户与决策模型之间的信任关系至关重要,为了安全、可信地部署图神经网络模型,需要提高图神经网络模型的可解释性和透明性。本次报告带大家了解图神经网络的可解释方法的分类和常用的解释方法(GNNExplainer和XGNN)

图神经网络可解释方法-慕星星

原创文章,作者:bfs,如若转载,请注明出处:https://www.isclab.org.cn/2021/07/11/%e5%9b%be%e7%a5%9e%e7%bb%8f%e7%bd%91%e7%bb%9c%e5%8f%af%e8%a7%a3%e9%87%8a%e6%96%b9%e6%b3%95/

(0)
bfsbfs
上一篇 2021年7月7日 下午2:34
下一篇 2021年7月15日

相关推荐

  • active self-paced learning

          在机器学习中获得标注数据是一个重要的部分。但是在一些专业领域,标注成本高,成本高,导致了获得标注数据困难。主…

    2019年2月24日
    1.7K
  • 深度神经网络模型窃取检测

    本报告介绍了深度神经网络模型窃取检测的三种方法,从算法思想,实验结果,算法分析三个角度对已有算法进行贯穿式总结,阐述了模型窃取检测领域的难点,提升对模型安全领域问题的认识

    2023年3月6日
    2.0K
  • 可解释的假新闻检测

    虚假新闻对社会产生了许多负面影响。现有假新闻检测方法按照输入条件,可分为基于新闻内容及其外部知识的方法,以及基于社交上下文的方法。最新的方法在检测假新闻方面取得了较高的精度,然而这…

    2022年11月14日
    2.3K
  • Android安全体系结构简介

    Android操作系统是一个开放式的操作系统,保护这样一个开放平台,需要强有力的安全体系结构。Android系统拥有多层次的安全机制,可以灵活地满足用户各层次的安全需求。    1…

    2014年10月21日
    3.0K
  • 从图视角理解多智能体系统安全

    多智能体系统安全是当前人工智能研究中的重要方向,与系统稳定性、信息可信性及防御能力密切相关,但现有研究多集中于单智能体输入输出过滤或局部安全策略,难以刻画复杂交互网络中的全局风险传…

    2026年4月13日
    1.1K
  • 面向联邦基础模型的安全评测与防御方法研究

    聚焦IoRT/IIoT场景下联邦基础模型的安全评测与防御,概述联邦微调范式与隐蔽后门风险;重点介绍SecFFT频域一致性检测机制与长期意图建模相结合实现安全加权聚合,以及FL-ID…

    2025年12月22日
    2.3K
  • 鲁棒性认证方法

    随着对抗样本的危险性日益凸显,提高模型的鲁棒性成为研究的主要方向之一,然而,在评估鲁棒性方面还没有统一的标准,使得不同的防御方法之间对比存在很大的困难。

    2021年9月13日
    2.6K
  • 虚拟化云平台异常行为检测方法

    本报告对虚拟化云平台面临的安全威胁与挑战进行介绍,阐述了可用于云平台虚拟机安全检测的系统数据源,重点介绍了利用系统调用序列、系统运行日志的虚拟机异常检测方法,并且概要性介绍了多种序…

    2022年5月9日
    1.9K
  • 模型无关元学习

    元学习是人工智能领域继深度学习、深度强化学习、生成对抗之后,又一个重要的研究分支。模型无关元学(MAML)算法可以适用于多个领域,包括少样本的回归、图像分类,以及增强学习,并且使用…

    2020年3月9日
    2.5K
  • python Web编程-Django

    本次学术报告介绍Web及其两种基本开发方式前后端分离和前后端不分离,然后针对pythonWeb开发中适合初学者且较为稳定的Django 展开介绍,内容主要包括Django基本开发模…

    2021年1月24日
    2.2K