图神经网络的反事实解释方法

图神经网络模型的可解释性对于建立用户与决策模型之间的信任关系至关重要,为了安全、可信地部署图神经网络模型,需要提高图神经网络模型的可解释性和透明性。本次报告为大家介绍图神经网络反事实解释的基本概念和前沿方法(CFF和GCFExplainer)

图神经网络的反事实解释方法-夏志豪

原创文章,作者:bfs,如若转载,请注明出处:https://www.isclab.org.cn/2024/06/03/%e5%9b%be%e7%a5%9e%e7%bb%8f%e7%bd%91%e7%bb%9c%e7%9a%84%e5%8f%8d%e4%ba%8b%e5%ae%9e%e8%a7%a3%e9%87%8a%e6%96%b9%e6%b3%95/

(2)
bfsbfs
上一篇 2024年5月31日 下午10:14
下一篇 2024年6月19日 下午7:21

相关推荐

  • 跨语言命名实体识别

    跨语言命名实体识别是用源语言的标记数据训练NER模型,并在目标语言的测试数据上对其进行评估。其利用具有丰富实体标签的高资源(源)语言(如英语)的知识来克服低(零)资源(目标)语言的…

    2024年5月18日
    1.8K
  • 序列标注模型

    背景知识 序列标注模型被广泛应用于文本处理相关领域,例如分词、词性标注、命名实体识别等方面。现有的序列标注模型主要有HMM,MEMM 以及 CRF,通过对这几种自然语言处理中常用的…

    2015年2月2日
    2.0K
  • 软件灰盒定向模糊测试技术

    随着软件程序日益复杂化、功能多样化,传统的通用模糊测试已经不能满足高效、快速的测试程序中特定高风险区域的崩溃问题。灰盒定向模糊测试应用其特殊的距离计算方法及种子排序方法,将模糊测试…

    2025年6月30日
    1.3K
  • 面向操作系统的模糊测试

    本报告主要介绍了关于面向操作系统的模糊测试方法,探讨了操作系统漏洞挖掘的挑战与常见漏洞类型,详细介绍了模糊测试中的基本概念、常用方法以及两种前沿的Linux内核模糊测试技术ACTO…

    2025年2月9日
    1.5K
  • LLM的强化学习

    ChatGPT问世以来,LLM百花齐放,对我们的生活产生了巨大的影响。然而LLM生成的内容存在信息泄露、无中生有等诸多隐患。通过强化学习技术我们可以将生成内容与人类偏好对齐,控制L…

    2024年4月3日
    1.8K
  • 神经网络模型的覆盖测试

    人工智能系统在近年来取得丰硕的成果,其中神经网络在自动驾驶领域等图像处理方向应用较为广泛。但是神经网络存在安全隐患,容易受到攻击导致决策错误,比如对抗样本攻击和后门攻击。如何测试神…

    2022年1月4日
    1.7K
  • 模型无关元学习

    元学习是人工智能领域继深度学习、深度强化学习、生成对抗之后,又一个重要的研究分支。模型无关元学(MAML)算法可以适用于多个领域,包括少样本的回归、图像分类,以及增强学习,并且使用…

    2020年3月9日
    2.1K
  • 面向深度学习组件的漏洞挖掘

    人工智能软件系统的安全逐渐受到人们的重视,深度学习软件库存在的缺陷可能威胁到框架之上的模型和系统,目前仍然缺少深度学习软件库测试的系统方法。面对深度学习安全领域,针对深度学习软件库…

    2021年12月12日
    1.8K
  • 命名实体识别简介

    2014年10月18日
    2.1K
  • 服务端模板注入漏洞

          服务端模板注入是攻击者通过与服务端模板的输入输出交互,在过滤不严格的情况下,构造恶意输入数据,从而达到获取关…

    2019年4月16日
    1.4K