图神经网络的反事实解释方法

图神经网络模型的可解释性对于建立用户与决策模型之间的信任关系至关重要,为了安全、可信地部署图神经网络模型,需要提高图神经网络模型的可解释性和透明性。本次报告为大家介绍图神经网络反事实解释的基本概念和前沿方法(CFF和GCFExplainer)

图神经网络的反事实解释方法-夏志豪

原创文章,作者:bfs,如若转载,请注明出处:https://www.isclab.org.cn/2024/06/03/%e5%9b%be%e7%a5%9e%e7%bb%8f%e7%bd%91%e7%bb%9c%e7%9a%84%e5%8f%8d%e4%ba%8b%e5%ae%9e%e8%a7%a3%e9%87%8a%e6%96%b9%e6%b3%95/

(2)
bfsbfs
上一篇 2024年5月31日 下午10:14
下一篇 2024年6月19日 下午7:21

相关推荐

  • 大模型指导的协议模糊测试

    本次报告围绕大模型指导的协议模糊测试技术展开,首先阐述了大模型指导的协议模糊测试的基本概念、研究背景和研究意义,然后介绍了传统协议模糊测试方法的特点与优劣势,并介绍了大模型指导的协…

    2025年5月19日
    1.2K
  • 层次多标签文本分类方法

    随着互联网技术的高速发展和数据规模的快速增长,层次多标签分类应用场景越来越多,如文献组织、新闻标注、蛋白质功能分类等。层次多标签文本分类是多标签分类下的子任务,标记每个给定文本与最…

    2022年6月6日
    1.8K
  • 增强认知诊断结果的可解释性

    认知诊断通过挖掘学习者行为、心理和认知之间的关系,利用学习者的学习数据,对其认知状态进行综合评估和诊断,其输出结果,即学生对于不同知识概念的熟练程度应与实际情况相符,具有高度的可解…

    2024年10月17日
    1.2K
  • LLM的强化学习

    ChatGPT问世以来,LLM百花齐放,对我们的生活产生了巨大的影响。然而LLM生成的内容存在信息泄露、无中生有等诸多隐患。通过强化学习技术我们可以将生成内容与人类偏好对齐,控制L…

    2024年4月3日
    1.5K
  • Linux高级网络配置

          Linux系统强大的网络配置能力使得Linux能够工作在各种复杂网络环境下并提供各种稳定的服务。本次报告介绍…

    2019年5月13日
    1.3K
  • Deep Learning词向量生成–CBOW和Skip-gram

      Deep Learning词向量生成的方法通过神经网络模型让机器自动学习到每个词有效的特征表示,而CBOW模型和Skip-gram模型是目前最流行、常用的Deep learni…

    学术报告 2017年10月13日
    1.3K
  • 图神经网络可解释方法

    图神经网络模型的可解释性对于建立用户与决策模型之间的信任关系至关重要,为了安全、可信地部署图神经网络模型,需要提高图神经网络模型的可解释性和透明性。本次报告带大家了解图神经网络的可…

    2021年7月11日
    1.5K
  • 基于深度学习的二进制软件漏洞挖掘

    本次学术报告面向基于深度学习的二进制软件漏洞挖掘,首先定义二进制缺陷检测子任务的基本概念和TIPO,其后介绍模糊测试、符号执行等动态缺陷检测方法,最终具体讲解了三种基于深度学习的二…

    2020年8月2日
    2.1K
  • 内部威胁检测方法

    近年来,内部(insider)攻击,包括组织信息系统破坏、信息盗窃、电子欺诈等,具有很强的隐蔽性和破坏性,对个人、企业和国家安全构成了巨大的威胁。因此,我们应该更加关注内部威胁的研…

    2021年10月27日
    1.4K
  • 元胞自动机原理及其在显著性检测中的应用

          元胞自动机(cellular automata,CA) 是一种时间、空间、状态都离散,空间相互作用和时间因果…

    2018年11月6日
    1.6K