图嵌入-GraphSAGE

现在大多数方法都是直推式学习, 不能直接泛化到未知节点。这些方法是在一个固定的图上直接学习每个节点embedding,但是大多情况图是会演化的,当网络结构改变以及新节点的出现,直推式学习需要重新训练,很难落地在需要快速生成未知节点embedding的机器学习系统上,本次报告介绍了一种归纳学习图嵌入—GraphSAGE(Graph SAmple and aggreGatE)框架,通过训练聚合节点邻居的函数(卷积层),使GCN扩展成归纳学习任务,对未知节点起到泛化作用。

Graph-Neural-Network-GraphSAGE-周妍汝

原创文章,作者:bfs,如若转载,请注明出处:https://www.isclab.org.cn/2020/07/06/%e5%9b%be%e5%b5%8c%e5%85%a5-graphsage/

(0)
bfsbfs
上一篇 2020年6月27日 下午9:47
下一篇 2020年7月6日

相关推荐

  • 神经网络模型测试方法与模型健壮性

    针对神经网络模型的缺陷测试使用了神经元覆盖率指标指导测试,这是一种从软件测试领域迁移的概念,指的是测试激活的神经元越多,测试越充分。但是近年来这种测试方法的有效性存疑,特别是测试生…

    2022年7月24日
    2.1K
  • 主题排序算法

        本次报告主要讲解了主题排序算法,通过对pagerank算法以及topic sensitive pagerank算法的原理介绍,引出了…

    学术报告 2018年3月6日
    1.9K
  • 表格数据生成:GAN模型的演进与未来

    表格数据生成能为深度学习扩充不平衡数据,同时也能避免隐私问题,研究如何生成高保真表格数据具有重要意义。本次报告分析了各个生成模型的优劣,以及GAN在表格数据领域的创新思路。

    2023年8月15日
    1.9K
  • 深度神经网络后门攻击

    人工智能模型安全是人工智能应用落地需要考量的重要问题,后门攻击威胁是人工智能模型安全的重要议题。本次学术报告以深度神经网络为后门攻击的对象,从深度神经网络训练的内部机理出发,通过了…

    2021年8月15日
    2.3K
  • 深度神经网络鲁棒性评估方法

    本报告介绍了深度神经网络鲁棒性评估方法的基本概念和评估方式,并讲述了两种评估方法,分别从定性分析和定量计算两个角度讲述了如何对鲁棒性进行评估,提升对深度神经网络鲁棒性和评估方法的认…

    2023年4月3日
    2.1K
  • 基于因果推理的对抗防御方法

    基于因果推理的对抗防御方法通过因果干预、特征解耦与不变性学习,识别并强化数据中的因果特征,抑制模型对伪相关与“捷径特征”的依赖,从而在机理上增强模型的泛化能力和抗干扰能力,使其在遭…

    2025年11月10日
    1.5K
  • 深度学习讨论会

        本次学术报告简单介绍了深度学习的定义和过程,并给出了基于Keras实现手写数字识别的基本过程和实验结果,讨论了设置不同batch s…

    学术报告 2017年12月3日
    1.8K
  • 偷走你的训练数据:模型反演攻击方法研究

    通过模型反演攻击方法研究,验证了模型训练数据面临泄露风险的问题,并希望以此促进对应防御手段的发展。本次学术报告介绍了模型反演攻击方法的相关知识,并聚焦于两个经典的白盒和黑盒攻击方法…

    2024年2月27日
    2.2K
  • 基于网络一致性的对抗样本检测

    人工智能系统面临着多种安全威胁,其中对抗样本攻击被广泛应用于诸如计算机视觉、自然语言处理、音频处理以及恶意软件检测等多个领域。本文介绍了常见的对抗样本检测方法和原理。特别的,简单分…

    2020年12月20日
    2.1K
  • Android第三方库检测

    本次报告主要讲述了Android第三方库检测的相关内容。介绍了第三方库的基本概念和相关研究,解释了第三方库检测的基本方法,详细讲解其中的相似性对比方法,主要针对库检测和库版本识别进…

    2022年11月20日
    1.8K