精华内容
下载资源
问答
  • 解释图神经网络
    千次阅读
    2020-09-05 08:52:43

    模型的可解释性是机器学习领域的重要研究课题,主要关注两个方向,一个是提升模型本身的可解释性,如引入注意力机制、解耦表示学习等技术;另一个是对黑盒模型的事后解释,如特征掩码技术、可视化技术等。图结构提供了额外的拓扑信息,也对可解释技术提出了更高的要求。

    第一个工作是Research Track的《XGNN: Towards Model-Level Explanations of Graph Neural Networks》,关注黑盒模型的事后解释,提出了一种基于输入优化的图神经网络事后解释方法。

    论文

    第二个工作是Applied Data Science Track的《Explainable classification of brain networks via contrast subgraphs》,关注提升模型本身的可解释性,提出了一种基于对比子图的可解释脑网络分类方法。
    论文

    GNN 可解释性问题 blog
    https://www.infoq.cn/article/1OgX48SsVcfPPEjgTmEw?utm_source=tuicool&utm_medium=referral

    更多相关内容
  • 解释图神经网络:5个GNN解释方法

    千次阅读 2021-06-17 08:58:17
    由于图结构的不规则性,现有的解释方法难以适用于图神经网络。 Explainability增加可靠性 最近,人工智能中的可解释性引起了人们的广泛关注,其主要动机在于通过深度神经网络等“黑盒子”模型产生更可靠和可信的预测...

    可解释人工智能又向前迈进了一步,以及为什么现有的解释方法难以适用于gnn

    可解释性是深度学习中的一个大课题,因为它可以实现更可靠和可信的预测。

    由于图结构的不规则性,现有的解释方法难以适用于图神经网络。

    Explainability增加可靠性

    最近,人工智能中的可解释性引起了人们的广泛关注,其主要动机在于通过深度神经网络等“黑盒子”模型产生更可靠和可信的预测。LIME论文[2]中给出的一个很好的例子是,您会信任您的医生,因为他/她能够根据您的症状解释诊断。类似地,如果能够以人类可理解的方式解释或证明预测,由深度模型生成的预测就更可靠和可信。

    相关的帖子

    在过去的一个月里,TDS上出现了一些关于可解释AI的帖子。他们中的一些人提供了一些实际的例子来帮助你开始解释AI。如果你想了解更多关于可解释性人工智能的知识,这里列出了几篇文章。

    Gianluca Malato的《How to explain neural networks using SHAPE[3]》提供了一个使用SHAPE来解释神经网络的例子,该神经网络被训练来预测给定33个特征的糖尿病概率。然后将解释可视化,以理解每个特性如何对预测结果作出贡献。

    可解释的AI (XAI) - Prateek Bhatnagar的《用Python中的7个包来解释你的模型[4]指南》提供了一个概述和一些用于解释深度模型的优秀工具包的实际示例,以帮助你入门。

    Javier Marin的可解释深度神经网络[5]提出了一种新的方法来可视化深度神经网络中的隐藏层,从而通过拓扑数据分析了解整个网络中的数据是如何转换的。

    为什么很难用现有的方法来解释GNN?

    传统的解释方法在卷积神经网络(CNN)上很有效。下面的示例显示了对输入图像(a)的三个顶级预测类标签的LIME解释。我们可以清楚地看到导致相应预测的部分与类标签匹配。例如,吉他颈对预测“电吉他”(b)贡献最大。

    然而,当涉及到图神经网络(GNN)时,事情就变得有点棘手了。与cnn所操作的高度规则网格不同,图结构的不规则性带来了许多挑战。例如,我们可以很容易地解释上述CNN模型的解释,但是对于一个图来说,类似的节点级解释就不容易形象化和解释。

    在下一节中,我们将通过最近关于gnn[1]可解释性的综述来了解每一组方法的主要思想。

    GNN解释方法概述

    基于梯度/特征的方法:使用梯度或隐藏特征作为输入重要性的近似值,通过反向传播来解释预测。

    基于扰动(Perturbation )的方法:输出对输入扰动的变化反映了输入区域的重要性。或者换句话说,需要保留哪些节点/边/特征,以便最终的预测不会与最初的GNN模型偏离太多。

    代理(Surrogate )方法:训练一个使用输入节点的邻近区域更易于解释的代理模型。

    分解方法:将预测分解为几个项,每个项作为相应输入特征的重要度得分。

    生成方法:学习根据待解释的GNN模型生成获得最佳预测分数的图。

    什么是GNN最好的解释方法?

    当谈到方法评估时,有很多事情需要考虑。[1]中的作者建议了两个指标来确保以下属性。

    • 保真度:可解释的模型应该与被解释的原始GNN有一致的预测。
    • 稀疏性:只有一小部分节点/边缘/特征被用作解释。
    • 稳定性:输入的微小变化不应过多影响解释。
    • 准确性:解释应该准确地恢复地面真相解释(这只适用于地面真相已知的合成数据集)

    总结

    可解释性是人工智能的一个关键部分,因为它可以实现可靠和可信的预测。然而,将现有的解释方法应用于GNN并非易事。我们快速浏览了一些现有GNN解释方法中的一般方法,以及定义一个好的GNN解释方法所需的一些属性。

    引用

    [1] H. Yuan, H. Yu, S. Gui, S. Ji, Explainability in Graph Neural Networks: A Taxonomic Survey (2020), arXiv

    [2] M. T. Ribeiro, S. Singh, C. Guestrin, “Why Should I Trust You?”: Explaining the Predictions of Any Classifier (2016), ACM SIGKDD International Conference on Knowledge Discovery and Data Mining (KDD)

    [3] How to explain neural networks using SHAPE

    [4] Explainable AI (XAI) — A guide to 7 Packages in Python to Explain Your Models

    [5] Explainable Deep Neural Networks

    作者:Remy Lau

    deephub翻译组

    展开全文
  • 图神经网络解释性问题综述

    千次阅读 2022-03-15 10:02:11
    图神经网络的可解释性是目前比较值得探索的方向,这篇综述论文针对近期提出的 GNN 解释技术进行了系统的总结和分析,归纳对比了该问题的解决思路。作者还为GNN解释性问题提供了标准的图数据集和评估指标,将是这一...

    图神经网络的可解释性是目前比较值得探索的方向,这篇综述论文针对近期提出的 GNN 解释技术进行了系统的总结和分析,归纳对比了该问题的解决思路。作者还为GNN解释性问题提供了标准的图数据集和评估指标,将是这一方向非常值得参考的一篇文章。

    图神经网络的解释性问题综述

    摘要

    在这篇论文中,作者对目前的GNN解释技术从统一分类的角度进行了总结,阐明了现有方法的共性和差异,并为进一步的方法发展奠定了基础。此外,作者专门为GNN解释技术生成了基准图数据集,并总结了当前用于评估GNN解释技术的数据集和评估方法

    介绍

    解释黑箱模型很重要

    深层模型的解释技术大致分为两类:

    • 依赖输入的解释方法
    • 独立于输入的解释方法

    这些研究只关注图像和文本领域的解释方法,而忽略了深度图模型的可解释性。

    近年来,图神经网络很火,因为许多真实世界的数据都是用图来表示的。近年来,人们提出了几种解释 GNN 预测的方法,如XGNN[43]、gnexplainer[44]、PGExplainer[45]和subgraphx[46]等。这些方法是从不同的角度提供了不同层次的解释。但至今仍然缺乏标准的数据集和度量来评估解释结果。

    本研究提供了对不同GNN解释技术的系统研究,论文贡献如下:

    • 对现有的深度图模型的解释技术进行了系统和全面的回顾。
    • 提出了现有GNN解释技术的新型分类框架,总结了每个类别的关键思想,并进行了深刻的分析。
    • 详细介绍了每种GNN解释方法,包括其方法论、优势、缺点,与其他方法的区别。
    • 总结了GNN解释任务中常用的数据集和评价指标,讨论了它们的局限性,并提出了几点建议。
    • 通过将句子转换为图,针对文本领域构建了三个人类可理解的数据集。这些数据集即将公开,可以直接用于GNN解释任务。
    • 我们为GNN解释研究开发了一个开源库。在这个库中,我们包含了几种现有技术的实现、常用的数据集和不同的评估指标。它可以用来复制现有的方法和发展新的GNN解释技术。

    术语区分:‘’Explainability‘’ 与 ‘’Interpretability‘’

    interpretable:能够对其预测提供人类可理解的解释的模型(决策树模型)

    explainable:该模型仍然是一个黑盒子,其预测有可能被一些事后解释技术所理解

    面对的挑战

    • 图包含重要的拓扑信息,并用特征矩阵和邻接矩阵表示。
    • 对图数据的结构信息的研究更为重要
    • 对数据集的了解很重要

    分类的综述

    解释方法一般都会从几个问题出发实现对图模型的解释:

    • 哪些输入边更重要?
    • 哪些输入节点更重要?
    • 哪些节点特征更重要?
    • 什么样的图模式会最大限度地预测某个类?

    实例级方法与特征工程的思想有些类似,旨在找到输入数据中最能够影响预测结果的部分特征,为每个输入图提供 依赖输入 的解释。给定一个输入图,实例级方法旨在探究影响模型预测的重要特征实现对深度模型的解释。根据特征重要性分数的获得方式,作者将实例级方法分为四个不同的分支:

    • 基于梯度/特征的方法[52],[53],采用梯度或特征值来表示不同输入特征的重要程度
    • 基于扰动的方法[44],[45],[46],[54],[55],[56],监测在不同输入扰动下预测值的变化,从而学习输入特征的重要性分数。
    • 基于分解的方法[52],[53],[57],[58],首先将预测分数,如预测概率,分解到最后一个隐藏层的神经元。然后将这样的分数逐层反向传播,直到输入空间,并将分解分数作为重要性分数。
    • 基于代理的方法[59],[60],[61],首先从给定例子的邻居中抽取一个数据集的样本。接下来对采样的数据集合拟合一个简单且可解释的模型,如决策树。通过解释代理模型实现对原始预测的解释。

    模型级方法直接解释图神经网络的模型,不考虑任何具体的输入实例。这种 独立于输入 的解释是高层次的,能够解释一般性行为。与实例级方法相比,这个方向的探索还比较少。现有的模型级方法只有XGNN[43],它是基于图生成的,通过生成 图模式 使某一类的预测概率最大化,并利用 图模式 来解释这一类。

    实例级方法的解释是基于真实的输入实例的,因此它们很容易理解。然而,对模型级方法的解释可能不便于人类理解,因为获得的图模式可能在现实世界中甚至不存在。

    实例级解释

    基于代理的方法(Surrogate Methods)

    代理方法能够为图像模型提供实例级解释。其**基本思想是化繁为简,既然无法解释原始深度图模型,那么采用一个简单且可解释的代理模型来近似复杂的深层模型,实现输入实例的邻近区域预测。**需要注意的是,这些方法都是假设输入实例的邻近区域的关系不那么复杂,可以被一个较简单的代理模型很好地捕获。然后通过可解释的代理模型的来解释原始预测。将代理方法应用到图域是一个挑战,因为图数据是离散的,包含拓扑信息。那么 如何定义输入图的相邻区域,以及什么样的可解释代理模型是合适的,都是不清楚的。

    代理方法的一般框架:给定一个输入图及其预测,目的是解释给定输入图的预测。方法是它们首先对一个局部数据集进行采样,(这个局部数据集包含多个相邻数据对象及其预测);然后拟合一个可解释模型来学习局部数据集,(不同的代理方法拟合不同的可解释模型);最后,将可解释模型的解释视为原始深度模型对输入图的解释。

    不同的代理方法的关键区别在于两个方面:

    • 如何获得局部数据集
    • 选择什么代理模型

    GraphLime

    GraphLime[59]将LIME[69]算法扩展到深度图模型,并研究不同节点特征对节点分类任务的重要性。

    给定输入图中的一个目标节点,将其N-hop 邻居节点及其预测值视为局部数据集,其中N的合理设置是训练的GNN的层数。然后采用非线性代理模型HSIC Lasso[70]来拟合局部数据集。根据HSIC Lasso中不同特征的权重,可以选择重要的特征来解释HSIC Lasso的预测结果这些被选取的特征被认为是对原始GNN预测的解释。

    但是,GraphLime只能提供节点特征的解释,却忽略了节点和边等图结构,而这些图结构对于图数据来说更为重要。另外,GraphLime是为了解释节点分类预测而提出的,但不能直接应用于图分类模型。

    • 局部数据集:目标节点的 N-hop 邻居节点及其预测值
    • 代理模型:HSIC Lasso
    • 代理模型的解释方法:根据重要的特征来解释结果
    • 缺陷:
      • 只能提供节点特征的解释,忽略了节点和边等图结构。
      • 只能用于解释节点分类预测,不能直接应用于图分类模型。

    RelEx

    RelEx[60]结合代理和扰动的思想,研究节点分类模型的可解释性。

    在给定一个目标节点及其计算图(N-hop邻居节点)的情况下,它首先从计算图中随机采样连接的子图,并将这些子图反馈给训练好的GNN,从而获得一个局部数据集。具体地说,它从目标节点开始,以BFS的方式随机选择相邻节点。RelEx采用GCN模型作为代理模型来拟合局部数据集。与GraphLime不同,RelEx中的代理模型是不可解释的。训练后,它进一步应用基于扰动的方法,如生成Sigmoid掩码或Gumbel-Softmax掩码来解释预测结果。与GraphLime相比,它可以提供关于重要节点的解释

    RelEx的解释过程包含了多个近似步骤,比如使用代理模型来近似局部关系,使用掩码来近似边的重要性,从而使得解释的说服力和可信度较差。此外,由于可以直接采用基于扰动的方法来解释原有的深度图模型,因此没有必要再建立一个不可解释的深度模型作为代理模型来解释。RelEx如何应用于图分类模型也是未知的。

    • 局部数据集:随机采样目标节点的 N-hop 邻居节点及其预测值
    • 代理模型:GCN
    • 代理模型的解释方法:根据Sigmoid掩码或Gumbel-Softmax掩码来解释结果
    • 缺陷:
      • 解释过程包含了多个近似步骤,说服力和可信度较差。
      • 可以直接采用扰动的方法来解释模型,没有必要用一个不可解释的代理模型来解释。
      • 只能用于解释节点分类预测,不能直接应用于图分类模型。

    PGM-Explainer

    PGM-Explainer[58]建立了一个概率图模型,为GNN提供实例级解释。

    局部数据集是通过随机节点特征扰动获得的。具体来说,给定一个输入图,每次PGM-Explainer都会随机扰动计算图中几个随机节点的节点特征。然后对于计算图中的任何一个节点,PGM-Explainer都会记录一个随机变量,表示其特征是否受到扰动,及其对GNN预测的影响。通过多次重复这样的过程,就可以得到一个局部数据集。通过Grow-Shrink(GS)算法[66]选择依赖性最强的变量来减小局部数据集的大小。最后采用可解释的贝叶斯网络来拟合局部数据集,并解释原始GNN模型的预测。

    PGM-Explainer可以提供有关图节点的解释,但忽略了包含重要图拓扑信息的边。此外,与GraphLime和RelEx不同的是,PGM-Explainer可以同时用于解释节点分类和图分类任务。

    • 局部数据集:通过随机节点特征扰动和Grow-Shrink算法过滤获得
    • 代理模型:贝叶斯网络
    • 代理模型的解释方法:概率图
    • 缺陷:忽略了包含重要图拓扑信息的边
    展开全文
  • 2022年5篇图神经网络最新的研究综述

    千次阅读 2022-03-25 00:16:20
    近年来,深度学习领域关于图神经网络(Graph Neural Networks,GNN)的研究热情日益高涨,图神经网络已经成为各大深度学习顶会的研究热点。GNN处理非结构化数据时的出色能力使其在网络数据分析、推荐系统、物理建模...

    近年来,深度学习领域关于图神经网络(Graph Neural Networks,GNN)的研究热情日益高涨,图神经网络已经成为各大深度学习顶会的研究热点。GNN处理非结构化数据时的出色能力使其在网络数据分析、推荐系统、物理建模、自然语言处理和图上的组合优化问题方面都取得了新的突破。

    下面简单介绍一下2022年最新的研究综述,这些也是最近的研究趋势,希望对大家的研究有所帮助。

    • 第一篇是双曲图神经网络

    • 第二篇是图分类

    • 第三篇是联邦图学习

    • 第四篇是等变图神经网络

    • 第五篇是图的异质性

    2022研究综述:双曲图神经网络

    「题目」:Hyperbolic Graph Neural Networks: A Review of Methods and Applications

    「作者」:Menglin Yang, Min Zhou, Zhihao Li, Jiahong Liu, Lujia Pan, Hui Xiong, Irwin King

    「Arxiv」: https://arxiv.org/abs/2202.13852「GitHub」: https://github.com/marlin-codes/HGNNs

    目前有非常多优秀的工作是研究图神经网络的,而神经网络也成为了ICML,NeurIPS,ICLR中的热门话题。在这些顶会研究中,也发现了另外一些有意思的工作,也就是基于双曲空间的图神经网络。简单来说,是将图神经网络建立在双曲空间,而不是我们常见的欧式空间中。那么双曲空间是什么呢?为什么要建立在双曲空间中?建立在双曲空间中的使用图神经网络有哪些优势呢?它是如何建立的呢?双曲图神经网络有哪些应用呢?以及双曲图神经网络研究目前的困难和一些机会是什么呢?这篇研究综述主要是讲解这些内容。

    4e7d54cba03490639d374d1c74f2a779.png

    2022研究综述:基于GNN的图分类研究综述

    「题目」:图分类研究综述(已发表-软件学报)

    「作者」:王兆慧,沈华伟, 曹婍, 程学旗

    「链接」:http://www.jos.org.cn/html/2022/1/6323.htm

    图数据广泛存在于现实世界中, 可以自然地表示复合对象及其元素之间的复杂关联. 对图数据的分类是一 个非常重要且极具挑战的问题, 在生物/化学信息学等领域有许多关键应用, 如分子属性判断, 新药发现等. 但目前 尚缺乏对于图分类研究的完整综述.

    本文首先给出「图分类」问题的定义和该领域的挑战; 然后梳理分析了两类图分类方 法—基于图相似度计算的图分类方法和基于图神经网络的图分类方法; 接着给出了图分类方法的评价指标、常用 数据集和实验结果对比; 最后介绍了图分类常见的实际应用场景, 展望了图分类领域的未来研究方向并对全文进 行总结.

    2022研究综述:联邦图机器学习

    「题目」:Federated Graph Neural Networks: Overview, Techniques and Challenges

    「作者」:Rui Liu, Han Yu

    图神经网络在实际应用中具有强大的数据处理能力,因此受到了广泛的关注。然而,「随着社会越来越关注数据隐私」,GNN面临着适应这种新常态的需要。这导致了近年来联邦图神经网络(Federated Graph Neural Network,简称FedGNNs)研究的迅速发展。尽管这一跨学科领域前景广阔,但对感兴趣的研究人员来说具有很高的挑战性。在这个话题上缺乏有见地的调研只会加剧这个问题。

    在这篇论文中,作者通过提供这一新兴领域的全面调研来弥补这一差距。本文提出了关于FedGNN文献的一个「独特的三层分类法」(如图1所示),

    b53578c97961793a1318159a7f539a9e.png

    以提供一个清晰的视角来了解GNN在联邦学习(FL)环境中是如何工作的。它通过分析图数据如何在FL设置中表现自己,如何在不同的FL系统架构下进行GNN训练,如何在不同的数据竖井中进行图数据重叠程度,以及如何在不同的FL设置下进行GNN聚合,将现有的工作纳入视野。通过对现有工作的优势和局限性的讨论,作者展望了未来的研究方向,可以帮助构建更健壮、动态、高效和可解释的联邦图神经网络。

    2022研究综述:等变图神经网络

    「作者」:Jiaqi Han, Yu Rong, Tingyang Xu, Wenbing Huang「Link」: https://arxiv.org/abs/2202.07230

    许多科学问题需要以几何图的形式处理数据。与一般图数据不同,「几何图表现出平移、旋转和/或反射的对称性」。研究人员利用这种归纳偏差并开发了几何等变图神经网络 (GNN) 来更好地表征几何图的几何和拓扑。尽管取得了丰硕的成果,但它仍然缺乏描述等变 GNN 如何进展的调查,这反过来又阻碍了等变 GNN 的进一步发展。为此,基于必要但简明的数学预备知识,作者分析现有方法并将其分为三组,以了解如何表示 GNN 中的消息传递和聚合。还总结了基准以及相关数据集,以方便后期研究方法开发和实验评估。还提供了对未来潜在方向的展望。

    5fb63977ab4fb73ff90877a590a46897.png

    2022研究综述:具有异质性的图的图神经网络

    「题目」:Graph Neural Networks for Graphs with Heterophily: A Survey「作者」:Xin Zheng, Yixin Liu, Shirui Pan, Miao Zhang, Di Jin, Philip S. Yu「链接」:https://arxiv.org/abs/2202.07082

    近年来,图神经网络(GNN)得到了迅速的发展,为无数的图分析任务和应用提供了便利。一般来说,大多数GNN依赖于同质性假设,即属于同一类的节点更有可能被连接。然而,作为现实世界众多场景中普遍存在的图属性,异质性(即具有不同标签的节点往往被链接)严重限制了定制同质GNN的性能。因此,GNN for Heterophilic Graphs在这个社区中得到了越来越多的关注。本文首次对异质图的gnn作了一个全面的综述。具体来说,作者提出了一个系统的分类法,该分类法本质上支配着现有的亲异GNN模型,并对其进行了一般性的总结和详细的分析。此外,作者总结了主流的异亲图基准,以促进稳健和公平的评估。最后,本文指出了在异亲图研究和应用方面的潜在发展方向。

    971d2c4023147967049981b98479f7be.png

    我的2022届互联网校招分享

    我的2021总结

    浅谈算法岗和开发岗的区别

    互联网校招研发薪资汇总

    对于时间序列,你所能做的一切.

    什么是时空序列问题?这类问题主要应用了哪些模型?主要应用在哪些领域?

    公众号:AI蜗牛车

    保持谦逊、保持自律、保持进步

    7a8908bb0cc1387699c6f473ac70f713.png

    发送【蜗牛】获取一份《手把手AI项目》(AI蜗牛车著)

    发送【1222】获取一份不错的leetcode刷题笔记

    发送【AI四大名著】获取四本经典AI电子书

    展开全文
  • 深度学习-图神经网络总结

    千次阅读 2022-03-11 18:08:26
    深度学习GNN网络总结
  • 文章《A Comprehensive Survey on Graph Neural Networks》[1]提供了一个全面的图神经网络(GNNs) 概述,并且将最新的图神经网络分为四类,即递归图神经网络(RecGNNs)、卷积图神经网络(ConvGNNs)、图自动编码器(GAEs)...
  • 万能的图神经网络解释器 GNNExplainer

    千次阅读 2020-01-30 19:10:42
    作者信息: 纪厚业,北京邮电大学博士生,主要关注异质图神经网络及其应用. 知乎专栏对公式支持较好, 见 https://zhuanlan.zhihu.com/c_1158788280744173568 个人公众号 图与推荐 本文由斯坦福Jure组发表在NeurIPS...
  • 图神经网络的表示方法和使用案例

    千次阅读 2021-08-26 09:20:11
    由于图数据结构无处不在,图神经网络 (GNN) 越来越受欢迎。 图使我们能够对科学领域中的许多不同问题进行建模,例如(但不限于)生物学、社会学、生态学、视觉、教育、经济学等。此外,图表示使我们能够处理大规模的...
  • 图神经网络(Graph Neural Network,GNN)是一类能够从图结构数据中学习特征规律的神经网络,是解决图结构数据(非欧氏空间数据)机器学习问题的最重要的技术。 1 图神经网络的基础知识 图神经网络(Graph Neural...
  • 图神经网络及其应用

    千次阅读 2020-09-06 21:45:06
    图神经网络允许创建一个端到端的机器学习模型,该模型同时被训练来学习图结构数据的表示并在其上拟合预测模型。图神经网络可以应用于从聚类或可视化到对图数据进行分类或回归的任务,它们还可以在节点或图级别学习...
  • 长文详解图神经网络

    千次阅读 2020-08-17 22:55:56
    因此,本文试图沿着图神经网络的历史脉络,从最早基于不动点理论的图神经网络(Graph Neural Network, GNN)一步步讲到当前用得最火的图卷积神经网络(Graph Convolutional Neural Network, GCN), 期望通过本文带给...
  • 点击上面"脑机接口社区"关注我们更多技术干货第一时间送达图神经网络简介GNN是Graph Neural Network的简称,是用于学习包含大量连接的图的联结主义模型。近...
  • 图神经网络(GNN)的基本原理

    千次阅读 多人点赞 2021-12-21 11:47:11
    图神经网络(GNN)的基本原理
  • DGL是基于pytorch开发的一个专门用于图神经网络模型搭建的框架,到现在为止,DGL已经高度封装了如GCN、GraphSage、GAT等常见的图神经网络模型,可以直接调用,比较方便,当然针对非常想挑战自己的编程能力又或者非常...
  • 什么是图神经网络

    万次阅读 多人点赞 2020-08-05 10:25:32
    2019年可以说是图神经网络元年。01 什么是图神经网络?1. 图和属性图要了解图神经网络,首先要了解图。图是由节点和边组成的,如下图所示。一般图中的节点表示实体对象(比如一个用户、一件商品、一辆车、一张银行卡...
  • 在本综述中,我们对现有的图神经网络模型进行了详细的回顾,对应用进行了系统的分类,并提出了四个有待进一步研究的问题。 1. Introduction  图是一种数据结构,它为一组对象(节点)及其关系(边)建模。...
  • 图神经网络 | (1) 一文读懂图卷积GCN

    千次阅读 2020-02-01 12:22:51
    1. 图网络的分类 2. 卷积 3. 卷积 4. 卷积的通式 5. 参考文献 1. 图网络的分类 在最开始,我们先梳理一下经常被提到的几个术语的区别和联系,也就是Graph Embedding,Graph Neural Network和Graph ...
  • 未来仍有巨大的发展空间,例如基于图神经网络的知识图谱自动构建、基于异质图神经网络的知识融合、基于元路径或图神经网络的知识图谱复杂推理、基于图神经网络的可解释性学习等。 自动构建 当前的知识图谱高度依赖于...
  • 原文地址 本篇文章是对论文“Wu Z , Pan S , Chen F , et al. A Comprehensive Survey on ...1. 什么是图神经网络? 2. 有哪些图神经网络? 3. 图卷积网络(Graph Convolution Networks,GCN) 4. 图注意力网络...
  • 前言 在计算机视觉以及自然...图神经网络的出现为这些非欧几里得数据的处理提供了新的思路。 图(Graph) 图(graph)是数据结构和算法学中最强大的框架之一。图可以用来表现多种类型的结构或系统,在很多应用上都有...
  • 图神经网络笔记(一)

    千次阅读 多人点赞 2019-03-07 20:00:10
    图神经网络(GNN)是一类基于深度学习的处理图域信息的方法。由于其较好的性能和可解释性,GNN 最近已成为一种广泛应用的图分析方法。 为什么有图卷积神经网络 本质上说,世界上所有的数据都是拓扑结构,也就是...
  • 近年来图神经网络受到大家越来越多的关注,在文本分类(Text classification),序列标注(Sequence labeling), 神经机器翻译(Neural machine translation),关系抽取(Relation extraction),事件抽取(Event ...
  • 一、什么是图神经网络? 在过去的几年中,神经网络的成功推动了模式识别和数据挖掘的研究。许多机器学习任务,如目标检测、机器翻译和语音识别,曾经严重依赖手工的特征工程来提取信息特征集,最近被各种端到端的...
  • 作者:CHEONG 公众号:AI机器学习与知识图谱 研究方向:自然语言处理与知识图谱 CompGCN (ICLR 2020) Composition-based Multi-Relational Graph Convolutional Networks CompGCN论文汇报ppt可通过关注公众号....
  • 图神经网络在反欺诈领域的应用

    千次阅读 2022-03-14 15:14:07
    具体场景为图神经网络在恶意网址检测中的应用。 文章目录1. 场景介绍2. 节点刻画3. 恶意网址检测3.1 构建图3.2 模型设计3.3 评估结果 1. 场景介绍 恶意网址检测中存在的难点有两方面: 一是借助短链接或跳转的方式...
  • 图表示学习入门3——图神经网络

    千次阅读 2019-10-11 11:24:45
    什么是图神经网络?图和神经网络为什么要关联?怎么关联?一份浅显直觉的GNN入门教程。
  • 图神经网络详解(四)

    千次阅读 2019-10-23 10:46:32
    图神经网络综述论文解读(三) 本文链接地址:https://www.jiqizhixin.com/articles/2019-01-07-8 本文转载于机器之心博文,如有冒犯,还望谅解。 最近,IEEE Fellow、Senior Member 和 Member Zonghan Wu 等人...
  • High-order Connectivity 解释高阶连通性如上1左边为一般CF中user-item交互的二部,双圆圈表示此时需要预测的用户u1,对于u1我们可以把有关他的连接扩展成右图的树形结构,l是能到达的路径长度(或者可以叫...
  • 15种图神经网络的应用场景总结

    万次阅读 多人点赞 2021-04-13 09:10:43
    以社交作为输入,DeepInf为用户学习网络嵌入(一种潜在的社会表征)。结合下面(d)中手工制作的特征,对社会影响进行预测,比如v是否也会观看广告片段(步骤f)。在训练过程中,将预测结果与真值进行对比,学习这个网络...
  • 结构数据无处不在:从化学(例如分子)到社交媒体(例如社交网络)以及金融投资(例如 VC 投资网络),GNN 在各种任务中显示出最先进的性能¹ ²。 在我的以前的一个实践:在投资者、初创公司和个人组成的投资...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 97,070
精华内容 38,828
关键字:

解释图神经网络