精华内容
下载资源
问答
  • 图卷积神经网络5:图卷积的应用

    千次阅读 2020-12-06 12:56:04
    图卷积神经网络1-谱域卷积:拉普拉斯变换到谱域图卷积 图卷积神经网络2-谱域卷积:SCNN/ChebNet/GCN的引入和介绍 图卷积神经网络3-空域卷积:GNN/GraphSAGE/PGC的引入和介绍 图卷积神经网络4-空域卷积:空域卷积...

    备注:本篇博客摘自某培训机构上的图神经网络讲解的视频内容,该视频关于图神经网络入门讲解、经典算法的引入和优缺点的介绍比较详细,逻辑主线也比较清晰。因此记录分享下。


    前几篇介绍了谱域图卷积及空域图卷积:

    图卷积神经网络1-谱域卷积:拉普拉斯变换到谱域图卷积

    图卷积神经网络2-谱域卷积:SCNN/ChebNet/GCN的引入和介绍

    图卷积神经网络3-空域卷积:GNN/GraphSAGE/PGC的引入和介绍

    图卷积神经网络4-空域卷积:空域卷积局限性分析和过平滑解决方案

    本篇博客主要讲解图卷积神经网络的主要应用。

    目录

    1:简介

    2:图卷积在交通预测上的应用(主要讲解)

    2.1:交通预测任务介绍

    2.2:实现方法

    2.2.1:单节点忽略空间信息

    2.2.2:构建时空矩阵

    2.2.3 栅格模型

    3:图的构建

    3.1:高斯核构建邻接矩阵

    3.2:多图表示法

    4:小结

    5:其他方面

    5.1:天气预测

    5.2:骨架视频

    5.3:文本分类

    5.4:小结


    1:简介

    2:图卷积在交通预测上的应用(主要讲解)

    2.1:交通预测任务介绍

    说明一下公式:V_{t}\varepsilon R^{n*c},其中 n 是节点数,c 是通道数,也就是说,有 n 个节点,每个节点上是一个1 ∗ c 的向量,代表节点上的信号,这还只是一个时刻的交通数据。通常来说,交通数据中的节点可以由道路、十字路口、监测站或者一个区域来代表。这个c cc其实就是节点的信号,也就是特征,可以是车的流量、车速、这个区域或者道路的拥挤程度等。

    如果是单一信息预测,比如说交通流量预测,那么c 就等于1,这种情况也就是说在某个时刻,一个节点上只有一个特征,这个特征代表交通流量。

    上面右图是一个示例。实际上不仅预测下一时刻,也可预测多个时刻。

    以上就是交通数据介绍,下面具体看看实现方法:

    2.2:实现方法

    2.2.1:单节点忽略空间信息

    上面只考虑了单个节点,下面看多个节点的处理办法:

    但是这里有一个问题:将所有的节点排成一排后,节点就完全失去了空间的信息。

    2.2.2:构建时空矩阵

    这个其实就是节点只考虑了周围的两个节点,比如说2号节点只考虑了1和3号节点,而不会考虑其他的节点。这种其实要求数据集是很特殊的,如上面右图,是一个环状的,就可以使用这种思想,但是一般的交通结构不是这种的,所以此模型不具有泛化性。

    2.2.3 栅格模型

    上面这个模型可以看作是从传统的方法到图方法的过渡,使用node embedding的方法来辅助交通预测任务。

    上面的这张图我们在前面其实提到过,现在放在交通流量预测中我们再来看看:输入的每个节点上只有一个数(特征),但是输入的数据是一个历史数据,比如说输入的是过去的5个时刻的数据,预测未来3个时刻的数据,那么输入的每个节点上的数为5,也就是C = 5,表示过去的5个时刻;同样的输出的每个节点上的数为3,也就是F = 3 F=3,表示预测未来3个时刻的流量。

    上面这个就是通过建模来预测交通流量问题,当然这个只是其中的一种建模方法,更多在处理时序数据的时候使用的是LSTM和图卷积结合起来,在这里只讲全图卷积来进行流量预测。

    可以说交通流量预测问题就是一个节点回归问题,需要对每一个节点上的信号给出一个具体的值,这个值就是此节点上未来的多个时刻的交通流量。

    虽然这里介绍的是交通流量预测问题,但是图的构建问题是广泛存在多个领域的,是很重要的部分,如果连图的构建都不会,还想做后面的工作,想peach呢?需要说明一下,图的构建问题实际上就是如何构建出邻接矩阵。

    3:图的构建

    3.1:高斯核构建邻接矩阵

    解释一下上面的公式:d_{ij} 表示 i 节点和 j 节点的欧式距离,w_{ij} 为两个节点的关系,显然 d 越大,w_{ij}​就越小,同时设定一个阈值,超出这个范围,那w_{ij}=0 。

    3.2:多图表示法

    对相关图解释一下,比如说有A和B两个节点,在一段时间中,它们的交通流量呈现相似性,那么就可以认为它们的相关性高。

    最后就是将距离图、交互图、相关图这三种图进行融合,首先的意思就是对邻接矩阵标准化或者说归一化,然后添加自连接边,最后就表示加权求和的过程,F 是最后融合的图的权重,W'_{i}是可学习的参数。

    虽然实验结果表明,多图表示法效果最好,但是加权求和起来的图是否可靠是有疑问的,没有理论的支持。而且这样图确定后不能再变了,但是交通预测中图是随时间变化的。

    上面介绍的都是人为的手工去构造图结构,那么能不能用深度学习的方法自动的学习图结构呢?下面来看:

    解释一下上面的公式:​\widetilde{A}_{apt}^{}k 是邻接矩阵,X 是输入特征,W_{k} 是卷积核参数,和ChebNet网络很相似。

    这篇文章中的邻接矩阵是可学习的,\widetilde{A}_{apt}^{}k ​就是自适应的邻接矩阵,但是由于\widetilde{A}_{apt}^{}k​是一个N ∗ N 的矩阵,由于参数量太大,直接学习是不现实,所以对\widetilde{A}_{apt}^{}k 进行了相当于矩阵分解的操作,就是\widetilde{A}_{apt}^{}k = SoftMax(ReLu(E_{1}E_{2}^{T}) ,也就是将\widetilde{A}_{apt}^{}k 分解成E_{1}  和 E_{2}^{T} ​。现在假设E_{1}  ∈ R^{N*P},一般P<<N,E_{2}  ∈ R^{N*P}转置后相乘就会把P消掉,所以E_{1}E_{2}^{T}N*N。这样就降低了参数量的作用。

    这篇文章只能自动学习到邻接矩阵,学习下来后就固定了,而不能动态的改变邻接矩阵。

    那么有没有学习动态的图结构的方法呢?答案是有的。

    这个就是说Attention机制在学习注意力参数a_{ij} ​时,不同的输入会学习到不同的a_{ij},所以就达到了学习动态图的效果。


    4:小结


    5:其他方面

    5.1:天气预测

    可以发现与交通预测的数据建模很相似。


    5.2:骨架视频


    5.3:文本分类


    5.4:小结

    展开全文
  • 图卷积神经网络

    千次阅读 2019-03-19 09:14:33
    https://blog.csdn.net/chensi1995/article/details/77232019
    展开全文
  • 浅析图卷积神经网络

    万次阅读 多人点赞 2018-05-21 10:31:11
    今天想和大家分享的是图卷积神经网络。随着人工智能发展,很多人都听说过机器学习、深度学习、卷积神经网络这些概念。但图卷积神经网络,却不多人提起。那什么是图卷积神经网络呢?简单的来说就是其研究的对象是图...

    今天想和大家分享的是图卷积神经网络。随着人工智能发展,很多人都听说过机器学习、深度学习、卷积神经网络这些概念。但图卷积神经网络,却不多人提起。那什么是图卷积神经网络呢?简单的来说就是其研究的对象是图数据(Graph),研究的模型是卷积神经网络。


    为什么有图卷积神经网络


    自2012年以来,深度学习在计算机视觉以及自然语言处理两个领域取得了巨大的成功。和传统方法相比,它好在哪里呢?


    假设有一张图,要做分类,传统方法需要手动提取一些特征,比如纹理啊,颜色啊,或者一些更高级的特征。然后再把这些特征放到像随机森林等分类器,给到一个输出标签,告诉它是哪个类别。而深度学习是输入一张图,经过神经网络,直接输出一个标签。特征提取和分类一步到位,避免了手工提取特征或者人工规则,从原始数据中自动化地去提取特征,是一种端到端(end-to-end)的学习。相较于传统的方法,深度学习能够学习到更高效的特征与模式。


    卷积神经网络很好,但是它研究的对象还是限制在Euclidean domains的数据。什么是Euclidean data?   Euclidean data最显著的特征就是有规则的空间结构,比如图片是规则的正方形栅格,比如语音是规则的一维序列。而这些数据结构能够用一维、二维的矩阵表示,卷积神经网络处理起来很高效。



    但是,我们的现实生活中有很多数据并不具备规则的空间结构,称为Non Euclidean data。比如推荐系统、电子交易、计算几何、脑信号、分子结构等抽象出的图谱。这些图谱结构每个节点连接都不尽相同,有的节点有三个连接,有的节点有两个连接,是不规则的数据结构。


    下面结合两个典型的业务场景来说明什么是图:

    社交网络非常适合用图数据来表达

    上面的图谱刻画社交网络中各个节点以及它们之间的关系,用户A、用户B、帖子都是节点,用户与用户之间的关系是关注,用户与帖子之间的关系可能是发布或者转发。通过这样一个图谱,可以分析用户对什么人、什么事感兴趣,进一步实现推荐机制。


    电商场景中的图谱

    在电商中,我们首先可以想到的关键节点就是,用户、交易和商品。用户关联的节点比如会有注册地址、收获地址等;交易会关联到商品、收货地址、交易IP等、商品会关联类目等。这些节点之间的关系,比如用户除了可以通过交易购买商品,还可以对商品进行评分。这样的图数据我们可以用来做两件事情,一是推荐、二是反欺诈。


    通过上面两个例子,可以很明显的感受到,图有两个基本的特性:

    一是每个节点都有自己的特征信息。比如针对上图,我们建立一个风控规则,要看这个用户的注册地址、IP地址、交易的收货地址是否一样,如果这些特征信息不匹配,那么系统就会判定这个用户就存在一定的欺诈风险。这是对图节点特征信息的应用。


    二是图谱中的每个节点还具有结构信息。如果某段时间某个IP节点连接的交易节点非常多,也就是说从某个IP节点延伸出来的边非常多,那么风控系统会判定这个IP地址存在风险。这是对图节点结构信息的应用。


    总的来说,在图数据里面,我们要同时考虑到节点的特征信息以及结构信息,如果靠手工规则来提取,必将失去很多隐蔽和复杂的模式,那么有没有一种方法能自动化地同时学到图的特征信息与结构信息呢?——图卷积神经网络


    什么是图卷积神经网络

    图卷积神经网络(Graph Convolutional Network)是一种能对图数据进行深度学习的方法。


    图卷积算子:



    上面给出的是图卷积算子的计算公式,设中心节点为i;

    如何理解图卷积算法?我们看动图分三步去理解(注意不同颜色代表不同的权重):

    第一步:发射(send)每一个节点将自身的特征信息经过变换后发送给邻居节点。这一步是在对节点的特征信息进行抽取变换。



    第二步:接收(receive)每个节点将邻居节点的特征信息聚集起来。这一步是在对节点的局部结构信息进行融合。



    第三步:变换(transform)把前面的信息聚集之后做非线性变换,增加模型的表达能力。




    图卷积神经网络具有卷积神经网络的以下性质:

    1、局部参数共享,算子是适用于每个节点(圆圈代表算子),处处共享。

    2、感受域正比于层数,最开始的时候,每个节点包含了直接邻居的信息,再计算第二层时就能把邻居的邻居的信息包含进来,这样参与运算的信息就更多更充分。层数越多,感受域就更广,参与运算的信息就更多。


    我们来看GCN这个模型框架,输入是一张图,经过一层一层计算变换,最后输出一张图。


    GCN模型同样具备深度学习的三种性质:

    1、层级结构(特征一层一层抽取,一层比一层更抽象,更高级);

    2、非线性变换 (增加模型的表达能力);

    3、端对端训练(不需要再去定义任何规则,只需要给图的节点一个标记,让模型自己学习,融合特征信息和结构信息。)


    GCN四个特征:

    1、GCN 是对卷积神经网络在 graph domain 上的自然推广。

    2、它能同时对节点特征信息与结构信息进行端对端学习,是目前对图数据学习任务的最佳选择。

    3、图卷积适用性极广,适用于任意拓扑结构的节点与图。

    4、在节点分类与边预测等任务上,在公开数据集上效果要远远优于其他方法。


    我们怎么用图卷积神经网络

    下面分享一个我们在实际应用场景中的实验:



    实验输入是一个验证数据构成的图数据,节点是验证事件以及事件相关的属性节点。如IP,DeviceID,UA等节点。(我们总计用了30天的验证数据,每两个小时的数据构成一张图,共360张图。)


    实验输出是对事件节点进行人机分类,正常或者异常。

    实验细节

    网络结构:

    GCN(128)->GCN(64)->GCN(64)->Linear(2)

    训练:  Adam优化器, lr=0.001

    参照基准:  以只能学习特征信息的GBDT做为基准, grid_search 搜索超参数,GBDT是目前最流行的浅层分类器。


    我们用第一天的数据做训练,持续30天预测结果如下:


    GCN模型的准确率衰减比较小,而GBDT的衰减很严重。可见,GCN模型的人机判别效果要好,鲁棒性好。


    7d评估效果可视化,(用第一天的数据训练模型,第七天观察其预测效果及最后一层输出的tsne可视化结果)。上图可以看出,GCN在第七天时对样本判别的分界面仍很明显,但是GBDT对样本判别的分界面已经很模糊类了。综上,GCN学到的结构信息在人机判别中不仅效果很好,也具有更好的鲁棒性。


    写在最后

    由于时间有限,很多问题浅尝辄止,关于GCN还有很多有趣的东西。我们将开设专栏《Graph Learning》,作者会分享给大家更加全面的图学习算法。


    一直以来,我们都认为自己是一家技术驱动的公司,也说自己是AI公司。AI公司并不是那么高大上,实际上有时候很难,因为很多技术还不成熟,没有现成的可以用。在做公司业务的时候,会遇上一些现实难题,会踩到很多坑,当然也会收获一些感悟和经验。我们想,这些是企业创造的另外一种价值,应当好好利用。


    “你有一种思想,我有一种思想,互相交换后,我们都拥有两种思想”这便是分享的意义。因此,后期我们还会整理一系列的干货分享专栏,以期把在实际应用中总结、学习、创造的知识分享给大家。当然,也非常欢迎有人可以一起探讨、交流、进步,这是我们做这件事情最期待的回馈。


    《Graph Learning》专栏大纲


    第一章               图及其应用场景

    第二章               图的传播算法

    第三章               社群检测以及高密子图

    第四章              异构信息网络

    第五章               图表示学习

    第六章               图卷积神经网络

    总共六章内容,预计25-30篇幅,感兴趣的小伙伴可以关注微信公众号:geetest_jy 会有很多干货哦~

    展开全文
  • 图卷积神经网络(GCN)

    万次阅读 多人点赞 2019-08-09 14:25:46
    参考文章: 浅析图卷积神经网络 - GEETEST极验的文章 - 知乎 何时能懂你的心——图卷积神经网络(GCN) - 蝈蝈的文章 - 知乎

    0 前言

    GCN问世已经有几年了(2016年就诞生了),但是这两年尤为火爆。本人愚钝,一直没能搞懂这个GCN为何物,最开始是看清华写的一篇三四十页的综述,读了几页就没读了;后来直接拜读GCN的开山之作,也是读到中间的数学部分就跪了;再后来在知乎上看大神们的讲解,直接被排山倒海般的公式——什么傅里叶变换、什么拉普拉斯算子等等,给搞蒙了,越读越觉得:“哇这些大佬好厉害,哎我怎么这么菜!”。 就这么反反复复,尝试一次放弃一次,终于慢慢有点理解了,慢慢从那些公式的里跳了出来,看到了全局,也就慢慢明白了GCN的原理。今天,我就记录一下我对GCN“阶段性”的理解。
    GCN的概念首次提出于ICLR2017(成文于2016年):
    在这里插入图片描述

    1 GCN是做什么的

    在扎进GCN的汪洋大海前,我们先搞清楚这个玩意儿是做什么的,有什么用。
    深度学习一直都是被几大经典模型给统治着,如CNN、RNN等等,它们无论再CV还是NLP领域都取得了优异的效果,那这个GCN是怎么跑出来的?是因为我们发现了很多CNN、RNN无法解决或者效果不好的问题——图结构的数据。
    回忆一下,我们做图像识别,对象是图片,是一个二维的结构,于是人们发明了CNN这种神奇的模型来提取图片的特征。CNN的核心在于它的kernel,kernel是一个个小窗口,在图片上平移,通过卷积的方式来提取特征。这里的关键在于图片结构上的平移不变性:一个小窗口无论移动到图片的哪一个位置,其内部的结构都是一模一样的,因此CNN可以实现参数共享。这就是CNN的精髓所在。
    再回忆一下RNN系列,它的对象是自然语言这样的序列信息,是一个一维的结构,RNN就是专门针对这些序列的结构而设计的,通过各种门的操作,使得序列前后的信息互相影响,从而很好地捕捉序列的特征。
    上面讲的图片或者语言,都属于欧式空间的数据,因此才有维度的概念,欧式空间的数据的特点就是结构很规则。但是现实生活中,其实有很多很多不规则的数据结构,典型的就是图结构,或称拓扑结构,如社交网络、化学分子结构、知识图谱等等;即使是语言,实际上其内部也是复杂的树形结构,也是一种图结构;而像图片,在做目标识别的时候,我们关注的实际上只是二维图片上的部分关键点,这些点组成的也是一个图的结构。
    图的结构一般来说是十分不规则的,可以认为是无限维的一种数据,所以它没有平移不变性。每一个节点的周围结构可能都是独一无二的,这种结构的数据,就让传统的CNN、RNN瞬间失效。所以很多学者从上个世纪就开始研究怎么处理这类数据了。这里涌现出了很多方法,例如GNN、DeepWalk、node2vec等等,GCN只是其中一种,这里只讲GCN,其他的后面有空再讨论。
    GCN,图卷积神经网络,实际上跟CNN的作用一样,就是一个特征提取器,只不过它的对象是图数据。GCN精妙地设计了一种从图数据中提取特征的方法,从而让我们可以使用这些特征去对图数据进行节点分类(node classification)、图分类(graph classification)、边预测(link prediction),还可以顺便得到图的嵌入表示(graph embedding),可见用途广泛。因此现在人们脑洞大开,让GCN到各个领域中发光发热。

    2 GCN长什么样

    GCN的公式看起来还是有点吓人的,论文里的公式更是吓破了我的胆儿。但后来才发现,其实90%的内容根本不必理会,只是为了从数学上严谨地把事情给讲清楚,但是完全不影响我们的理解,尤其对于我这种“追求直觉,不求甚解”之人。
    下面进入正题,我们直接看看GCN的核心部分是什么亚子:
    假设我们手头有一批图数据,其中有N个节点(node),每个节点都有自己的特征,我们设这些节点的特征组成一个N×D维的矩阵X,然后各个节点之间的关系也会形成一个N×N维的矩阵A,也称为邻接矩阵(adjacency matrix)。X和A便是我们模型的输入。
    GCN也是一个神经网络层,它的层与层之间的传播方式是:
    在这里插入图片描述
    这个公式中:

    • A波浪=A+I,I是单位矩阵
    • D波浪是A波浪的度矩阵(degree matrix),公式为
      在这里插入图片描述
    • H是每一层的特征,对于输入层的话,H就是X
    • σ是非线性激活函数我们先不用考虑为什么要这样去设计一个公式。

    我们现在只用知道: 这个部分,是可以事先算好的,因为D波浪由A计算而来,而A是我们的输入之一。所以对于不需要去了解数学原理、只想应用GCN来解决实际问题的人来说,你只用知道:哦,这个GCN设计了一个牛逼的公式,用这个公式就可以很好地提取图的特征。这就够了,毕竟不是什么事情都需要知道内部原理,这是根据需求决定的。为了直观理解,我们用论文中的一幅图:
    在这里插入图片描述上图中的GCN输入一个图,通过若干层GCN每个node的特征从X变成了Z,但是,无论中间有多少层,node之间的连接关系,即A,都是共享的。

    假设我们构造一个两层的GCN,激活函数分别采用ReLU和Softmax,则整体的正向传播的公式为:
    在这里插入图片描述
    最后,我们针对所有带标签的节点计算cross entropy损失函数:
    在这里插入图片描述
    就可以训练一个node classification的模型了。由于即使只有很少的node有标签也能训练,作者称他们的方法为半监督分类。当然,你也可以用这个方法去做graph classification、link prediction,只是把损失函数给变化一下即可。

    3 GCN为什么是这个样子

    我前后翻看了很多人的解读,但是读了一圈,最让我清楚明白为什么GCN的公式是这样子的居然是作者Kipf自己的博客:http://tkipf.github.io/graph-convolutional-networks/ 推荐大家一读。
    作者给出了一个由简入繁的过程来解释:我们的每一层GCN的输入都是邻接矩阵A和node的特征H,那么我们直接做一个内积,再乘一个参数矩阵W,然后激活一下,就相当于一个简单的神经网络层嘛,是不是也可以呢?
    在这里插入图片描述
    实验证明,即使就这么简单的神经网络层,就已经很强大了。这个简单模型应该大家都能理解吧,这就是正常的神经网络操作。但是这个简单模型有几个局限性:

    • 只使用A的话,由于A的对角线上都是0,所以在和特征矩阵H相乘的时候,只会计算一个node的所有邻居的特征的加权和,该node自己的特征却被忽略了。因此,我们可以做一个小小的改动,给A加上一个单位矩阵I,这样就让对角线元素变成1了。
    • A是没有经过归一化的矩阵,这样与特征矩阵相乘会改变特征原本的分布,产生一些不可预测的问题。所以我们对A做一个标准化处理。首先让A的每一行加起来为1,我们可以乘以一个 D − 1 D^{-1} D1,D就是度矩阵。我们可以进一步把 D − 1 D^{-1} D1拆开与A相乘,得到一个对称且归一化的矩阵: D − 1 2 A D − 1 2 D^{-\frac{1}{2}}AD^{-\frac{1}{2}} D21AD21
      通过对上面两个局限的改进,我们便得到了最终的层特征传播公式:
      -
      在这里插入图片描述

    4 GCN有多牛

    在看了上面的公式以及训练方法之后,我并没有觉得GCN有多么特别,无非就是一个设计巧妙的公式嘛,也许我不用这么复杂的公式,多加一点训练数据或者把模型做深,也可能达到媲美的效果呢。
    但是一直到我读到了论文的附录部分,我才顿时发现:GCN原来这么牛啊!
    为啥呢?因为即使不训练,完全使用随机初始化的参数W,GCN提取出来的特征就以及十分优秀了!这跟CNN不训练是完全不一样的,后者不训练是根本得不到什么有效特征的。
    我们看论文原文:
    在这里插入图片描述
    然后作者做了一个实验,使用一个俱乐部会员的关系网络,使用随机初始化的GCN进行特征提取,得到各个node的embedding,然后可视化:
    在这里插入图片描述可以发现,在原数据中同类别的node,经过GCN的提取出的embedding,已经在空间上自动聚类了。
    而这种聚类结果,可以和DeepWalk、node2vec这种经过复杂训练得到的node embedding的效果媲美了。
    说的夸张一点,比赛还没开始,GCN就已经在终点了。看到这里我不禁猛拍大腿打呼:“NB!”还没训练就已经效果这么好,那给少量的标注信息,GCN的效果就会更加出色。作者接着给每一类的node,提供仅仅一个标注样本,然后去训练,得到的可视化效果如下:
    在这里插入图片描述
    这是整片论文让我印象最深刻的地方。
    看到这里,我觉得,以后有机会,确实得详细地吧GCN背后的数学琢磨琢磨,其中的玄妙之处究竟为何,其物理本质为何。这个时候,回忆起在知乎上看到的各路大神从各种角度解读GCN,例如从热量传播的角度,从一个群体中每个人的工资的角度,生动形象地解释。这一刻,历来痛恨数学的我,我感受到了一丝数学之美,于是凌晨两点的我,打开了天猫,下单了一本正版《数学之美》。哦,数学啊,你真如一朵美丽的玫瑰,每次被你的美所吸引,都要深深受到刺痛,我何时才能懂得你、拥有你?

    5 其他关于GCN的点滴

    1. 对于很多网络,我们可能没有节点的特征,这个时候可以使用GCN吗?答案是可以的,如论文中作者对那个俱乐部网络,采用的方法就是用单位矩阵 I 替换特征矩阵 X。
    2. 我没有任何的节点类别的标注,或者什么其他的标注信息,可以使用GCN吗?当然,就如前面讲的,不训练的GCN,也可以用来提取graph embedding,而且效果还不错。
    3. GCN网络的层数多少比较好?论文的作者做过GCN网络深度的对比研究,在他们的实验中发现,GCN层数不宜多,2-3层的效果就很好了。

    参考文章:

    1. 浅析图卷积神经网络 - GEETEST极验的文章 - 知乎
    2. 何时能懂你的心——图卷积神经网络(GCN) - 蝈蝈的文章 - 知乎
    展开全文
  • 基于站点数据的图卷积神经网络的实现 pyotrch问题描述数据的预处理 问题描述 基于简单数据的图卷积神经网络展示,假设有5个空间相关的点(nodes),每个点有一个特征(feature),通过图卷积利用5个点的数据对某一点...
  • 图卷积神经网络整理

    万次阅读 多人点赞 2019-06-22 11:42:25
    图卷积神经网络的整理(理论+代码)一、背景1.1 离散卷积1.2 非结构化数据1.3 图卷积的大致流派二、基于谱的图卷积三、基于空间域的图卷积 一、背景 1.1 离散卷积 首先这篇文章需要基于你已经理解CNN在图像上的原理...
  • GCN—图卷积神经网络理解

    千次阅读 多人点赞 2019-09-10 19:30:23
    文章目录一、CNN卷积二、GCN 图卷积神经网络2.1 GCN优点2.3 提取拓扑图空间特征的两种方式三、拉普拉斯矩阵3.1 拉普拉斯矩阵的谱分解(特征分解)3.2 如何从传统的傅里叶变换、卷积类比到Graph上的傅里叶变换及卷积...
  • 图卷积神经网络 (1)基于谱方法(Spectral Methods): 由卷积定理可知,函数卷积的傅立叶变换是函数傅立叶变换的乘积。 未完待续。。。。。。 (2)基于非谱方法(Non-spectral Methods): ...
  • 2019云栖大会-关于网络嵌入和图卷积神经网络的一些思考,清华大学崔鹏关于卷积网络深蹲学习领域的技术分享。
  • resources for graph convolutional networks (图卷积神经网络相关资源)
  • Spatial Temporal Graph Convolutional Networks for Skeleton-Based Action Recognition. 图卷积神经网络,2018年AAAI论文代码。
  • 用 Pytorch 实现一个简单的图卷积神经网络

    千次阅读 热门讨论 2020-07-23 11:02:25
    用 Pytorch 实现一个简单的图卷积神经网络 深度学习在序列化数据的处理上取得了良好的效果, 但对于非欧空间中的数据处理问题却长时间难以突破. 在 2017 年, Kipf 等人在图神经网络上利用信号处理中的谱方法成功实现...
  • 图卷积神经网络(GCN)

    千次阅读 2020-09-27 07:18:33
    图卷积神经网络 GCN是什么
  • 2.1. 经典卷积神经网络的应用 2.2. 经典卷积神经网络的局限 2.3. 如何将卷积操作拓展到结构数据中? 谱域卷积 3.1. 图谱卷积背景知识 3.2. 图谱卷积的数学知识 3.3. 傅里叶变换 3.4. 傅里叶反变换 3.5. ...
  • 过去几年,卷积神经网络因其强大的建模能力引起广泛关注,在自然语言处理、图像识别...然而,传统的卷积神经网络只能处理欧氏空间数据,而现实生活中的许多场景,如交通网络、社交网络、引用网络等,都是以数据的形式存在。
  • 图卷积神经网络主要要完成的就是这件事,给定一个图网络,把节点(node)(又称顶点(vertex))与 边(edge)输入进一个函数,希望得到一个各个节点的feature信息,利用这个feature去实现各种任务(比...
  • 1:图卷积神经网络回顾 2:空域图卷积局限性分析 3:过平滑问题的若干缓解方案 4:总结 1:图卷积神经网络回顾 图卷积神经网络分类: 上图列出的图卷积缺点,使得谱域图卷积不能实际使用,而造成这种...
  • 图卷积神经网络(GCN)的简单介绍 1. 什么是GCN 图卷积神经网络是一种能对图数据进行深度学习的方法。 简单的说,GNN就是其研究的对象是图数据(Graph),研究的模型是卷积神经网络。 2. 为什么使用GCN 与传统方法...
  • 在生活中的某个时刻我们会发现,在...图卷积神经网络 在传统的神经网络层中,我们在层输入矩阵X和可训练权值矩阵w之间进行矩阵乘法,然后应用激活函数f。因此,下一层的输入(当前层的输出)可以表示为f(XW)。在图卷
  • 此博文是对深蓝学院《图卷积神经网络》课程笔记进行整理,简要阐述了谱域图卷积背景知识以及经典的图谱卷积模型。 其中背景知识先摆出结论,之后通过提问题的方式循序渐进引出各种知识点,如图谱卷积定理、傅立叶...
  • 图卷积神经网络及其应用,来自中科院计算所沈华伟博士在ICLR 2019顶会上的演讲稿,欢迎大家下载学习。
  • 图卷积神经网络(Graph Convolutional Neural Network)》:https://blog.csdn.net/chensi1995/article/details/77232019 《卷积神经网络不能处理“图”结构数据?这篇文章告诉你答案》:...
  • 交通预见未来(16) 基于图卷积神经网络的轨道交通流量预测 1、文章信息 《Predicting Station-Level Short-Term Passenger Flow in a Citywide Metro Network Using Spatiotemporal Graph Convolutional Neural ...
  • 交通预见未来(3) 基于图卷积神经网络的共享单车流量预测 1、文章信息 《Bike Flow Prediction with Multi-Graph Convolutional Networks》。 文章来自2018年第26届ACM空间地理信息系统进展国际会议论文集,作者...
  •     最近的推荐系统中最突出的是称为图卷积网络(GCNs)的深度学习架构,通过使用神经网络循环地提取总体的特征信息(如,图1),而一个“卷积”操作从一个节点的单跳图邻域转换并聚集特征信息,并通过叠加多个这样...
  • 交通预见未来(22): 基于动态时空图卷积神经网络的交通流预测 1、文章信息 《Dynamic Spatial-Temporal Graph Convolutional Neural Networks for Traffic Forecasting》。 湖南大学信息科学与工程学院2019年初发...
  • 一种基于图卷积神经网络的脑电情感识别方法 技术领域 本发明属于信号处理技术领域,更具体涉及一种基于图卷积神经网络的脑电情感识别方法。 背景技术 在众多生理信号中,由于脑电直接取自大脑信号,能直接...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 118,069
精华内容 47,227
热门标签
关键字:

图卷积神经网络