精华内容
下载资源
问答
  • 神经网络与深度学习教程---神经网络入门圣经,深入浅出
  • 深入浅出图神经网络:GNN原理解析》配套代码 关于勘误 由于作者水平有限,时间仓促,书中难免会有一些错误或不准确的地方,给读者朋友造成了困扰,表示抱歉。 仓库中提供了目前已经发现的一些问题的,在此向指正...
  • 图神经网络(GNNs)是针对图信号的信息处理体系结构。它们已经被开发出来,并在本课程中作为卷积神经网络(CNNs)的推广来介绍,它被用来在时间和空间上处理信号。这句话听起来可能有些奇怪,这取决于你对神经网络(NNs)...
  • 数据挖掘领域的国际会议WSDM将于2020年2月3日-2月7日在美国休斯敦召开,WSDM 2020全称为第13届国际互联网搜索与数据挖掘会议(The 13th International Conference on Web Search and Data Mining, WSDM 2020)。...
  • 图神经网络(GNN)是当下风头无两的热门研究话题。然而,正如计算机视觉的崛起有赖于 ImageNet 的诞生,图神经网络也急需一个全球学者公认的统一对比基准。近日,Bengio 大神带领其团队发布了新的图神经网络对比基准...
  • 僵尸网络_图神经网络.pdf
  •   最近在学习图神经网络相关知识,一起来拆书:《深入浅出图神经网络:GNN原理解析》,这本书从原理、算法、实现、应用四个维度详细讲解了图神经网络。接下来打算结合书本内容和相关知识做个专题记录分享,今天先跟...

    前言

    最近在学习图神经网络相关知识,一起来拆书:《深入浅出图神经网络:GNN原理解析》,这本书从原理、算法、实现、应用四个维度详细讲解了图神经网络。接下来打算结合书本内容和相关知识做个专题记录分享,今天先跟大家聊聊关于图的一些基础知识。

    为什么要研究图?

    在过去的几年中,神经网络的成功推动了模式识别和数据挖掘的研究。许多机器学习任务,如目标检测、机器翻译和语音识别,曾经严重依赖手工的特征工程来提取信息特征集被各种端到端的深度学习范式(例如卷积神经网络(CNN)、长短期记忆(LSTM)和自动编码器)彻底改变了。

    尽管深度学习在欧氏空间中的数据方面取得了巨大的成功,但在许多实际的应用场景中的数据是从非欧式空间生成的,同样需要进行有效的分析。图数据的复杂性对现有的机器学习算法提出了重大挑战,这是因为图数据是不规则的。每个图都有一个大小可变的无序节点,图中的每个节点都有不同数量的相邻节点,导致一些重要的操作(例如卷积)在图像上很容易计算,但不再适合直接用于图域。

    近年来,人们对深度学习方法在图数据上的扩展越来越感兴趣。很多数据都是图结构,例如社交网络、经济网络、生物医学网络、信息网络(互联网网站、学术引用)、互联网、神经网络。而网络是它们的通用语言,因此具备极大的研究价值。在深度学习的成功推动下,研究人员借鉴了卷积网络、循环网络和深度自动编码器的思想,定义和设计了用于处理图数据的神经网络结构,由此衍生出一个新的研究热点——“图神经网络(Graph Neural Networks,GNN)”本篇文章就从图的概述入手开始我们的GNN之路。

    1.1 图的基本定义

    图(G)定义为(V,E) ,记为G=(V,E) 。
    其中: V是顶点(Vertex)的非空有限集合,记为V(G);E是无序集V&V的一个子集,记为E(G) 。
    将顶点集合为空的图称为空图。其形式化定义为:
    在这里插入图片描述

    1.1.1 图的基本类型

    • 有向图与无向图 (边是否有方向)
    • 非加权图与加权图(边是否有权重)
    • 连通图与非连通图(是否有孤立顶点)
    • 二部图 (任意边均从属于其2个子图)
      在这里插入图片描述
      在这里插入图片描述

    1.1.2 邻居和度

    在这里插入图片描述
    邻居:与顶点A相连接的顶点B和顶点C都是A的邻居
    度:顶点A的边的数量(包括出度2与入度1)

    1.1.3 子图与路径

    子图:设G=(V,E)是一个图,若V’是V的子集,E’是E的子集,且E’中的边所关联的顶点均在V’中,则G’=(V’,E’)也是一个图,并称其为G的子图(Subgraph)。
    路径:从顶点V1到顶点V2的边的数目,最少的路径成为顶点的距离
    在这里插入图片描述在这里插入图片描述

    • 无向图的路径
      在无向图G中,若存在一个顶点序列vp,vi1,vi2,…,vim,vq,使得(vp,vi1),(vi1,vi2),…,(vim,vq)均属于E(G),则称顶点vp到vq存在一条路径(Path)。

    • 有向图的路径
      在有向图G中,路径也是有向的,它由E(G)中的有向边<vp,vi1>,<vi1,vi2>,…,<vim,vq>组成。

    • 路径长度
      路径长度定义为该路径上边的数目。

    • 简单路径
      若一条路径上除了vp和vq可以相同外,其余顶点均不相同,则称此路径为一条简单路径。
      如图G2中顶点序列vl,v2,v3,v4是一条从顶点v1到顶点v4的长度为3的简单路径;顶点序列v1,v2,v4,v1,v3是一条从顶点v1到顶点v3的长度为4的路径,但不是简单路径;

    • 简单回路或简单环(Cycle)
      起点和终点相同(vp=vq)的简单路径称为简单回路或简单环(Cycle)。
      如图G2中,顶点序列v1,v2,v4,v1是一个长度为3的简单环;有向图G1中,顶点序列v1,v2,v1是一长度为2的有向简单环。

    • 有根图和图的根
      在一个有向图中,若存在一个顶点v,从该顶点有路径可以到达图中其它所有顶点,则称此有向图为有根图,v称作图的根。

    1.2 图的存储与遍历

    1.2.1 邻接矩阵与关联矩阵

    K阶邻居:V1通过k条边到达顶点V2,V2为V1的k阶邻居
    邻接矩阵:N个顶点组成的2维度关系矩阵
    关联矩阵:N个顶点与M条边组成的2维度关系矩阵。关联矩阵M(D)=(mij)n×ε的元素mij定义为:
    在这里插入图片描述
    在这里插入图片描述
    上图的邻接矩阵和关联矩阵分别是:
    在这里插入图片描述在这里插入图片描述

    1.2.2 图的遍历

    图的遍历:从某顶点出发,沿着图中的边对所有顶点访问一次且仅访问一次。
    包括深度优先(DFS)与广度优先(BFS)

    • 深度优先遍历(deep first traverse)
      所谓深度优先就是以纵向优先的方式遍历节点。我们从当前节点curr出发,如果当前节点被访问过,就返回,否则将该节点标记为访问过的节点,然后在递归访问当前节点的所有邻接节点。
     function traverse(Node node){    //递归方式实现的深度优先遍历
                  if(node.isVisited){    //如果当前节点已经被访问过
                      return;            //这个是递归出口
                  }
                  node.isVisited=true;   //将当前节点置为已经访问
                  for(var i=0;i<node.brother.length;i++){
                      traverse(node.brother[i]);   //访问当前node的所有邻接节点
                  }
                  return;       //结束
              }
    
    • 广度有限遍历(broad first traverse)
      所谓的广度优先指的是从当前节点curr出发,将该节点标记为已经访问过的节点,然后在依次访问curr的没有被访问的邻接节点,然后在依次访问邻接节点的邻接节点,直到所有的节点被访问。
    function bft(Node node){
    	var queue=[],temp; //队列结构,是待访问的节点队列,这些节点被排了顺序,按顺序被访问
                 queue.push(node); //初始化队列结构
                 while(queue.isNotEmpty())//当队列不为空的时候
                    temp=queue.shift();            //取得当前的节点元素
                    temp.isVisited=true;           //将当前节点置为已经访问
                    for(var i=0;i<temp.brother.length;i++){
                        if(!temp.brother[i].isVisited){   //如果当前节点的邻接节点没有被访问过
                            queue.push(temp.brother[i]);  //将这个邻接节点加入待访问队列
                        }
                    }}
    

    ==1.3 图数据的应用场景 ==

    比起传统的信息存储和组织模式,图数据库能够很清晰揭示复杂的模式,尤其在错综复杂的社交,物流,金融风控行业效果更为明显。

    百花齐放的图数据库,有Operational 图数据库、RDF图数据库、多模式图数据、分析及大图数据库,图数据库的关注度越来越多,并且大都是有持续在更新。

    1.图数据类型
    1). 同构图:图中的节点类型与关系类型都仅有1种,如万维网
    2). 异构图:图中的节点类型与关系类型都多余1种,关系复杂,更贴近现实
    3). 属性图:相对异构图,对数据添加属性(标签与属性)
    4). 非显示图:数据之间没有显示地定义关系。

    2.图的应用例:
    1). 社交网络(人与人)
    2). 电子购物(人与物)
    3). 化学分子(元素与元素)
    4). 交通网络(站点之间)
    5). 电路设计图(元器件间)

    3.GNN的分类任务:
    * 节点分类:如通过引用网络对论文节点分类
    * 边分类及预测:如预测社交网络中的2人关系,并进行推荐
    * 图分类、表示、生成任务:如药物分子的分类,酶的分类等

    总结

    本次分享回顾了关于图的基本概述以及用于描述图的最基本的属性。下一篇文章我们将给出详细的Python 示例,从代码的角度深入理解图的定义、图的存储和图的性质:

    结束

    更多内容请关注从今天开始种树
    关注知识图谱与大数据公众号,获取更多内容。
    在这里插入图片描述

    展开全文
  • 第一章 的概述 1.1 的基本定义 在离散数学中,有顶点(Vertex)以及连接顶点的边(edge)构成。vertex表示研究的对象,edge表示两个对象之间特定的关系。 G可表示为vertex和edge的集合,记作G=(V,E),其中V是...

    第一章 图的概述

    1.1 图的基本定义

    在离散数学中,图有顶点(Vertex)以及连接顶点的边(edge)构成。vertex表示研究的对象,edge表示两个对象之间特定的关系。
    图G可表示为vertex和edge的集合,记作G=(V,E),其中V是vertex的集合,E是edge的集合。例如图1所示。其中V = {v1,v2,v3,v4,v5}, E = {(v1,v2),(v1,v3),(v2,v4),(v2,v3),(v3,v4),(v4,v5)}.
    图1

    图1
    • 1.1.1图的基本类型
      1.有向图和无向图
      如果图中的边存在方向性,则称这样的边为有向边eij=<vi,vj>,其中vi是这条有向边的起点,vj是这条有向边的终点,包含有向边的图称为有向图。如图2所示。无向图中的边为无向边是对称的,同时包含两个方向:eij=<vi,vj>=<vj,vi>=eji.如图1所示。
      在这里插入图片描述
    图2

    2.非加权图与加权图
    如果图里的每条边都有一个实数与之对应,我们称这样的图为加权图。与之相反的是非加权图,我们可认为非加权图各边上的权重是一样的。
    3.连通图和非连通图
    如果图中存在孤立的顶点,没有任何边与之相连,这样的图称为非连通图,反之。
    4.二部图
    二部图是一类特殊的图。我们将G中的顶点集合V拆分成两个子集A和B,如果对图中的任意一条边eij均有vi ∈ \in A,vj ∈ \in B或vi ∈ \in B,vj ∈ \in A,则称G为二部图。

    1.1.2 邻居和度
    如果存在一条边连接顶点vi和vj,则称vj是vi的邻居,反之亦然。以vi为端点的边的数目称为vi的度(Degree),记为deg(vi)。
    在有向图中,我们同时定义出度(outdegree)和入度(indegree),顶点的度数等于该顶点的出度与入度之和。
    1.1.3子图与路径

    子图:图G_中的顶点集合和边集分别为另一个图G的顶点集的子集和边集的子集。
    路径:从顶点vi到顶点vj的通过的边
    路径的长度:路径中边的数目。
    顶点的距离:两个顶点之间的距离由他们的最短路径的长度决定。

    1.2 图的存储于遍历

    1.2.1邻接矩阵与关联矩阵
    邻接矩阵(Adjacency matrix):邻接矩阵A描述图中顶点之间的关联,A ∈ R N ∗ N \in{R^{N*N}} RNN其定义为:
    在这里插入图片描述
    关联矩阵:关联矩阵B ∈ R N ∗ M \in{R^{N*M}} RNM来描述结点与边之间的关联,定义如下:
    在这里插入图片描述
    在这里插入图片描述

    图3

    如图3,其邻接矩阵与关联矩阵可表示为:
    在这里插入图片描述在这里插入图片描述
    1.2.2 图的遍历
    图的遍历是指从图中的某一顶点出发,按照某种搜索算法沿着图中的边对图中的所有顶点访问一次且仅访问一次,图的遍历算法主要有两种算法:深度优先搜索(DFS,Depth-First-Search)和广度优先搜索(BFS,Breadth-First-Search)。

    1.3 图数据的应用场景

    图数据是一类比较复杂的数据类型,存在非常多的类别,这里介绍最重要的4类:同构图(Homogeneous Graph)、异构图(Heterogeneous Graph)、属性图(Property Graph)和非显式图(Graph Constructed from Non-relational Data).
    1)同构图:图中的节点类型和关系类型都仅有一种。如由超链接关系所构成的万维网。
    2)异构图:图中的节点类型或关系多于一种。
    3)属性图:相较于异构图,属性图给图数据增加了额外的属性信息
    4)非显式图:指数据之间没有显示的定义出关系,需要依据某种规则或计算方式将数据的关系表达出来,进而将数据当做一种图数据进行研究。

    1.4 图数据深度学习

    图数据相关任务的一种分类:
    1、节点层面(Node Level)的任务
    节点层面的任务主要包括分类任务和回归任务。
    2、边层面(Link Level)的任务
    边层面的任务主要包括边的分类和预测任务。边的分类是指对边的某种性质进行预测;边预测是指给定的两个节点之间是否会构成边。
    3、图层面(Graph Level)的任务
    图层面的任务不依赖于某个节点或者某条边的属性,而是从图的整体结构出发,实现分类、表示和生成等任务。

    展开全文
  • 提示:深入浅出图神经网络-GNN原理解析第一章图的概述 提示:电子书链接https://cread.jd.com/read/startRead.action?bookId=30567027&readType=1 侵删仅用作个人学习 文章目录图的概述笔记1.1 图的基本定义一...

    图的概述笔记

    提示:深入浅出图神经网络-GNN原理解析第一章图的概述


    提示:电子书链接https://cread.jd.com/read/startRead.action?bookId=30567027&readType=1 侵删仅用作个人学习


    1.1 图的基本定义与类型

    1.1.1 图的定义

    数学中,图由顶点(Vertex)和连接顶点的边(Edge)构成。顶点表示研究的对象,边表示两个对象之间的关系。

    图的表示:记 G = ( V , E ) G=(V, E) G=(V,E),其中V时顶点的集合,E是边的集合。图 G G G的顶点数为 N N N, 边数为 M M M。一条连接顶点 v i , v j ∈ V v_i,v_j∈V vivjV的边记为 ( v i , v j ) (v_i, v_j) (vi,vj)或者 e j e_j ej。示例:
    图的定义

    1.1.2 图的基本类型

    有向图与无向图、加权图与非加权图、连通图与非连通图。
    二部图: 二部图时一类特殊的图。我们将 G G G中顶点集合 V V V拆分成两个子集 A 、 B A、B AB,如果对图中任意一条边 e i j e_{ij} eij均有 v i ∈ A , v j ∈ B v_i∈A,v_j∈B viAvjB或者 v j ∈ B , v i ∈ A v_j∈B,v_i∈A vjBviA,则称图 G G G为二部图。二部图是一种常见的图数据对象,描述了两类对象之间的相互关系,比如:用户与商品、作者与论文。

    就是顶点集$V$可分割为两个互不相交的子集,并且图中每条边依附的两个顶点都分属于这两个互不相交的子集,两个子集内的顶点不相邻。
    在这里插入图片描述
    其它概念如邻居和度子图和路径可以看原文解释很清楚

    1.2 图的存储与遍历

    邻接矩阵和关联矩阵

    邻接矩阵:逻辑结构分为两部分: V V V E E E集合,其中, V V V是顶点, E E E是边。因此,用一个一维数组存放图中所有顶点数据;用一个二维数组存放顶点间关系(边或弧)的数据,这个二维数组称为邻接矩阵。

    关联矩阵:用一个矩阵来表示各个点和每条边之间的关系。

    设图 G = ( V , E ) G=(V, E) G=V,E,在这里对边重新编号 e 1 , e 2 , . . . , e M e_1, e_2, ...,e_M e1,e2,...,eM。如图:
    在这里插入图片描述
    这样就可以得到邻接矩阵关联矩阵
    在这里插入图片描述

    图的遍历

    从图中某一顶点出发,按照某种搜索算法,沿着图中的边对途中的所有顶点访问一次且仅访问一次。主要由深度优先搜索(DFS)和广度优先搜索(BFS)

    1.3 图的应用场景

    图数据是一类比较复杂的数据类型,这本书主要介绍四种

    1. 同构图:一对一,如万维网
    2. 异构图:一对多
    3. 属性图:相较于异构图,属性图增加了额外的属性信息,节点和关系都有了标签和属性。标签指节点或关系的类型属性指节点和概念的附加描述信息
      在这里插入图片描述
    4. 非显性图:数据之间没有显式地定义出关系,需要某种规则或计算方式将数据的关系表示出来,进而将数据当成一种图数据类型进行研究。如词云等

    应用场景

    社交网络、电子购物、交通系统等。
    在这里插入图片描述

    1.4 图深度学习

    不需要简介,之后细说。

    展开全文
  • 神经网络基础 1. 机器学习基本概念 1.1 机器学习分类 根据训练数据是否带有标签,可以分为: 监督学习 指的是训练数据中每个样本都有标签,通过标签可以指导模型进行学习,学到具有判别性的特征,从而对未知样本...

    神经网络基础

    1. 机器学习基本概念

    1.1 机器学习分类

    根据训练数据是否带有标签,可以分为:

    • 监督学习
      指的是训练数据中每个样本都有标签,通过标签可以指导模型进行学习,学到具有判别性的特征,从而对未知样本进行预测。

    • 无监督学习
      指的是训练数据完全没有标签,通过算法从数据中发现一些数据之间的约束关系,比如数据之间的关联、距离关系等。

    • 半监督学习
      指的是介于监督学习与无监督学习之间的一种学习方式。它的训练数据既包含有标签数据,也包含无标签数据。
      假设标签数据和无标签数据都是从同一个分布采样而来的,那无标签数据中含有一些数据分布相关的信息,可以作为标签数据之外的补充。这种情况在现实中是非常常见的。
      比如在互联网行业,每天会产生大量的数据,这些数据部分可能携带标签,但更多的数据是不带标签的,如果靠工人标记这些无标签数据,代价巨大,而半监督学习可以提供一些解决思路。

    算法输出的形式上来分,可以分为分类问题和回归问题,这两类问题都属于监督学习的范畴:

    • 分类问题
      指的是模型的输出值为离散值。

    • 回归问题
      指的是模型的输出值为连续值。比如在电商广告推荐中,模型常常输出用户点击某个商品的概率,概率越高表示模型认为用户越倾向于点击该商品。

    1.2 机器学习流程概述

    提取特征–>建立模型–>确定损失函数和进行优化求解

    1.3 常见的损失函数

    • 平方损失函数
      在这里插入图片描述
      其中,N是样本数量,它衡量的是模型预测的结果与标签之间的平方差,常用于回归问题。

    • 交叉熵损失
      交叉熵(cross entropy)损失常用于分类问题中,分类模型通常输出类别的概率分布,交叉熵衡量的是数据标签的真实分布与分类模型预测的概率分部之间的差异,损失值越小,他们之间的差异就越小。模型就能越准确地进行预测。
      在这里插入图片描述

    1.4 梯度下降算法

    机器学习中很多问题本质上都是求解优化相关的问题,找到合适的参数以期最小化损失函数值。
    梯度下降算法利用梯度信息,通过不断迭代调整参数来寻找合适的解。

    有关梯度下降,网上已经有很多成熟的技术贴,在此不在多余赘述。

    2. 神经网络

    2.1 神经元

    一个基本的神经元包括3个基本组成部分:输入信号、线性组合和非线性激活函数。我们可以用下列式子来描述神经元。
    在这里插入图片描述
    其中,x0,x1,····,xm是输入信号,wi0,wi1···,wim是神经元的权值,zi是输入信号的线性组合,b是偏置,激活函数为σ(·),ai是神经元输出信号。

    2.2 多层感知器

    有关多层感知器,网上已经有很多成熟的技术贴,在此不在多余赘述。

    2.3 激活函数

    激活函数是神经网络中一个十分重要的概念,它的非线性使得神经网络几乎可以任意逼近任何非线性函数。如果不使用激活函数,无论神经网络有多少层,其每一层的输出都是上一层输入的线性组合,这样构成的神经网络仍然是一个线性模型,表达能力有限。
    激活函数的选择多种多样,一个基本的要求是他们是连续可导的,可以允许在少数点上不可导。
    常用的激活函数包括S型激活函数和ReLU及其变种等。

    • S型激活函数
      S型激活函数中比较经典的是SigmoidTanh,这种激活函数的特点是有界(即有最大最小值),且输入的绝对值越大,对应的梯度就越小,越趋近于0。
      Sigmoid函数的定义式为:
      在这里插入图片描述
      Sigmoid函数将任意大小的输入都压缩到0到1之间,输入的值越大,压缩越接近于1;输入的值越小,压缩越接近于0。
      它在神经网络中常常用作二分类器最后一层的激活函数,可以将任意实数值转化为概率。
      另一个函数是Tanh,其定义式为:
      在这里插入图片描述
      相较于Sigmoid,Tanh的值域范围更大一些,为(-1,1)。

    • ReLU及其变种
      在这里主要介绍一下ReLU。
      ReLU即线性整流函数(Rectified Linear Unit),是目前深度学习模型中经常使用的激活函数。
      它的定义为:
      在这里插入图片描述
      可以看出,ReLU对正负值的处理完全不同,当输入为负时,全部置0;而当输入为正数时则保持不变。这个特性被称作单侧抑制。
      由于它在输入为正时,输出保持不变,梯度为1,可以缓解梯度消失的问题,计算简单,计算效率会很高。

    2.4 训练神经网络

    神经网络的运行过程分为三步:前向传播,反向传播,参数更新。通过不断的迭代进行模型参数的更新,以从数据中挖掘出有价值的信息。

    • 前向传播
      给定输入和参数,逐层向前进行计算,最后输出预测结果。

    • 反向传播
      基于前向传播得到的预测结果,使用损失函数得到损失值,然后计算相关参数的梯度,该计算方法称为反向传播。

    • 参数更新
      使用梯度下降算法对参数进行更新,重复上述过程,逐步迭代,直到模型收敛。

    2.5 优化困境

    • 梯度消失
      根据反向传播公式,第l层的误差是通过第(l+1)层的误差与两层之间权重的加权,再乘以激活函数的导数得到的,如果激活函数使用Sigmoid,其导数的最大值为0.25,当层数增加时,最后一层的误差将在前面的层中快速衰减,这会导致靠近输入层的梯度值非常小,参数几乎无法进行有效的更新。在下一次前向传播时,由于前面层的参数无法有效地从数据中获得有价值的信息供后面的层使用,模型就难以进行有效的训练,这种现象称为梯度消失。
      导致梯度消失的原因在于激活函数的饱和性,比如Sigmoid、Tanh等都会带来这种问题。因此现在的神经网络通常使用ReLU激活函数。

    • 局部最优与鞍点
      字面意思理解即可。

    展开全文
  • 深入浅出图神经网络——GNN原理解析》这本书是目前关于图神经网络的第一本中文图书。书中提到的一些概念和观点的切入点和cs224w这门课程不太相同,就当做是对图神经网络的另一种理解角度。 书中的1-4章是一些基础...
  • 0,1,1,3], [1,3,0,2,2]], dtype=torch.long) # 邻接矩阵来描述的信息 COO格式 # edge_attr = [] 这个特征矩阵不需要定义,因为边没有属性 data = Data(x=x, y=y, edge_index=edge_index) 例子补充 Hands-on Graph ...
  • 新书推荐《深入浅出图神经网络:GNN原理解析》长按二维码了解及购买极验AI&图项目团队倾力之作!从原理、算法、实现、应用4个维度详细讲解图神经网络,理论与实践相结合。白翔、俞栋等...
  • 自编码器五、信号处理与卷积神经网络1.矩阵计算前置知识2.信号与的拉普拉斯矩阵3.傅里叶变换4.滤波器(Graph Filter)5.卷积神经网络(GCN) 一、的概述 1.基本概念 1.顶点(Vertex)表示研究的对象...
  • 深入浅出WPF完整版 pdf

    2013-12-27 11:06:05
    一款介绍微软桌面应用程序新界面WPF,非常好的教程,合适初学者学习~~
  • 深度学习的优势在于自动学习特征,卷积神经网络利用图像标签进行监督,可以学习到有判别性的特征以对图像进行分类,他将表示学习与任务学习结合起来,是一种 有监督学习 。 自编码器也是一种表示学习模型,但它不是...
  • 深入浅出循环神经网络与自然语言处理基础,每一分钟都是干货,保证学后收获满满。 深入: 1 详尽数据计算细节与背后的逻辑含义,全面掌握循环神经网络三大基础模型:RNN, LSTM, GRU。 2 全面掌握NLP基础,文本数据的...
  • 给大家带来的一篇关于Python相关的电子书资源...内容介绍深入浅出Python机器学习 电子书封面读者评价领导说,我们必须要开始学Python了,否则很快就会被淘汰。可是,我们不是程序员啊!!!我们是分析师啊!!!学Py...
  • 图神经网络资源大集合~快来打包带走

    千次阅读 多人点赞 2020-10-17 22:14:21
    2020年最新图神经网络相关的论文 & 书籍 & 代码& 视频课程等学习资源集合书 & 综述1.《Deep Learning on Graphs》这本书是...
  • 现在IT界人工智能、深度学习、机器学习很火,都能说个123来,但真正知道他们的关系的我想只有真正去我们先来看下深度学习是...也就是说,多层前馈神经网络都是深度神经网络,但深度神经网络不一定是多层前馈神经网...
  • 本文会深入的去看神经网络与深度学习的一些知识,包含一些算法、基础等,比较适合初学者。 文笔有限,有些不好理解的地方会配及实例。 本文主要使用neuroph做实例进行讲解去理解机器学习相关,为什么会...
  • 能够使人接触这个话题并引起兴趣的例子在下面这篇文章里,他们生成“对抗物体”来欺骗神经网络: 文章链接: https://arxiv.org/abs/1703.05298 为了成为一位数据科学家,你还可以在下面链接中阅读关于机器学习算法...
  • GNN2讲义pdf超详细

    2020-10-18 22:35:50
    GNN2讲义pdf超详细
  • 文章《A Comprehensive Survey on Graph Neural Networks》[1]提供了一个全面的图神经网络(GNNs) 概述,并且将最新的图神经网络分为四类,即递归图神经网络(RecGNNs)、卷积图神经网络(ConvGNNs)、图自动编码器(GAEs)...
  • 神经网络可不只k、b两个参数,事实上,网络的每条连接线上都有一个权重参数,如何有效的修改这些参数,使误差最小化,成为一个很棘手的问题。从人工神经网络诞生的60年代,人们就一直在不断尝试各种方法来解决这个...
  • 神经网络与深度学习》最新2018版中英PDF+源码 将机器学习模型部署为REST API FashionAI服装属性标签图像识别Top1-5方案分享 重要开源!CNN-RNN-CTC 实现手写汉字识别 yolo3 检测图像中的不规则汉字 同样是机器...
  • 就目前已经到手看完的中文图神经网络的书来看,这本书是从典型的学术圈的视角来讲解GNN的,和之前的《深入浅出图神经网络》比较侧重应用以及《图神经网络——基础与前沿》比较侧重最新的介绍的视角有重合也有区别。...
  • 图神经网络-基础与前沿》读后感想 延续之前工作和兴趣的风格,当看到有新的一本和图神经网络相关的中文书出现后,立刻就买了一本拿来学习一下。4月初到手这本《图神经网络-基础与前沿》,先粗粗地浏览了一遍,有些...
  • 什么是图神经网络

    万次阅读 2020-08-05 10:25:32
    2019年可以说是图神经网络元年。01 什么是图神经网络?1. 图和属性图要了解图神经网络,首先要了解图。图是由节点和边组成的,如下图所示。一般图中的节点表示实体对象(比如一个用户、一件商品、一辆车、一张银行卡...
  • 作者:刘忠雨来源:大数据DT(ID:hzdashuju)导读:2020年一开年,就有神秘大咖跟数据叔说:2020,两个事必火,一个是中台,一个是图神经网络。大咖还说,有数据为证,因为20...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 1,436
精华内容 574
关键字:

深入浅出图神经网络pdf