精华内容
下载资源
问答
  • 接着,将具有最相似图像特征的邻接精英人员超像素定义为同质图像粒,同质图像粒相互融合并聚类形成具有特定语义信息的同质人员区域。最后,由所有同质人员区域共同构成完整的人员区域,并实现人员区域与图像背景的...
  • 同质图,异质图以及属性图

    千次阅读 2020-09-02 17:34:06
    同构图指的是中的节点类型和关系类型都仅有一种。 异构 指的是中的节点类型或关系类型多于一种。 属性 在异构基础上增加了额外的属性信息。 对于节点类型和关系类型的理解 比如我今天看了电影《流浪地球...

    概念区别

    • 同质(Homogeneity)图
      同质(Homogeneity)图指的是图中的节点类型和关系类型都仅有一种。
    • 异质(heterogeneous)图
      指的是图中的节点类型或关系类型多于一种。
    • 属性图
      在异质图基础上增加了额外的属性信息。

    对于节点类型和关系类型的理解

    比如我今天看了电影《流浪地球》,那“我”作为观众和电影《流浪地球》之间就建立了“看了”这一关系。异质(heterogeneous)图可以用来描述这种交互关系的集合。这个图分“观众”和“电影”两类节点,以及“看了”这一类边。“我”作为观众,和电影所具有的属性一定是不同的,需要用不同的模型或者不同的特征维度来表达。这张图就天然具有了异质(heterogeneous)性。
    再比如我去豆瓣上给《流浪地球》评了8分,那“我”和《流浪地球》之间就又建立了“评分”这一关系。“评分”和“看了”的属性也一定是不同的,如前者包含评分分数,后者则包含票价等

    对于属性信息的理解

    比如一个用户节点,节点存在着很多附加信息:“姓名”,“注册时间”等等内容

    两个图互为同构(isomorphism)图(图论)

    在这里插入图片描述
    参考:
    [1]《图论导引》李建中译
    [2]《深入浅出图神经网络》刘忠雨 P8
    [3] 图的基础知识
    [4] DGL更新报告
    [5] 在此对评论区提出的问题表现感谢!

    展开全文
  • 这是由Eckovation创建的Matlab课程的实习项目,目的是建立同质图像数据集并在Matlab中执行面部识别。问题:创建一个UI,该UI浏览特定的面Kong并实时获取图像,以识别新馈入图像中的面Kong。 使用Matlab App设计器...
  • 基于超像素粒化与同质图像粒聚类的矿井人员图像分割方法.pdf
  • 聚类GCN:一种对大而深的卷积网络训练的高效算法 发表时间: 2019年8月4日发表在KDD 2019上。 1.1.参考资料 论文链接:Cluster-GCN: An Efficient Algorithm for Training Deep and Large Graph Convolutional ...

    1. Cluster-GCN

    聚类GCN:一种对大而深的图卷积网络训练的高效算法
    发表时间: 2019年8月4日发表在KDD 2019上。

    1.1.参考资料

    论文链接:Cluster-GCN: An Efficient Algorithm for Training Deep and Large Graph Convolutional Networks
    GitHub链接:ClusterGCN: A PyTorch implementation
    DGL链接:DGLexamples
    https://blog.csdn.net/yyl424525/article/details/100057907

    1.2.GCN面临的挑战:大规模训练

    目前基于SGD的算法,面临着:

    • 随GCN层数呈指数增长的高计算成本
    • 保存整个图形和每个节点的embedding到内存的巨大空间需求

    1.2.1.训练原理→训练挑战

     对于一个图,GCN采用图卷积运算逐层地获取节点的embedding:在每一层,要获取一个节点的embedding,需要通过采集相邻节点的embedding,然后进行一层或几层线性变换和非线性激活。最后一层embedding将用于一些最终任务。例如,在节点分类问题中,最后一层embedding被传递给分类器来预测节点标签,从而可以对GCN的参数进行端到端的训练。
     由于GCN中的图卷积运算需要利用图中节点之间的交互来传播embeddings,这使得训练变得相当具有挑战性。不像其他神经网络,训练损失可以在每个样本上完美地分解为单独的项(decomposed into individual terms),GCN中的损失项(例如单个节点上的分类损失)依赖于大量的其他节点,尤其是当GCN变深时。由于节点依赖性,GCN的训练非常慢,需要大量的内存——反向传播需要将计算图上的所有embeddings存储在GPU内存中。

    1.2.2.GCN:Full-batch gradient descent

    • 要计算整个梯度,它需要存储所有中间embeddings,导致O(NFL)内存需求,这是不可扩展的。
    • 虽然每个epoch的时间是有效的,但梯度下降的收敛速度较慢,因为每个epoch只更新一次参数。
    • memory: bad
    • time per epoch: good
    • convergence: bad

    1.2.3.GraphSAGE:Mini-batch SGD

    • 每次更新只基于一个mini-batch的梯度,它可以减少内存需求,并在每个epoch执行多次更新,从而加快了收敛速度。
    • 但是,由于邻居扩展问题,mini-batch SGD在计算L层单个节点的损失时引入了大量的计算开销。它要求节点的邻居节点在L-1层的embeddings,这又要求邻居节点在L-2层的embeddings,和在下游层的递归embeddings。这将导致时间复杂度随GCN深度呈指数增长。
    • 尽管GraphSAGE提出了通过在层的反向传播过程中,使用固定大小的邻居样本;FastGCN提出了重要性抽样,但这些方法的开销仍然很大,并且在GCN深层会变得更糟。
    • memory: good
    • time per epoch: bad
    • convergence: good

    1.2.4.VR-GCN

    • 采用variance减少技术来减小邻域采样节点的大小。
    • 尽管成功地减小了采样大小,但它需要将所有节点的所有中间的embeddings存储在内存中,从而导致O(NFL)O(NFL)内存需求。
    • 如果图形中的节点数量增加到数百万个,那么对于VR-GCN的内存需求可能太高,无法适应GPU。
    • memory: bad
    • time per epoch: good
    • convergence: good

    1.3.Cluster-GCN:基于图聚类结构且适合于基于SGD训练的GCN算法

    1.3.1.工作原理

    目的: 构造节点的分区,使同一分区中的节点之间的图连接比不同分区中的节点之间的图连接更多。

    执行: 在每个步骤中,它对一个与通过用图聚类算法来区分的密集子图相关联的一组节点进行采样,并限制该子图中的邻居搜索。这种简单且有效的策略可以显著提高内存和计算效率,同时能够达到与以前算法相当的测试精度。

    1. 对于一个图G,可以把它的节点分成c个组: V = [ V 1 , . . . , V c ] V=[V_1,...,V_c] V=[V1,...,Vc]。因此,就可以得到c个子图 G = [ G 1 , . . . , G c ] G=[G_1,...,G_c] G=[G1,...,Gc],每个 E t E_t Et只包含在 V t V_t Vt中的节点之间的边。
    2. 将特征矩阵X和训练标签Y根据分区 [ V 1 , . . . , V c ] [V_1,...,V_c] [V1,...,Vc]分组为 [ X 1 , . . . , X c ] [X_1,...,X_c] [X1,...,Xc] [ Y 1 , . . . , Y c ] [Y_1,...,Y_c] [Y1,...,Yc]。其中, X t X_t Xt Y t Y_t Yt分别由 V t V_t Vt中节点的特征和标签组成。
    3. 对节点进行重组后,邻接矩阵被划分为 c 2 c^2 c2个子矩阵,即对角块 A t t A_{tt} Att,是一个包含的边在子图 G t G_t Gt内的 ∣ V t ∣ × ∣ V t ∣ ∣Vt∣×∣Vt∣ Vt×Vt维的邻接矩阵​。
    4. 块对角近似:目标函数和损失函数可以分解成不同的batches (clusters)。最终embedding矩阵由bar A的块对角形式表示。
    5. 在每一步中,对一个聚类 V t V_t Vt进行采样,然后根据块损失函数的梯度进行SGD更新,这只需要当前batch上的子图 A t t , X t , Y t A_{tt},X_t,Y_t Att,Xt,Yt和模型 { W ( l ) } l L \{{W^{(l)}}\}^L_l {W(l)}lL 。实现只需要矩阵乘积的正向和反向传播,这比以前基于SGD的训练方法中使用的邻域搜索过程更容易实现。

    使用了图聚类算法来划分图

    随机多聚类框架(stochastic multi-clustering framework):提高Cluster-GCN的收敛性。 先用一个较大的p,把图分割成p个簇 。然后对于SGD的更新重新构建一个batch B,而不是只考虑一个簇。随机地选择q个簇 ,并把它们的节点包含到这个batch B中。此外,在选择的簇之间的连接被添加回去。通过这种方式,在簇之间的连接就会被重新合并。这种簇的组合使batch之间的差异(variance)更小。

    随机多聚类框架解决下述问题:

    • 图被分割后,一些连接边可能被删除。因此,性能可能会受到影响。
    • 图聚类算法往往将相似的节点聚集在一起,因此聚类的分布可能不同于原始数据集,从而导致在执行SGD更新时对 full gradient的估计有偏差。
    • 与随机分割相比,簇的标签分布偏向于某些特定的标签,这增加了不同batch的差异(variance),并可能影响SGD的收敛性。

    对角增强(diagonal enhancement):标准化(normalization)策略。有助于构建深度GCN并实现最先进的(SOTA)性能。

    在最初的GCN设置中,每个节点从上一层聚合其相邻节点的表示。然而,在深度GCN的设置下,该策略可能不适用,因为它不考虑层数。直观地说,附近的邻居贡献的应该比远处的节点多。因此,作者提出了一种更好地解决这个问题的技术,其思想是放大每个GCN层中使用的邻接矩阵A的对角部分。通过这种方式,在每个GCN层的聚合中对上一层的表示施加更多的权重。

    1.3.2. 优势

    • 内存:只需要将节点的embeddings存储在当前batch中,即O(bFL),batch大小为b。这明显优于VR-GCN和full gradient decent,略优于其他基于SGD的方法。
    • 计算复杂度:这种基于梯度下降的算法每个epoch时间开销与邻居搜索方法差不多,但比邻居搜索方法快得多。
    • 收敛速度:这种算法与其他基于SGD的方法是有竞争力的。
    • 易于实现:只计算矩阵乘法而不需要进行邻居采样。
    • memory: good
    • time per epoch: good
    • convergence: good

    1.3.3.对算法的测试

    • 作者创建了Amazon2M数据集:200万个节点,6100万个边。比以前最大的公开可用数据集(Reddit)大5倍多。
    • 训练三层GCN,Cluster-GCN比以前最先进的VR-GCN(1523秒 vs 1961秒)更快,并且使用的内存更少(2.2GB vs 11.2GB)。
    • 训练4层GCN,Cluster-GCN可以在36分钟内完成,而所有现有的GCN训练算法由于内存不足而无法训练。
    • Cluster-GCN允许在短时间和内存开销的情况下训练更深入的GCN,从而提高了使用5层Cluster-GCN的预测精度。
    • 在PPI数据集上实现了最先进的test F1 score 99.36,而之前的最佳结果在1是98.71。

    1. GaAN: Gated Attention Networks for Learning on Large and Spatiotemporal Graphs ↩︎

    展开全文
  • (2)确定观测尺度有密切关系与视觉同质性分析的关系,一种启发式开发了比例选择算法以选择合适的根据视觉同质性的变化进行缩放在一定范围内进行评估。 实验证明我们的探测器可以找到较少但具有代表性的区域高重复...
  • 目前的图神经网络主要针对同质图(节点类型和边类型单一)设计. - 同质图中只有一种类型的节点和边(例如,只有朋友关系的社交网络),网络结构较为简单.因此,同质图神经网络通常只需要聚合单一类型的邻居来更新节点的...

    目前的图神经网络主要针对同质图(节点类型和边类型单一)设计.

    • 同质图中只有一种类型的节点和边(例如,只有朋友关系的社交网络),网络结构较为简单.因此,同质图神经网络通常只需要聚合单一类型的邻居来更新节点的表示即可(例如,通过在朋友关系下的邻居来更新节点表示).
    • 但真实世界中的图大部分都可以被自然地建模为异质图(多种类型的节点和边,如下图所示,IMDB数据中包含三种类型的节点Actor、Movie和Director,两种类型的边Actor-Moive和Movie-Director). 多种类型的节点和丰富的语义信息给异质图神经网络设计带来了巨大挑战.



    参考资料:
    知乎专栏:异质图神经网络
    异质图的处理(一)——Heterogeneous Graph Neural Network
    2019年,异质图神经网络领域有哪些值得读的顶会论文?
    异质图神经网络:模型和应用
    异质图神经网络和同质图神经网络的区别是什么?
    异质图神经网络学习笔记
    同质图,异质图以及属性图

    展开全文
  • 输入- 把手- FIGNAME:文件名,包括扩展名(BMP、JPG、PNG 或 TIF) - DIM:具有图像尺寸的 1x2 数值数组。 如果 DIM=[],将使用当前图形大小乘以 MAGN_FACTOR。 - 裁剪:1(裁剪图像)或 0(不裁剪 [默认])...
  • 针对高光谱数据维数高,波段间冗余信息大的问题,提出一种基于同质性降维和组合匹配追踪算法的高光谱图像分类方法。该方法首先利用均值漂移算法对高光谱图像进行分割得到同质性图像块,对同质性的图像块进行流行学习...
  • 针对传统高光谱图像分类算法多利用目标类别光谱信息而忽略空间信息的问题,提出了一种综合利用...最后利用多尺度区域同质性判定进一步改进图像分类精度。实验表明,该算法能够消除“噪声”像元,有效地提高图像分类精度。
  • 当前大多数工作将其建模为同质信息网络,并未对网络中不同类型的对象及链接加以区分.近年来,越来越多的研究者将这些互联数据建模为由不同类型节点和边构成的异质信息网络,并利用网络中全面的结构信息和丰富的语义信息...
  • 提出一种基于局部同质性测度的静止图像平滑式加性噪声估计方法。为增强图像中各像元的同质性测度值 差异,以柯西分布函数作为核函数,提出一种图像同质性测度的新方法;为提取图像的真实边缘,采用各向异性扩 散平滑算法...
  • Windows Phone 7—HTC HD7正面图片 此外,Windows Phone 7智能手机也是非常不错的选择,因为Windows Phone 7操作系统在操作体验方面,丝毫不亚于iOS操作系统。其流畅度极为出色,这主要得力于微软对硬件配置的严格...

    其他智能手机

    其实除了Android智能操作系统外,其他操作系统也非常出色,比如Windows Phone 7、Symbian^3以及高高在上的iOS操作系统等。不过对于iOS智能操作系统来说,它是苹果御用操作系统,如果你想体验这款性能出色、繁而化简的操作系统,只能选择入手苹果iPhone系列智能手机,它将为你带来超凡的用户体验,感性的朋友不妨考虑一下。

    49642369.jpg

    Windows Phone 7—HTC HD7正面图片

    此外,Windows Phone 7智能手机也是非常不错的选择,因为Windows Phone 7操作系统在操作体验方面,丝毫不亚于iOS操作系统。其流畅度极为出色,这主要得力于微软对硬件配置的严格把控,并且这一标准也使第三方应用程序的兼容性趋于完美。不仅如此,Symbian^3智能操作系统也是一款比较出色的操作系统,虽然在互动性方面不如以上操作系统,但在易用程度以及系统稳定性方面,Symbian^3操作系统有着极大优势,所以对于普通拥有来说,Symbian^3操作系统足以应对日常基本应用需求。

    写在最后:

    行文至此,本文到这里就要与朋友们告一段落了,在以上文章中笔者为朋友们简要阐述了,在Android同质化局面下我们将如何选购智能手机。其实贯穿全文的一点就是“理性”,只要用户更具自己的需求进行选购的话,就能购得一部适合自己的智能“爱机”。

    展开全文
  • 二、、一阶相似度、二阶相似度定义 1、 A graph is denoted as G = ( V , E ) G = (V, E) G=(V,E), where V = v 1 , . . . , v n V = {v_1, ..., v_n} V=v1​,...,vn​ represents n n n vertexes and E = { e ...
  • MATLAB 重新解释“Astrophysics with a PC 8 - Homogeneous Stellar Models”的 Python 代码% https://github.com/cdacos/astrophysics_with_a_pc/blob/master/python/ch08_stellar_model.py % 已添加表格 §
  • 神经网络(GNN)-2014:DeepWalk: online learning of social representations
  • fcnMaxHomogeneityOverPixelNeighborhood 使用切换均值滤波器对图像执行噪声过滤,在感兴趣像素周围的预先指定的局部邻域内具有最均匀的灰度值。 它使用 3x3 像素的正方形邻域来估计默认设置中的灰度统计。...
  • 自然语言处理-GNN:Node2vec【平衡同质性和结构性】
  • 神经网络(GNN):GCN【开山之作】
  • 神经网络(GNN):GAT【Attention机制】
  •   最近一直在思考团队技术同质化的问题,今天整理了下自己的思路。和大家分享一下自己的想法。如果有准确或者偏颇的地方,还请大家多多批评指正。 什么是团队技术同质化   我个人认为:团队技术同质化,是一个...
  • bootstrap 是一种通过独立地以相等的概率(蒙特卡罗重采样)重新采样单个数据集来估计统计量可变性的方法。 允许估计潜在分布未知或样本量较小的度量。 他们的结果与这些分析方法的统计特性一致(Efron 和 ...
  • 通俗来讲,一阶相似性刻画了本身的结构,即节点-边-节点,它是能直接从中观察到的的基本结构,是的局部结构。利用一阶相似性来建模中节点表示,那么两个节点相连则它们的表示相似,如果两个节点没有边...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 16,222
精华内容 6,488
关键字:

同质图