精华内容
下载资源
问答
  • 人工智能AI源代码解析-保持网络模式的异质信息网络表示学习
  • 基于异质信息网络表示学习与注意力神经网络的推荐算法.pdf
  • hin2vec想法其实挺巧妙的 它学习两种embedding,一种是对于节点的嵌入,一种是对于元路径(meta path)的嵌入 (ps 作者在文中说如果要强调路径的有向性...这是一个二分类网络,输出对于一定的x,y存在关系r的概率...

    hin2vec想法其实挺巧妙的

    它学习两种embedding,一种是对于节点的嵌入,一种是对于元路径(meta path)的嵌入

    (ps 作者在文中说如果要强调路径的有向性,强调路径开始节点和终止节点的不同,那么可以扩展到三种embedding,对于路径起始节点的嵌入,对于路径终止节点的嵌入,对于元路径的嵌入)

     

    训练流程如上。这是一个二分类网络,输出对于一定的x,y存在关系r的概率

     

    x,y,r 分别代表路径起始节点、路径终止节点、元路径的one-hot向量,?_x′x 就是x对应节点的嵌入向量

     

    这个模型的输出是 o= ???????( ∑ ?_?′?⊙?_?′?⊙?01(?_?′?)  )

     

    从外到内

    sigmoid是sigmoid函数

    ∑是求和

    ⊙是hadmard函数,也就是对向量的逐项相乘

    f01是01标准化函数

     

    损失函数就是一般的交叉熵损失

    ——————

    在实现的时候:

    原作者使用的采样方式是将网络中的每个节点都作为随机游走的起始点进行n次长度为length的游走,同时对每条游走记录,用长度为1到w的窗口滑动采样。

    原作者使用一个衰减的学习率,lr = max( trained/(total+1)*lr_{init} , lr_{min}),就是已训练的数据占总数的比例乘以初始设定学习率,并设置了一个下限防止变为0。初始学习率lr_{init}默认0.025,下限学习率lr_{min} = 0.0001 * lr_{init}.

    元路径嵌入归一化函数有两种,一种是sigmoid,另外一种也是默认的一种,是f(x) =\left\{\begin{matrix} 1 & x>=0 \\ 0 & x<0 \end{matrix}\right.。归一化以后的梯度仍然是使用sigmoid的梯度计算方式。

    负采样的具体方式为给定target(目标节点),meta-path(元路径),随机均匀采样context(起始节点) neg个(neg默认5)。(ps:负采样在实现的时候写错了,写成了采样metapath,结果就掉了9%的预测准确率)

    笔者认为学习率衰减方式和采样方式对于较为孤立的点可能不够公平。

    ——————

    胡思乱想:

    其实会让人联想到注意力机制,训练过程中的r相当于一个query

    另外用起来的话觉得比较不顺手的一点就是对于不同的metapath在训练时没有权重分配。也就是说对于不同的特定任务hin2vec训练得到的嵌入其实是有提升空间的

    展开全文
  • 异质信息网络和知识图谱

    千次阅读 多人点赞 2020-10-31 11:36:00
    比较分析一下异质信息网络表示和知识图谱嵌入之间的异同 文中截图来源于自己做的组会分享ppt,非常简陋… 部分比较精美的图片来源于知乎文章的插图和 https://www.zhihu.com/people/Jhy1993 一片分享ppt 2. 异质...

    1. 前言

    最近在研究异质信息网络,发现知识图谱无论是在建模方式还是下游任务都与异质信息网络有很大的相似性。

    • 在这里简单介绍一下知识图谱的相关概念和从网上找来的知识图谱嵌入综述类的文章或者博客进行总结。
    • 比较分析一下异质信息网络表示和知识图谱嵌入之间的异同

    文中截图来源于自己做的组会分享ppt,非常简陋…

    部分比较精美的图片来源于知乎文章的插图和 https://www.zhihu.com/people/Jhy1993 一片分享ppt

    2. 异质信息网络和知识图谱

    2.1 异质信息网络

    在这里插入图片描述
    现实生活中形形色色的系统,通常由大量类型各异、彼此交互的组件构成,例如生物、社交和计算机系统等。利用异质网络建模这种类型丰富且交互复杂的数据,可以保留更全面的语义及结构信息。

    相较于同质网络,异质网络建模带来了两方面的好处:

    • (1)异质网络不仅可以自然融合不同类型对象及其交互,而且可以融合异构数据源的信息。在大数据时代来源不同的数据仅捕获了部分甚至是有偏差的特征,异质图网络可以对这些数据进行综合处理。因此异质网络建模不仅成为解决大数据多样性的有力工具,而且成为宽度学习的主要方法。
    • (2)异质网络包含丰富的结构和语义信息,为发现隐含模式提供了精准可解释的新途径。例如,推荐系统的异质网络中不再只有用户和商品这两种对象,而是包含店铺、品牌等更全面的内容,关系也不再只有购买,而是含有收藏、喜爱等更精细的交互。基于这些信息,利用元路径和元图等语义挖掘方法,可以产生更精细的知识发现。

    在这里插入图片描述
    在这里插入图片描述
    基于以上分析,在设计具有异质图注意机制的图神经网络体系结构时,需要满足以下新需求。

    • 1.Heterogeneity of graph
      异构性是异质图的内在属性,即具有各种类型的节点和边。例如,不同类型的节点具有不同的特征,其特征可能落在不同的特征空间中。仍然以IMDB为例,演员的特征可能涉及到性别、年龄和国籍。另一方面,电影的特征可能涉及到情节和演员。如何处理如此复杂的结构信息,同时保留多样的特征信息,是一个迫切需要解决的问题
    • Semantic-level attention
      异质图中涉及到不同的有意义和复杂的语义信息,这些语义信息通常通过[32]元路径反映出来。异质图中不同的元路径可以提取不同的语义信息。如何为具体任务选择最有意义的元路径并融合语义信息是一个有待解决的问题。语义级注意的目的是学习每个元词的重要性,并为它们分配适当的权重。还是以IMDB为例,《终结者》既可以通过电影-演员-电影MAM(都由施瓦辛格主演)连接到《终结者2》,也可以通过电影-电影(都拍摄于1984年)MYM连接到《鸟人》。然而,在确定电影《终结者》的类型时,MAM通常比MYM扮演更重要的角色。因此,平等对待不同的元路径是不现实的,而且会削弱一些有用的元路径所提供的语义信息
    • Node-level attention
      在异质图中,节点可以通过不同类型的关系进行连接,例如元路径。给定一个元路径,每个节点都有许多基于元路径的邻居。如何区分这些邻居之间的细微差别,选择具有信息的邻居是需要解决的问题。对于每个节点,节点级注意的目的是了解基于元路径的邻居的重要性,并为它们分配不同的注意值。还是以IMDB为例,当使用元路径电影 - 导演 - 导演 - 电影(同一位导演拍摄的电影)时,《终结者》将通过导演詹姆斯•卡梅隆连接到《泰坦尼克号》和《终结者2》。为了更好地把《终结者》定义为科幻电影,模型应该多关注《终结者2》,而不是《泰坦尼克号》。因此,如何设计一个能够发现相邻区域细微差异并正确掌握其权重的模型将是我们所需要的。

    2.2 知识图谱

    知识图谱定义
    知识图谱,本质上,是一种揭示实体之间关系的语义网络。–不同的实体可以抽象成不同类型的信息

    • 信息:是指外部的客观事实。举例:这里有一瓶水,它现在是7°。
    • 知识:是对外部客观规律的归纳和总结。举例:水在零度的时候会结冰。

    “客观规律的归纳和总结” 似乎有些难以实现。Quora 上有另一种经典的解读,区分 “信息” 和 “知识” 。
    在这里插入图片描述

    知识图谱是由一条条知识组成,每条知识表示为一个SPO三元组(Subject-Predicate-Object)。

    在知识图谱中,我们用RDF形式化地表示这种三元关系。RDF(Resource Description Framework),即资源描述框架,是W3C制定的,用于描述实体/资源的标准数据模型。RDF图中一共有三种类型,International Resource Identifiers(IRIs)blank nodesliterals。下面是SPO每个部分的类型约束:

    • Subject可以是IRI或blank node
    • Predicate是IRI
    • Object三种类型都可以。
    1. IRI:我们可以看做是URI或者URL的泛化和推广,它在整个图中唯一定义了一个实体/资源,和我们的身份证号类似。
    2. Literal:是字面量,可以把它看做是带有数据类型的纯文本。
    3. blank :node简单来说就是没有IRI和literal的资源。

    在这里插入图片描述

    我们其实可以认为知识图谱就包含两种节点类型,资源和字面量。借用数据结构中树的概念,字面量类似叶子节点,出度为0。例如“罗纳尔多·路易斯·纳萨里奥·德·利马”作为字面量,是不能有指向外部节点的边。在这里插入图片描述

    2.3 异质图与知识图谱

    异质图神经网络跟知识图谱都是以图的形式进行表示,都是为了得到节点的分布式表示。但是他们的原理方法上有点不一样:

    对于异质图神经网络而言,其节点表示学习也就是图嵌入从宏观上来讲大致分为两个步骤:

    1. 学习目标节点基于元路径的特征嵌入 (HGT:邻居节点基于边的注意力表示)
    2. 学习基于不同元路径的语义级别的嵌入。(HGT:不同邻居节点的消息传递)

    对于异质图网络而言,不同节点的连接关系更像是一种标注的邻居间信息聚合的标签,对于标签本身的含义关系没有进行深入挖掘(这里有一类研究方向是元路径的选择也就是不同类型节点的链接—随机游走获取邻居、针对于下游任务学习元路径),来声明利用神经网络进行信息聚合时的不同策略。这里的策略在异质图神经网络中可以表现为GAT注意力机制或者Transformer的注意力机制(个人认为其实从根本上看是一样的,都是为了区分不同连接类型采取不同的处理方式)。至于第二步语义级别的嵌入在我所看的论文中全部采取注意力机制,理由同上

    而知识图谱是受到word2vec能自动发现implicit relation的启发(king-man=quene-women),重点在学习图数据时强调的是节点跟关系的表示,知识图谱在应用更关注于关系建模。但是两中方法也可以互相借鉴的。 例如 WWW 2020 MAGNN: Metapath Aggregated Graph Neural Network for Heterogeneous Graph Embedding 在基于元路径的邻居信息聚合方式上将知识图谱嵌入中的 RotatE 方法泛化到异质信息网络中,由于异质信息网络和知识图谱的相似性,两者互相借鉴的创新方法还有待进一步研究

    后续会整理一下知识图谱嵌入相关的方法

    展开全文
  • 为了有效地挖掘异质信息网络中的语义信息和高度非线性的网络结构信息,进而提高网络表示的效果,文中提出了一种基于融合元路径的图卷积异质网络表示学习算法(MG2vec)。该算法首先通过基于元路径的关联度量方法来...
  • 为了方便大家对异质信息网络表示学习(HINE)开展相关的实验或研究,北京邮电大学 DMGroup 的研究人员在 GitHub 上发布了 HINE 训练和测试框架 OpenHINE。项目链...

    为了方便大家对异质信息网络表示学习(HINE)开展相关的实验或研究,北京邮电大学 DMGroup 的研究人员在 GitHub 上发布了 HINE 训练和测试框架 OpenHINE项目链接:

    https://github.com/BUPTDM/OpenHINE

    该项目还在持续开发中,今后将根据已公布的 HINE 论文持续实现更多有代表性的模型。欢迎其他研究者在该框架中构建 HINE 模型到这个工具包里,也会公布项目中的贡献内容。


    OpenHINE 是一个用于异质信息网络嵌入的开源工具包。它统一了 HINE 模型输入/输出/评测接口,并且修订和复现了目前比较经典的异质信息网络表示学习模型,包括:DHNE、HAN、HeGAN、HERec、HIN2vec、Metapath2vec、MetaGraph2vec、RHINE。更多资料请访问 www.shichuan.org

    亮点:

    • 易于训练和评估

    • 能够扩展到新的/您的数据集和模型

    • 可用的最新模型:HAN,HeGAN 等

    贡献者:

    北京邮电大学 DMGroup 成员:赵天宇,朱美琪,刘佳玮,刘念,楚贯一,刘佳玥,王啸,杨成,胡琳梅,石川

    1 开始

    配置需求:

    • Python version >= 3.6

    • PyTorch version >= 1.4.0

    • TensorFlow version >= 1.14

    • Keras version >= 2.3.1

    使用:

    输入参数:

    python train.py -m model_name -d dataset_name
    

    例如,使用 Metapath2vec 模型训练 ACM 数据请输入:

    python train.py -m Metapath2vec -d acm
    

    模型设置:

    可以在文件(./src/config.ini)中修改模型参数。

    • 通用参数

      ……

      • alpha: 学习率

      • dim: 输出维度

      • epoch: 迭代次数

    • 特定参数

      ……

      • metapath: 选择的元路径

      • neg_num: 负采样的个数

    数据集:

    如果想用自己的数据集进行训练,请创建文件(./dataset/your_dataset_name/edge.txt),数据格式如下:

    • input: edge

    src_node_id dst_node_id edge_type weight

    例如:

    19	7	p-c	2
    19	7	p-a	1
    11	0	p-c	1
    0       11	c-p	1
    
    -输入图是有向图,无向图需要转换为有向图。
    
    • Input: feature

    number_of_nodes embedding_dim

    node_name dim1 dim2

    例如:

    11246	2
    a1814 0.06386946886777878 -0.04781734198331833
    a0 ... ...
    

    2 模型

    DHNE AAAI 2018

    Structural Deep Embedding for Hyper-Networks

    源代码:

    https://github.com/tadpole/DHNE

    HAN WWW 2019

    Heterogeneous Graph Attention Network

    -将feature.txt添加到输入文件夹中或者设置参数["featype": "adj"],以使用邻接矩阵作为特征。
    

    源代码:

    https://github.com/Jhy1993/HAN

    DGL 实现:

    https://github.com/dmlc/dgl/tree/master/examples/pytorch/han

    HeGAN KDD 2019

    Adversarial Learning on Heterogeneous Information Network

    源代码:

    https://github.com/librahu/HeGAN

    HERec TKDE 2018

    Heterogeneous Information Network Embedding for Recommendation

    源代码:https://github.com/librahu/HERec

    -特定参数["metapath_list": "pap|psp"] (元路径用"|"划分)
    

    HIN2Vec CIKM 2017

    HIN2Vec: Explore Meta-paths in Heterogeneous Information Networks for Representation Learning

    源代码:

    https://github.com/csiesheep/hin2vec

    metapath2vec KDD 2017

    metapath2vec: Scalable Representation Learning for Heterogeneous Networks

    源代码:

    https://ericdongyx.github.io/metapath2vec/m2v.html

    DGL 实现:

    https://github.com/dmlc/dgl/tree/master/examples/pytorch/metapath2vec

    MetaGraph2Vec PAKDD 2018

    MetaGraph2Vec: Complex Semantic Path Augmented Heterogeneous Network Embedding

    源代码:

    https://github.com/daokunzhang/MetaGraph2Vec

    RHINE AAAI 2019

    Relation Structure-Aware Heterogeneous Information Network Embedding

    源代码:

    https://github.com/rootlu/RHINE

    3 输出

    测试

    python test.py -d dataset_name -m model_name -n file_name
    

    输出的嵌入文件在路径(./output/embedding/model_name/)中。

    例如,使用 HAN 模型测试 DBLP 数据并输出到 node.txt 文件请输入:

    python test.py -d dblp -m HAN -n node.txt
    

    输出格式如下:

    • output: embedding

    number_of_nodes embedding_dim

    node_name dim1 dim2

    例如:

    11246	2
    a1814 0.06386946886777878 -0.04781734198331833
    a0 ... ...
    

    4 评估

    -这里HAN使用的是没有节点特征的数据集
    

    4 未来工作

    目前 OpenHINE 仅为 0.1 版本,仍在积极开发中,欢迎您随时提供反馈意见以及您的问题。

    未来我们将包含更多模型和任务。目前我们使用了多种深度学习框架,今后我们想使用 PyTorch 统一所有模型。如果您使用 PyTorch 进行了上述模型的代码实现,或者想将您的方法添加到我们的工具包中,请与我们联系。

    点击 “阅读原文”,即刻进入 OpenHINE 的世界。

    展开全文
  • 保持聚类结构的异质网络表示学习.pdf
  • 本文介绍 IJCAI 2020 中 3 篇与异质信息网络相关的论文。分别为:保留网络模式的异质信息网络嵌入异质网络表征学习异质信息网络上的领域自适应分类1. Network Schema...

    本文介绍 IJCAI 2020 中 3 篇与异质信息网络相关的论文。分别为:

    1. 保留网络模式的异质信息网络嵌入

    2. 异质网络表征学习

    3. 异质信息网络上的领域自适应分类

    1. Network Schema Preserving Heterogeneous Information Network Embedding

    https://www.ijcai.org/Proceedings/2020/0190.pdf

    现有的许多 HIN 嵌入方法都采用元路径引导的随机游走来保留不同类型节点之间的语义和结构相关性。然而,元路径的选择仍然是一个悬而未决的问题,它要么依赖于领域知识,要么是从标签信息中学习的。

    网络模式全面包含了 HIN 的高阶结构以及丰富的语义。这篇文章首次对保留 HIN 嵌入的网络模式进行了研究,并提出了一种新的模型—— NSHE 模型。在 NSHE 中,

    1. 首先提出一种网络模式采样方法来生成子图(即模式实例),

    2. 然后构建多任务学习任务来保留每个模式实例的异构结构。

    3. 除了保留成对结构信息之外,NSHE 还能够保留高阶结构(即网络模式)。

    在三个真实数据集上的广泛实验表明,提出的模型NSHE的性能明显优于最先进的方法。

    HIN 数据示例
    NSHE 模型
    实验结果
    节点分类任务实验结果
    节点聚类任务实验结果

    2. Heterogeneous Network Representation Learning

    https://www.ijcai.org/Proceedings/2020/0677.pdf

    这篇综述考察和回顾了异质信息网络表示学习的问题。该问题的目标是自动地将输入异质网络中的对象(最常见的是顶点)投影到潜在嵌入空间中,使得可以对网络的结构和关系属性进行编码和保留。然后,嵌入(表示)可以用作机器学习算法的特征,用于处理相应的网络任务。

    要学习具有代表性的嵌入,目前的研究进展可以分为两大类:浅层嵌入学习图神经网络。在彻底回顾现有文献之后,文章确定了几个仍未解决的关键挑战,并讨论了未来的方向。最后建立了异质图 Benchmark,以便于对这一快速发展的主题进行开放式研究。

    HIN Benchmark

    https://github.com/HeterogeneousGraph

    未来方向
    • A voiding Meta Path Design.

    • Multi-Sense Representations.

    • Pre-Training of (Heterogeneous) GNNs.

    • Multi-Task Learning.

    • Dynamics and Scalability.

    • Others.

    3. Domain Adaptive Classification on Heterogeneous Information Networks

    https://www.ijcai.org/Proceedings/2020/0196.pdf

    虽然领域自适应(DA)技术在图像和文本中得到了广泛的应用,但异质信息网络(HIN)的异质性和复杂的语义对其上的领域自适应分类提出了特殊的挑战。

    • 一方面,HINs 涉及多个层次的语义,因此需要在它们之间进行域对齐。

    • 另一方面,必须在领域相似性和可区分性之间进行仔细的权衡,因为已经证明领域不变特征对于分类来说是信息不足的。

    这篇文章提出了多空间域自适应分类算法 MuSDAC 来解决 HINs 上的 DA 问题。具体地说:

    1. 文章利用多通道共享权重 GCNs,将 HINs 中的节点投影到多个空间,在那里进行成对对齐。

    2. 此外,文章还提出了一种启发式采样算法,有效地选择了具有可区分性的通道组合,并提出了移动平均加权投票方案来融合所选择的通道,从而最小化了迁移和分类损失。

    在成对数据集上的大量实验不仅证实了模型在 HINs 上的领域自适应分类性能,而且给出了每个组件对应的效果。

    模型图
    MuSDAC 采用多通道共享权重 GCNs 进行基于元路径的 HIN 处理,采用多空间对齐识别 DA 分类任务的可迁移语义信息。
    数据集

    分别从 ACM、AMiner 和 DBLP 中抽出结构不同的图对。表1列出了这些数据集的统计数据,因此显示了它们的结构差异。对于每对图,元路径边的密度彼此之间差别很大,这表明这些图对是域兼容的(即结构上不相似)。

    节点分类任务实验结果

    往期论文推荐

    ICML 2020 | 4 篇推荐系统相关论文

    ICML 2020 | 4 篇图卷积网络相关论文


    展开全文
  • 文章目录写在前面前两章简单阅读异质网络的基本概念基于原路径的挖掘异质网络的学习表示浅层模型基于分解的方法基于元路径的随机游走的方法基于关系的方法深度模型基于自动编码器基于生成对抗网络基于强化学习基于图...
  • HIN2Vec 是一篇关于异质信息网络中的表示学习的论文,发表在刚刚结束的 2017CIKM 会议上。这篇论文和我最近的工作有一些相似之处,一些想法甚至有些相同,同样有很多地方值得借鉴。  论文提出了一种 针对异质...
  • KDD'18 | 异质信息网络嵌入学习

    千次阅读 2018-11-18 14:08:06
    Easing Embedding Learning by Comprehensive Transcription of Heterogeneous Information Networks, KDD‘18 ...原文链接:KDD'18|异质信息网络嵌入学习 1 引言 网络嵌入(network embedding)模型,是最近比...
  • 行业分类-物理装置-一种基于异质网络表示学习的链路预测方法.zip
  • 第二类是异质信息网络(Heterogeneous information network),网络中包含多种类型的关系和对象,具有全面的结构信息和丰富的语义信息。 目前同质信息网络中节点排序方法较多且应用较广,例如Personalized PageRank ,...
  • 异质网络表示--基于hyperedge

    千次阅读 2018-01-08 21:30:17
    , 那么是异质(heterogeneous)网络;如果T=1,那么是同质(homogeneous)网络。 2. 事件(event) : Q i Q_i 可以表示为 < V i , w i > , w_i> ,其中 w i w_i 是事件 Q i Q_i 的权重; V i = { V t i } T t = ...
  • 异质信息网络研究现状及未来发展 一、引言 现实生活中的大多数实际系统是由大量相互作用、类型不同的组件构成,当前的分析方法通常将其建模为同质信息网络(Homogeneous information network)。采用同质网络的建模...
  • [Structural Deep Embedding for Hyper-Networks](https://arxiv.org/abs/1711.10146) 是在hyperedge(超边是不可分解的)的基础上保留object的一阶和二阶相似性,学习异质网络表示。于与HEBE的区别在于,本文考虑了...
  • 论文简介 滴滴出行发表在KDD 2020上的一篇论文,原文标题为:HetETA...本文介绍了一个名为HetETA框架利用异质信息建模ETA任务。我们将道路图转化为一个多关系网络,并引入一个基于车辆轨迹的网络来共同考虑交通行为模
  • 题目:基于元路径相似度的动态异质信息网络嵌入作者:王啸(北京邮电大学),陆元福(北京邮电大学),石川(北京邮电大学、SMP委员),王睿嘉(北京邮电大学),崔鹏(清华大学、SMP委员 ),牟帅(腾讯)期刊:IEEE ...
  • 论文题目:Network Schema Preserving ...在NSHE中,首先提出一种网络模式采样方法来生成子图(即模式实例)(图c和d中显示了一个例子,从中我们可以看到模式实例描述了这四个节点的高阶结构信息,以及两个节
  • 主要任务:基于 HIN 的推荐 自注意力元路径建模 与以前利用 CNN 等神经网络来学习元路径表示的基于嵌入的方法不同,MTRec 主要依靠自注意力来捕捉元路径中的复杂语义。MTRec 中使用的自注意力元路径建模方法可以...
  • 实际系统往往由大量类型各异、彼此交互的组件构成.当前大多数工作将其建模为同质...除介绍异质信息网络领域的基本概念外,重点聚焦基于元路径的数据挖掘方法、异质信息网络表示学习技术和实际应用三个方面的最新研究进
  • 作者:CHEONG ...多关系知识图谱中模型在做节点表征时便需要充分考虑到关系Relation,也就是边Edge对于实体表征的作用,因此异质知识图谱模型便会在做节点表征时加入Relation关系信息,那么如何合理充分结合n..
  • 异质网络的社区发现通过对异质网络中的多维结构、多模信息、语义信息、链接关系等信息进行建模表示和提取分析,以发现其中相对紧密稳定的社区结构,对网络信息的获取与挖掘、信息推荐以及网络演化预测具有重要的研究...
  • 由于用户与项目交互的稀疏性,所以冷启动问题一直存在,现存的方法从数据层面已经一定程度上减轻了冷启动的影响,最近的方法利用异质信息网络(HIN)通过高层图结构去捕获丰富的语义信息。另一方面,最近元学习...
  • 来源:AAAI 2019论文链接:https://www.aaai.org/Papers/AAAI/2019/AAAI-LuY.5171.pdf源码链接:https://github.com/rootlu/RHINEIntroduction现有的大多数 Network embedding 的相关工作都着眼于同质信息网络 ...
  • 异质网络表征学习的研究进展》基础信息挑战 基础信息 包含不同类型节点和边的为异质信息网络。 元路径是定义在网络模式上的链接两类对象的一条路径 挑战 异质信息网络的复杂性也为网络表征学习提出了新的挑战...
  • 针对SDN网络管理与非SDN网络管理共存面临的管理信息异质性这一对立问题,引入可拓学的转换桥方法,给出该问题的基元表示、共存度函数与转换桥等形式化定义,并通过SDN管理信息的同义异词场景进行实例分析.分析结果表明,...
  • 本次讲座中,石川针对图神经网络研究的重要挑战——传统采用的是同质图数据,无法满足业界交互系统对异质图的实际需求,介绍了自己对于解决方案的一系列相关研究工作,包括:异质信息网络表示学习、浅层模型、深层...
  • 传统的网络表示学习方法都是针对网络中节点和连边只有一种类型的同质信息网络的表示学习方法,而现实世界中的网络往往是具有多种节点和连边类型的异质信息网络。而且,从时间维度上来看,网络是不断变化的。因此,...
  • 为了建模这样语义丰富的关系,我们首先介绍了一个结构化的异质信息网络(HIN)用来进行表示,之后,使用基于meta-path的方法去吸收更高级别的语义,然后建立代码段间的相关性。之后,我们提出了一个叫做snippet2vec...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 3,629
精华内容 1,451
关键字:

异质信息网络表示