精华内容
下载资源
问答
  • 基于知识表示学习的实体对齐方法是将多个知识图谱嵌入到低维语义空间,通过计算实体向量之间的相似度实现对齐.现有方法往往关注文本信息而忽视图像信息,导致图像中实体特征信息未得到有效利用.对此,提出一种基于联合...
  • 实体对齐工具包(EAkit),是许多实体对齐算法的轻量级,易于使用且高度可扩展的PyTorch实现。 算法列表来自 。 目录 设计 我们对现有的实体对齐算法进行排序并对其组成进行模块化,然后将抽象结构定义为1 Encoder...
  • 针对传统实体对齐方法无法体现潜在语义信息的问题,对其进行优化,使实体对齐效果更加显著。使用潜在狄利克雷分配(latent Dirichlet allocation,LDA)模型对网络百科非结构化数据进行建模,采用改进的置信传播...
  • 实体对齐文件 这是一份回购清单,列出了近年来发表的一些有关实体对齐的必读文章,主要由和贡献。 会议论文(方法): JE : “用于知识库的实体对齐的联合嵌入方法”。 郝燕超,张元哲,何世柱,刘康,赵军。 ...
  • 实体对齐旨在在不同的知识图(KG)中找到引用同一真实世界对象的实体。 KG嵌入的最新进展推动了基于嵌入的实体对齐的出现,该对齐方式在连续的嵌入空间中对实体进行编码,并根据学习到的嵌入来度量实体的相似性。 在...
  • 实体对齐 实体对齐简介:不同的只是图谱对同一个实体的描述,会有差异。通过知识融合可以将不同知识图谱中的只是进行互补融合。 实体对齐的目的:判断两个或者多个不同信息来源的实体是否为指向真实世界中同一个对象...

    实体对齐

    实体对齐简介:不同的只是图谱对同一个实体的描述,会有差异。通过知识融合可以将不同知识图谱中的只是进行互补融合。

    实体对齐的目的:判断两个或者多个不同信息来源的实体是否为指向真实世界中同一个对象,将具有相同指称的命名实体聚集在一起。

    image-20210414145318926

    一、《A Survey on Entity Alignment of Knowledge Base》2016

    Abstract

    首先形式化定义了知识库实体对齐问题,然后对知识库的实体对齐工作进行总体概述,并从对齐算法特征匹配技术分区索引技术三个方面详细总结了各种可用方法和研究进展。重点从局部和全局两个角度对主流的集体对齐算法进行详细阐述,并介绍常用的评测数据集。

    知识库一般使用RDFS ( resource descriptionframework schema)或者OWL(Web ontology language)等语言描述的本体构建,这里的本体是一种采取不同的结构化形式表示的形式化的世界知识,其中定义了类别(class)、**属性( property)实例(instance)**等基本元素,这些元素都可以看作是知识库中的实体(entity)。知识库的对齐的研究工作开始于“本体匹配"(ontology matching)[2-4] ,初期主要是针对本体类别的语义相似性进行匹配。

    1. 问题描述

    1.1 知识库实体对齐的相关概念

    知识库可以看作是对客观世界的事物及其相互关系的一种形式化的描述,本文选择六元组的方式进行定义,RDF规范定义一条事实三元组,分为主语、谓语和宾语组成,可以简写为SPO。

    定义:知识库,KB=(I,L,R,P,FR,FP)。其中I,L,R,P分别为1组实例、字面量、关系和属性的集合,FR是一个SPO三元组表示宾语为实例的关系事实;FR是一个SPO三元组表示宾语为字面量的属性事实。

    将实体对齐进行形式化定义,知识库的实体对齐定义为知识库中的实例匹配,其形式化定义为:

    image-20210413204627364

    图1为知识库的实体对齐的过程,可以描述为:给定2个知识库和1组先验对齐的数据(可以称为对齐算法的训练数据),在可选的调节参数和外部资源(背景数据)共同控制下进行实体匹配的计算最终得到对其结果。

    image-20210413204825845

    1.2 对齐质量和效率的评价相关概念

    可分为质量和效率两个方面

    1)质量评价只要是指对齐的准确性和全面性的评价指标。

    • 精度,也称为查准率,用来衡量分类结果的质量,定义为被分类器判断为正类的实例中正确分类的比例,即:
    image-20210413210100711
    • 召回率,也称为查全率,用来衡量分类器发现正确匹配的能力,定义为分类器将正类判断为正类的比例,即:
    image-20210413210157490
    • F-measure,也称为f-score或者f1-score,是综合考虑精度和召回率的指标,定义为精度和召回率的调和均值,即:
    image-20210413210355978

    2)效率评价主要是指对齐算法中一些分区索引技术对候选匹配对的筛选能力和准确性的度量评价标准。

    1.3 问题与挑战

    1)计算复杂度挑战。进行2个知识库实体匹配的时候,为了发现所有的匹配对,需要将一个知识库中所有实体与另一个知识库中所有的实体进行比较。

    2)数据质量挑战。主要由于不同的知识库的构建目的和构建方式不同:相同实体有不同的名字,相同的名字指代不同的实体,实体定义粒度不同,相同的属性在不同知识库中具有不同的判别能力,相同类别的实体在不同知识库中具有不同数量的属性。

    3)先验对齐数据的获取挑战。先验对齐数据也称为训练数据,在知识库实体对齐过程中具有重要的作用,无论是对匹配的准确度还是算法的收敛速度都会产生重要影响。

    2. 知识库实体对齐技术概述

    实体对齐算法可以分为只考虑实例及其属性相似程度的成对实体对齐在成对对齐基础上考虑不同实例之间相互关系用以计算相似度的集体实体对齐。2类算法的配合使用时解决知识库实体对齐的主要内容。

    对实体属性以及相互关系相似程度对衡量需要用到相似性函数,称为相似性函数的特征匹配。相似性函数可以分成两类1)用于实体匹配中属性的相似性比较,即常用的文本相似性函数。2)用于实体匹配的实体关系比较,称为结构相似性函数。

    知识库对齐的详细流程如图3,待对齐的知识库经过数据预处理进入实体对齐算法模块,算法首先对待对齐数据进行分区索引,降低计算复杂度,然后利用文本相似性函数进行成对匹配,再通过结构相似性函数或其它一些利用关系相似性的算法进行集体匹配,最终将两方面的结果结合起来形成最终对齐结果。

    image-20210414142240730

    2.3 基于相似性函数的特征匹配

    一般在知识图谱实体对齐过程中,2个实体e1和e2的相似性函数定义为:

    image-20210330133252678

    其中simAtrrr是属性相似性,simNB是结构相似性函数。

    基于token的相似性函数,这种方法将待匹配的实体对看作是一系列token的集合;其次介绍基于编辑距离的相似性函数,这种方法将待匹配的实体作为文本字符串整体处理。混合型相似性函数。

    3. 实体对齐算法

    3.1 成对实体对齐方法

    3.1.2 基于机器学习的实体对齐方法

    将实体对齐看作是二元分类问题,根据是否使用标注数据可以分为有监督学习和无监督学习。主动学习属于有监督学习,通过不断交互获得更加准确的训练数据。

    3.1.2.1 监督和半监督机器学习

    监督学习需要预先标注部分实体匹配与否作为训练数据

    4. 基于相似性函数的特征匹配

    4.1 基于文本的相似性函数的特征匹配

    4.1.1 基于token的相似性函数

    基于token的相似性函数使用某种函数将带匹配的文本字符串转换为一系列子串的集合,我们称这些子串为token,这个函数为标记化函数,记为tokenize()。常用的基于token的相似性函数主要有:Jaccard相似性函数、余弦相似性函数和基于q-gram的相似性函数。

    4.1.2 基于编辑距离的相似性函数

    将待匹配的文本字符串看成一个整体,通过将一个字符串转换为另一个字符串所需要的编辑操作的最小代价作为衡量2个字符串相似性的度量,操作有:插入、删除、替换、交换位置等。

    4.2 基于结构相似性函数的特征匹配

    常用的相似性函数包括直接计算实体对的共同邻居计数、共同邻居的Jaccard相关系数、Adar评分

    二、《Bootstrapping Entity Alignment with Knowledge Graph Embedding》2018

    《利用知识图嵌入引导实体对齐》

    GitHub:https://github.com/nju-websoft/BootEA

    南京大学 软件新技术国家重点研究实验室

    前提知识

    1、实体对齐(entity alignment)也被称为实体匹配(entity matching),主要用于消除异构数据中实体冲突、指向不明等不一致性问题,可以从顶层创建一个大规模的统一知识库,从而帮助机器理解多源异质的数据,形成高质量的知识。

    2、Bootstrap是一种统计学上的估计方法,它的实质是对数据进行再抽样,进而对总体的分布特性进行统计推断,是通过多次重抽样对已有样本进行了最大程度的利用,并没有额外增加样本。样本有限,抽样次数在足够多的情况下,Bootstrap可以最大程度地估计出当前样本的统计特性。

    单一的知识图谱很难满足多元知识的需要,一种有效的方式是通过实体对齐(entity alignment)将多种知识图谱的异构知识集成起来。但有限的训练数据会使得embedding不准确,实体对齐的精确度不高。因此本文提出了一个基于Bootstrap的实体对齐技术。

    Abstract

    单一的知识图谱很难满足多元知识的需要,一种有效的方式是通过实体对齐(entity alignment)将多种知识图谱的异构知识集成起来。基于嵌入的实体对齐(entity alignment)将不同的知识图谱表示为低维嵌入,并通过测量实体嵌入之间的相似度来实现实体对齐。现有的实体对齐的方法也很多,但有限的训练数据会使得embedding不准确,实体对齐的精确度不高。因此本文提出了一个基于Bootstrap的实体对齐方法。该方法迭代地将可能的实体对齐标记为训练数据,以学习面向实体对齐的知识图谱嵌入。该方法还是用了一种对齐editing的技术,来最小化迭代误差。

    1. Introduction

    近年来,知识图谱KG受到越来越多的关注,用处很广,例如自动问题系统(question answering)、语义搜索(semantic search)和知识推理(knowledge reasoning)等。其中,为了捕获知识图谱中隐藏的语义,许多研究工作已投入到KG嵌入中。 它的关键思想是在KG中将元素(例如实体和关系)表示为低维向量(称为嵌入),同时保留KG固有的语义。

    本文的贡献有:

    1. 把实体对齐转换为分类问题
    2. 提出了一种 [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-NwwcmNJ0-1618750455774)(https://www.zhihu.com/equation?tex=%5Cepsilon)] 截断的负采样

    3. 问题描述

    X表示KG1中的实体集,Y表示KG2中的实体集。实体对齐的目标是找到集合 [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-D8m74HkN-1618750455776)(https://www.zhihu.com/equation?tex=A+%3D%5C%7B+%28x%2Cy%29+%5Cin+X%5Ctimes+Y%7Cx+_%7B%5Csim+R%7D++y+%5C%7D)] , [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-4utglQh6-1618750455778)(https://www.zhihu.com/equation?tex=%5Csim+R)] 表示x和y是等价关系X’ 和Y ′是已有的训练集。

    本文将实体对齐问题转化为分类问题,即用Y中的实体对X的实体打标签。考虑一对一的实体对齐问题:一个实体最多可以与一个标签相关联,并且标签最多可以分配给一个实体。该约束使得实体对齐中的分类问题与一般的分类问题有所区别,令 [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-NKSR8k6j-1618750455781)(https://www.zhihu.com/equation?tex=%5CTheta)] 表示KG1和KG2的嵌入,定义用y对x打标签的概率 [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-L6MYltKR-1618750455783)(https://www.zhihu.com/equation?tex=%5Cpi%28y%7Cx%3B%5CTheta%29)] 为:

    img

    σ表示sigmoid函数,sim是相似性测量函数。在本文中,使用余弦相似性度量,即

    img

    使用最大似然准则

    image-20210412221723807

    其中, [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-ai1pWB6d-1618750455787)(https://www.zhihu.com/equation?tex=L_x)] 表示实体x的真实标签, [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-vfXrmLoi-1618750455788)(https://www.zhihu.com/equation?tex=1_%7B%5B%5Ccdot%5D%7D)] 是指示符函数,表示给定命题的真假值(1或0)。

    不能让~v (L x) = ~v (x)。这样,初始化的嵌入在不需要任何训练的情况下,就可以实现对标记实体的最高对齐可能性。但这不适用于实体对齐,因为它无法保存未标记实体的任何信息。

    4. Methodology

    4.1 基于实体对齐的知识图谱嵌入

    在单个知识图谱中,实体之间的多样化关系描述了其语义。

    基于translation的模型在KG语义建模中表现很好,定义得分函数 [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-fGi26IDx-1618750455789)(https://www.zhihu.com/equation?tex=f%28%5Ctau%29)] 来衡量三元组 [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-lF6Bz47x-1618750455790)(https://www.zhihu.com/equation?tex=%5Ctau+%3D%28h%2Cr%2Ct%29)] 的合理性:

    **首先,**考虑到正负样本的训练问题,使用了限制损失的embedding目标函数:

    其中, [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-Y89xpk4y-1618750455791)(https://www.zhihu.com/equation?tex=T%5E%2B)] 和 [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-00AYOwVV-1618750455793)(https://www.zhihu.com/equation?tex=T%5E-)] 分别是正、负例样本集; [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-bnZm52sX-1618750455794)(https://www.zhihu.com/equation?tex=%5B%5Ccdot%5D_%2B%3Dmax%28%5Ccdot%2C0%29)],[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-dSfcs2FM-1618750455795)(https://www.zhihu.com/equation?tex=%5Cgamma_1%2C%5Cgamma_2)] 是三个超参数, [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-VEUX3QJ6-1618750455797)(https://www.zhihu.com/equation?tex=%5Cmu_1%3E0)] 也是一个超参数。并且,使用ϵ去除负样本生成,即从当前样本的最近 s = ⌈ ( 1 − ϵ ) N ⌉ s = ⌈ ( 1 − ϵ ) N ⌉ s=(1ϵ)N个样本中挑选负样本,使负样本更难从正样本中分别出。其中 ϵ ∈ [ 0 , 1 ] \epsilon \in[0,1] ϵ[0,1]是比例,N是知识图谱中样本的总数目, ⌈ ⋅ ⌉ \lceil\cdot\rceil 是向上取整函数(ceiling function)。

    正三元组预期具有低分数,而负三元组预期具有高分数,即f(τ)≤γ1和f(τ’) ≥ γ2。因此,我们可以根据需要直接控制正负三元组的绝对分数。在实践中,我们设置γ2 >γ1,γ1是一个小的正值。第二,我们有f(τ’)-f(τ)≥γ2-γ1,这表明所提出的目标函数仍然保留了基于边际的排序损失的特征。

    涉及到的主要方法有:

    (1)[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-cdwpsmrh-1618750455798)(https://www.zhihu.com/equation?tex=%5Cepsilon)] -Truncated Uniform Negative Sampling

    如何生成负样本呢?比如**随意从正样本(h,r,t)中任意抽一个元素(h或者t)**进行更换可以么?道理上是可以的,但生成的负样本很容易与正样本分开,对嵌入学习几乎没有帮助,例如从(Washington DC, capital of, USA)三元组生成的负样本(Tim Berners-Lee, capital of, USA),我们会发现替代的Tim Berners-Lee和正样本Washington DC是完全正交的。但是如果用New Yorker去替代Washington DC 是个很好的方式呢,显然这样生成的负样本对我们的模型训练是有益的。

    这种负样本生成方式可以用 [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-LhbKQ8O9-1618750455800)(https://www.zhihu.com/equation?tex=%5Cepsilon)]-Truncated Uniform Negative Sampling:给定要替换的实体x,不同于从所有实体中采样其替换者的负采样方法,我们将采样范围限制为一组候选对象。具体来说,是从嵌入空间中距离x最近的s个样本中去采样,

    img

    []表示向上取正函数(ceiling function)。这样,与x具有低相似性的其他实体将被截断,并且不会被采样; 同时保留具有相似特征(例如类型,关系)的难以区分的替换者。 在这里,我们使用嵌入之间的余弦相似度来搜索x的邻居。

    (2)Parameter Swapping

    对于不同知识图谱KG1 和KG2,利用预先知道的实体对齐信息A’来产生正样本集的过程如下:给定一对对齐的实体 [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-aj63SWlv-1618750455808)(https://www.zhihu.com/equation?tex=%28x%2Cy%29%5Cin+A%27)] , 产生如下三元组:

    img

    其中, [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-7ru8wgzr-1618750455814)(https://www.zhihu.com/equation?tex=T_1%5E%2B)] 和 [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-4BsDTalT-1618750455818)(https://www.zhihu.com/equation?tex=T_2%5E%2B)] 分别代表KG1和KG2中的正三元组。那么所有的正样本 [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-buUqbxTR-1618750455824)(https://www.zhihu.com/equation?tex=T%5E%2B%3DT_1%5E%2B%5Ccup+T_2%5E%2B+%5Ccup+T%5Es)] , 其中[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-UBk1CdoR-1618750455826)(https://www.zhihu.com/equation?tex=T%5Es+%3D+%5Ccup_%7B%28x%2Cy%29%5Cin+A%27%7DT_%7B%28x%2Cy%29%7D%5Es)] . 在得到所有正样本基础上,生成负样本。

    4.2 Bootstrapping Alignment

    Bootstrap方法主要是解决样本量不足的问题

    (1)Likely Alignment Labeling and Editing

    本分类问题是实体和标签之间一一对应的,可以通过下述优化问题找到第t次迭代中的标签对齐:

    image-20210329210303413

    其中, [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-ZmE17APK-1618750455829)(https://www.zhihu.com/equation?tex=%5CTheta+%5E%7B%28t%29%7D)] 表示第t次迭代的实体嵌入向量; [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-pJpDsM6T-1618750455836)(https://www.zhihu.com/equation?tex=Y%27_x%3D%5C%7B+y%7Cy%5Cin+Y%27+%5Ccap+%5Cpi%28y%7Cx%3B+%5CTheta%5E%7B%28t%29%7D%29+%3E%5Cgamma_3%5C%7D)] 是x的候选标签; [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-ZAZy8se0-1618750455839)(https://www.zhihu.com/equation?tex=%5Cpsi%5E%7B%28t%29%7D%28%5Ccdot%29)] 是待求解的预测函数,当且仅当在第t轮,y是x的标签时取1,其余取0. 这两个约束保证了实体与标签之间的一一对应关系.

    求解得到t轮新的对齐集合 [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-SMR8UR3y-1618750455841)(https://www.zhihu.com/equation?tex=A%5E%7B%28t%29%7D%3D%5Cleft%5C%7B+%28x%2Cy%29%5Cin+X%27%5Ctimes+Y%27%7C%5Cpsi+%5E%7B%28t%29%7D%28x%2Cy%29%3D1+%5Cright%5C%7D.)] 我们以增量方式使用新标记的对齐实体,并利用它来指导后续训练。

    尽管对齐效果会随着时间的推移而改善,但标记过程仍可能会产生错误的标签,这会误导后续的训练。 此外,当我们累积不同迭代的新标签对齐方式时,标签冲突是不可避免的。 为了提高标记质量并满足一对一对齐约束,在bootstrap过程中,被标记的实体可以在随后的迭代中被重新标记或变为未标记。 我们采用一种简单但有效的编辑技术来实现这种方式。

    在bootstrap过程中,将检查新增加的对齐方式是否有标签冲突。举个例子,假设某个实体x在不同的迭代轮数中产生了有冲突的标签y和y’, 那么我们的方法是选择为x提供更多对齐可能性的标签. 定义似然差: [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-t5So3l7w-1618750455843)(https://www.zhihu.com/equation?tex=%5CDelta+%7B%28x%2Cy%2Cy%27%29%7D%5E%7B%28t%29%7D%3D%5Cpi%28y%7Cx%3B%5CTheta%5E%7B%28t%29%7D%29-%5Cpi%28y%27%7Cx%3B%5CTheta%5E%7B%28t%29%7D%29)] . 若 [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-f3Qyr4F0-1618750455846)(https://www.zhihu.com/equation?tex=%5CDelta+%7B%28x%2Cy%2Cy%27%29%7D%5E%7B%28t%29%7D%3E0)] 则说明选择y作为x的标签比选择提供了更多的对齐可能性。因此,我们选择y来标记x。

    一个标签分配给多个实体的冲突可以用相同的方法解决。

    (2)Learning from Holistic Perspective(从整体学习)

    其中当x有标签时, ϕ ( x ) = 1 [ y = L x ] \phi(x)=\mathbf{1}_{[y=L_x]} ϕ(x)=1[y=Lx];当x无标签时, ϕ ( x ) = 1 ∣ Y ′ ∣ \phi(x) = \frac{1}{|Y^{'}|} ϕ(x)=Y1

    给定该概率分布后,得到新的对齐目标函数:

    image-20210329210551439

    最后,不仅需要捕获对齐似然,而且需要对知识图谱的语义建模,得到下面的综合目标函数:

    image-20210413190523770

    [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-krb8iLFq-1618750455854)(https://www.zhihu.com/equation?tex=%5Cmu_2)] 是平衡超参数。其中O_e是知识图谱的目标函数。

    4.3 实现细节

    我们根据正态分布对KGs的嵌入进行初始化,使用梯度下降优化算法Ada-Grad对上式进行优化。所有嵌入的长度限制为1,避免通过增加嵌入的范数来对目标进行简单的优化。

    image-20210329210303413

    上式的求解可以转化为二部图上的最大加权匹配问题。我们首先选取满足其似然img,然后构造一个二部图,该图的节点表示实体,边有权表示节点之间的对齐可能性。因此,可以通过在二部图中找到总权值最大的不相交边来解决标记与最大似然对齐的问题。

    复杂性的方法,在两个知识图谱中,参数的个数是DM,D表示维度的嵌入和M表示的数量的所有实体和关系。截断统一抽样,寻找[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-SRWiFqzV-1618750455857)(https://www.zhihu.com/equation?tex=%5Cepsilon)]nearest邻居的一个实体使用快速选择算法一般需要线性时间。利用启发式算法[Hendrickson and Leland, 1995]将求解上式的时间复杂度简化为线性时间。

    5. 实验结果

    我们使用hits@k和MRR作为评价指标,其中hits@(k = 1,10)(即正确对齐的实体在top k预测中的比例)和正确(即匹配)实体的排名(MR)的均值来评估模型的性能。hits@k越高,MR越低,性能越好。

    当k=1时这个评价指标也就相当于精度。

    对于DBP中的每个实体,我们使用Eq. 14来计算与其他KG (LGD/GEO/YAGO)实体的相似度分数。

    使用数据集DBP15K、DWY100K。

    image-20210330100448763

    按照惯例,我们选择Hits@k和平均倒数秩(MRR)作为我们的指标。Hits@k度量排在top k的正确对齐百分比。MRR是结果的相互排名的平均值。请注意Hits@1等同于精度。Hits@k和MRR越高,性能越好。

    6. 总结

    本文的主要贡献有三个方面:

    (1)引入了一种KG嵌入模型来学习不同KGs之间面向对齐的嵌入,采用了截断的均匀负抽样方法来提高对齐性能;

    (2)在bootstrapping过程中进行实体对齐。它将可能的对齐标记为训练数据,并在迭代期间编辑对齐;

    (3)实验结果表明,该方法在三个跨语言数据集和两个由DBpedia、Wikidata和YAGO3构建的新大规模数据集上显著优于三种最先进的基于嵌入的方法。

    在未来的工作中,我们计划研究属性值的跨语言词嵌入。此外,我们希望利用递归神经网络对KGs的复杂语义进行建模。

    三、《Entity Alignment between Knowledge Graphs Using Attribute Embeddings》2019

    使用属性嵌入的知识图之间的实体对齐

    代码:https://bitbucket.org/bayudt/kba/src/master/

    摘要

    知识图之间的实体对齐任务是在两个知识图中找到代表相同实体的实体。最近,针对这一任务提出了基于嵌入的模型。该模型建立在知识图嵌入模型的基础上,该模型通过学习实体嵌入来捕获同一知识图谱中实体之间的语义相似性。我们建议学习嵌入,可以捕获不同知识图谱中实体之间的相似性。我们提出的模型有助于对齐来自不同知识图的实体,从而实现多个知识图谱的集成。该模型利用知识图中存在的大量属性三元组,生成属性字符嵌入。属性字符嵌入是通过计算实体之间的相似度,将两个知识图上的实体嵌入转移到同一个空间中。我们利用及物性规则进一步丰富实体的属性数量,以增强属性特征的嵌入。使用真实世界知识库的实验表明,在实体对齐任务上,我们提出的模型在hits@1方面比基准模型实现了超过50%的一致改进。

    1. Introduction

    在本篇论文中,考虑三元组是以RDF三元组形式存储真实事实的KG。 RDF三元组由三个元素组成,形式为⟨ subject, relationship/predicate, object ⟩其中subject表示实体,而object表示实体或文字。如果object是一个实体,我们称该三元组为关系三元组;如果object是文字,我们将三元组称为属性三元组

    举一个属性对齐的例子:

    属性对齐:例如:“出生年月”、“出生日期”、“生日”、“出生时间”,这些属性名字不同但都是表示同一个含义。

    这张图可以看出,通过将KG G1和KG G2共同映射到同一个向量空间Merge G1_2中,就可以计算两个实体之相似度,从而进行实体对齐任务。

    image-20210413200414205

    最近,针对实体对齐任务提出了基于嵌入的模型,它要求将两个KG嵌入到同一个向量空间中,以适应KG嵌入在两个KG之间的实体对齐。但该方法需要大量的种子实体,这在现实使用中难以获取。本文的主要贡献如下:

    • 我们提出了一个两个KGs之间的实体对齐框架,该框架由谓词对齐模块(predicate alignment module)嵌入学习模块(embedding learning module)、**实体对齐模块(entity alignment module)**组成提出一种新的嵌入模型。
    • 我们提出了一种新的嵌入模型,将实体嵌入和属性嵌入相结合,用来学习对于两个KGs的统一嵌入空间在三对KGs上对模型进行评估。
    • 我们通过三对真实的KG数据库来评估所提出的模型。结果表明,在hits@1方面,我们的模型在实体对齐任务上始终比最先进的模型高出50%以上。

    2. Related Work

    我们将讨论两组常用的实体对齐方法。

    2.1 基于字符串相似度的实体对齐

    以前的实体对齐方法使用字符串相似度作为主要的对齐工具。

    2.2 基于嵌入的实体对齐

    KG嵌入模型已被用于处理KG任务,这些任务旨在根据KG中现有的三元组数据预测缺失的实体或关系。在现有的方法中,基于翻译的模型,如TransE (Bordes et al. 2013),实现了最先进的性能。trans表示一对实体之间的关系,作为实体嵌入之间的转换。

    4. Model

    模型的框架主要是三个模块,谓词对齐模块(predicate alignment module)嵌入学习模块(embedding learning module)、**实体对齐模块(entity alignment module)**组成提出一种新的嵌入模型。

    4.1 谓词对齐

    结果:谓词对齐模块通过使用统一的命名方案重命名两个KG的谓词来合并两个KG,以便为关系嵌入提供统一的向量空间。除了符合命名规范的谓词,如:rdfs:label、geo:wgs84 pos#lat等;还有一些相互匹配的谓词,例如:dbp:bornIn 和yago:wasBornIn 我们就需要统一命名,比如将dbp:bornIn和yago:wasBornIn统一为 :bornIn。

    方法:为了找到部分匹配的谓词,作者计算谓词URI的最后部分的编辑距离(例如,bornIn与wasBornIn)并将0.95设置为相似性阈值。

    模型总览图:

    img

    4.2 嵌入学习

    4.2.1 结构嵌入

    简单介绍一下什么是TransE模型

    TransE模型

    一开始是基于翻译模型提出来的,TransE表明,嵌入的尾实体t应该接近头部的嵌入实体h +的嵌入关系r,即h + r ≈ t.。这样一个模型可以保护实体的结构信息,也就是说,在KG中共享相似邻居结构的实体在嵌入空间中应该有一个紧密的表示。

    image-20210415205017078

    对于知识图谱的表示,采用传统的TransE模型,并且也采用了随机替换三元组的头实体或者尾实体进行负采样**(ps:个人认为随机替换可能会存在效率不高的情况,如果替换的是相似度比较高的可能会有更好的学习效果)**。这是通过添加一个权值α来控制三元组上的嵌入学习来实现的。为了学习结构嵌入,在我们的模型中,我们最小化以下目标函数jse

    img

    其中,

    img

    alpha是一个调节因子。有了一些对齐的实体对和关系对,可以较好的学习到实体的表示。

    4.2.2 属性字符嵌入

    对于属性字符嵌入,也参考TransE模型的思想,将r解释为从头实体h到属性a的转换。

    但是,相同的属性a可以在两个KG中以不同的形式出现,例如50.9989 vs 50.9988888889作为纬度;“巴拉克 Obama” vs “巴拉克 海珊 Obama”作为人名等。因此,本文提出使用组合函数对属性值进行编码,三元组的最后一个部分定义为关于属性a的函数 h + r = f a ( a ) h+r=f_a(a) h+r=fa(a)。其中属性 a = { c 1 , c 2 , ⋯   , c t } a=\{c_1,c_2,\cdots,c_t\} a={c1,c2,,ct}的字符序列。

    然后组合函数将属性值的编码转换为单个向量。

    对于这些大量的属性三元组,无法和关系三元组一起用在TransE模型上进行学习,因为会造成实体和属性混乱不清而无法进行实体对齐。所以我们对属性三元组单独编码,那如何对属性值进行表示呢,文章用了几种属性值表示的方法:

    • 最简单粗暴的,对每一个字符embedding进行相加,例如“China”的词向量就是每一个字母的词向量之和。但是这样就没有顺序了,于是又提出了第二种。
    • 对每个词用LSTM编码,因为是RNN模型,最终输出一个学习到语序的表示向量,但是这样也学习不到词中的组合形式,于是有了方法三。
    • N-Gram这种经典的词袋模型,可以学习到词内部的组合特征。

    有关的公式如下:

    img

    img

    img

    然后利用和TransE类似的损失函数来学习属性三元组的表示。

    img

    4.2.3 联合学习

    为了使两个KG中的实体在一个共同的向量空间上,文章将结构embedding和属性Embedding结合起来。求两种Embedding下的实体表示的相似度,将相似度最小化,这样就自然而然的将两个向量空间中实体的表示学习到同一个向量空间了。

    将三者的损失函数联合起来

    img

    img

    其中,JSE表示结构嵌入,JCE表示属性嵌入。

    4.4 实体对齐

    到了一个向量空间,就可以求的对齐的实体了,找到余弦相似度最大的向量所表示的实体即视为对齐实体。

    img

    4.5 三元组的传递性规则

    显式地包含关系传递信息可以增加了每个实体的属性和相关实体的数量,这有助于识别实体之间的相似性。

    例子:给定三组⟨ dbp:Emporium Tower, :locatedIn, dbp:London ⟩和<dbp:London,:country, dbp:England>,我们可以推断:Emporium Tower商场大厦与dbp:England有关系(即“:locatedIn”)。事实上,这些信息可以用来丰富相关实体dbp:Emporium Tower。

    对于单跳传递关系,给定传递三元组<h1, r1, t>和<t, r2, t2>,我们将r1 r2解释为头实体h1到尾实体t2的关系。因此,这些传递三元组之间的关系定义为:h1 + (r1·r2) 约等于t2。通过将关系向量r替换为r1 . r2,

    4. 实验

    实验采用的都是几个比较大的数据集,采用了三种数据集,它的数据规模如下图显示。

    img

    img

    在本文的属性字符嵌入模型中,使用n-gram组合函数比使用LSTM或其他组合函数相比,获得更好的性能,这是因为在将属性字符串映射到它们的向量表示时,n-gram组合函数比其他函数更好地保持了字符串的相似性。

    传递性规则进一步提高了模型的性能,因为它丰富了实体的属性,允许在对齐中使用更多的属性。

    img

    为了评估嵌入属性embedding对于实体对齐任务的贡献,作者进一步创建了基于规则的实体对齐模型,就移除了属性embedding,只使用了实体embedding之间的编辑距离来对齐实体。

    我们可以看到对于DBP-LGD和DBP-GEO数据集,有些指标没有降低反而升高,有些指标降低了。作者说是因为这些数据库只包含位置实体,添加坐标相似性作为额外的度量。从表4中,以增强基于规则的模型的性能。

    img

    5. 总结

    优点

    • 模型比较有新意,充分利用了attribute embedding。
    • 对于这里大量的属性三元组,无法和关系三元组一起用在TransE模型上进行学习,因为会造成实体和属性混乱不清而无法进行实体对齐。
    • 将大量的属性三元组充分利用起来,辅助将不同KG的实体构建到统一向量空间。

    缺点:

    • 就是TransE模型中对结构embedding部分,对负样本的选择了随机选择实体替换三元组的实体。
    • 就可以利用上一篇文章中提出的模型
    展开全文
  • 实体对齐

    千次阅读 2019-04-09 09:45:37
    **实体对齐(Entity Alignment)**也被称作实体匹配(Entity Matching),是指对于异构数据源知识库中的各个实体,找出属于现实世界中的同一实体。 实体对齐常用的方法是利用实体的属性信息判定不同源实体是否可进行...

    **实体(Entity)**是指客观存在并可相互区别的事物,包括具体的人、事、物、抽象的概念或联系,知识库中包含多种类别的实体。
    **实体对齐(Entity Alignment)**也被称作实体匹配(Entity Matching),是指对于异构数据源知识库中的各个实体,找出属于现实世界中的同一实体。
    实体对齐常用的方法是利用实体的属性信息判定不同源实体是否可进行对齐

    近来,针对跨知识图谱(KGs)的实体对齐任务,研究者提出并改进了多种基于 embedding 的模型。这些模型充分利用实体与实体之间的关系以得到实体之间的语义相似度,换言之,这些模型更关注于关系三元组(relationship triple)。

    展开全文
  • 实体对齐汇总

    2021-05-14 10:53:16
    汇总3.1定义3.2 评价指标3.3 数据集3.4 数据预处理技术3.5 索引3.6 对齐3.6.1 按属性相似度/文本相似度做:成对实体对齐3.6.2 协同对齐:考虑不同实体间的关联3.6.2.1 局部实体对齐3.6.2.2 全局实体对齐3.6.3 基于...

    1.综述

    • embedding 方法
    1. OpenEA: “A Benchmarking Study of Embedding-based Entity Alignment for Knowledge Graphs”.
      Zequn Sun, Qingheng Zhang, Wei Hu, Chengming Wang, Muhao Chen, Farahnaz Akrami, Chengkai Li. PVLDB, vol. 13. ACM 2020 [paper][code][笔记]
    2. "An Experimental Study of State-of-the-Art Entity Alignment Approaches".
      Xiang Zhao, Weixin Zeng, Jiuyang Tang, Wei Wang, Fabian Suchanek. TKDE, 2020 [paper][笔记]

    2.技术论文

    实体对齐论文列表

    1. JE: “A Joint Embedding Method for Entity Alignment of Knowledge Bases”.
      Yanchao Hao, Yuanzhe Zhang, Shizhu He, Kang Liu, Jun Zhao. (CCKS 2016) [paper][code]

    2. MTransE: “Multilingual Knowledge Graph Embeddings for Cross-lingual Knowledge Alignment”.
      Muhao Chen, Yingtao Tian, Mohan Yang, Carlo Zaniolo. (IJCAI 2017) [paper][code]

    3. JAPE: “Cross-Lingual Entity Alignment via Joint Attribute-Preserving Embedding”.
      Zequn Sun, Wei Hu, Chengkai Li. (ISWC 2017) [paper][code]

    4. IPTransE: “Iterative Entity Alignment via Joint Knowledge Embeddings”.
      Hao Zhu, Ruobing Xie, Zhiyuan Liu, Maosong Sun. (IJCAI 2017) [paper][code]

    5. BootEA: “Bootstrapping Entity Alignment with Knowledge Graph Embedding”.
      Zequn Sun, Wei Hu, Qingheng Zhang, Yuzhong Qu. (IJCAI 2018) [paper][code][笔记]

    6. KDCoE: “Co-training Embeddings of Knowledge Graphs and Entity Descriptions for Cross-lingual Entity Alignment”.
      Muhao Chen, Yingtao Tian, Kai-Wei Chang, Steven Skiena, Carlo Zaniolo. (IJCAI 2018) [paper][code]

    7. NTAM: “Non-translational Alignment for Multi-relational Networks”.
      Shengnan Li, Xin Li, Rui Ye, Mingzhong Wang, Haiping Su, Yingzi Ou. (IJCAI 2018) [paper][code]

    8. **“LinkNBed: Multi-Graph Representation Learning with Entity Linkage”.""
      Rakshit Trivedi, Bunyamin Sisman, Jun Ma, Christos Faloutsos, Hongyuan Zha, Xin Luna Dong (ACL 2018) [paper]

    9. GCN-Align: “Cross-lingual Knowledge Graph Alignment via Graph Convolutional Networks”.
      Zhichun Wang, Qingsong Lv, Xiaohan Lan, Yu Zhang. (EMNLP 2018) [paper][code]

    10. AttrE: “Entity Alignment between Knowledge Graphs Using Attribute Embeddings”.
      Bayu D. Trsedya, Jianzhong Qi, Rui Zhang. (AAAI 2019) [paper][code]

    11. SEA: “Semi-Supervised Entity Alignment via Knowledge Graph Embedding with Awareness of Degree Difference”.
      Shichao Pei, Lu Yu, Robert Hoehndorf, Xiangliang Zhang. (WWW 2019) [paper][code]

    12. RSN4EA: “Learning to Exploit Long-term Relational Dependencies in Knowledge Graphs”.
      Lingbing Guo, Zequn Sun, Wei Hu. (ICML 2019) [paper][code]

    13. MuGNN: “Multi-Channel Graph Neural Network for Entity Alignment”.
      Yixin Cao, Zhiyuan Liu, Chengjiang Li, Zhiyuan Liu, Juanzi Li, Tat-Seng Chua. (ACL 2019) [paper][code]

    14. GMNN: “Cross-lingual Knowledge Graph Alignment via Graph Matching Neural Network”.
      Kun Xu, Liwei Wang, Mo Yu, Yansong Feng, Yan Song, Zhiguo Wang, Dong Yu. (ACL 2019) [paper][code]

    15. MultiKE: “Multi-view Knowledge Graph Embedding for Entity Alignment”.
      Qingheng Zhang, Zequn Sun, Wei Hu, Muhao Chen, Lingbing Guo, Yuzhong Qu. (IJCAI 2019) [paper][code]

    16. RDGCN: “Relation-Aware Entity Alignment for Heterogeneous Knowledge Graphs”.
      Yuting Wu, Xiao Liu, Yansong Feng, Zheng Wang, Rui Yan, Dongyan Zhao. (IJCAI 2019) [paper][code]

    17. OTEA: “Improving Cross-lingual Entity Alignment via Optimal Transport”.
      Shichao Pei, Lu Yu, Xiangliang Zhang. (IJCAI 2019) [paper][code]

    18. NAEA: “Neighborhood-Aware Attentional Representation for Multilingual Knowledge Graphs”.
      Qiannan Zhu, Xiaofei Zhou, Jia Wu, Jianlong Tan, Li Guo. (IJCAI 2019) [paper][code]

    19. AVR-GCN: “A Vectorized Relational Graph Convolutional Network for Multi-Relational Network Alignment”.
      Rui Ye, Xin Li, Yujie Fang, Hongyu Zang, Mingzhong Wang. (IJCAI 2019) [paper][code]

    20. TransEdge: “TransEdge: Translating Relation-Contextualized Embeddings for Knowledge Graphs”.
      Zequn Sun, Jiacheng Huang, Wei Hu, Muhao Chen, Lingbing Guo, Yuzhong Qu. (ISWC 2019) [paper][code]

    21. KECG: “Semi-supervised Entity Alignment via Joint Knowledge Embedding Model and Cross-graph Model”.
      Chengjiang Li, Yixin Cao, Lei Hou, Jiaxin Shi, Juanzi Li, Tat-Seng Chua. (EMNLP 2019) [paper][code]

    22. HGCN: “Jointly Learning Entity and Relation Representations for Entity Alignment”.
      Yuting Wu, Xiao Liu, Yansong Feng, Zheng Wang, Dongyan Zhao. (EMNLP 2019) [paper][code]

    23. MMEA: “Modeling Multi-mapping relations for Precise Cross-lingual Entity Alignment”.
      Xiaofei Shi, Yanghua Xiao. (EMNLP 2019) [paper][code]

    24. HMAN: “Aligning Cross-lingual Entities with Multi-Aspect Information”.
      Hsiu-Wei Yang, Yanyan Zou, Peng Shi, Wei Lu, Jimmy Lin, Xu Sun. (EMNLP 2019) [paper][code]

    25. AKE: “Guiding Cross-lingual Entity Alignment via Adversarial Knowledge Embedding”.
      Xixun Lin, Hong Yang, Jia Wu, Chuan Zhou, Bin Wang. (ICDM 2019) [paper][code]

    26. MRAEA: “MRAEA: An Efficient and Robust Cross-lingual Entity Alignment Approach via Meta Relation Aware Representation”.
      Xin Mao, Wenting Wang, Huimin Xu, Man Lan, Yuanbin Wu. (WSDM 2020) [paper][code]

    27. AliNet: “Knowledge Graph Alignment Network with Gated Multi-hop Neighborhood Aggregation”.
      Zequn Sun, Chengming Wang, Wei Hu, Muhao Chen, Jian Dai, Wei Zhang, Yuzhong Qu. (AAAI 2020) [paper][code]

    28. "Coordinated Reasoning for Cross-Lingual Knowledge Graph Alignment".
      Kun Xu, Linfeng Song, Yansong Feng, Yan Song, Dong Yu. (AAAI 2020) [paper][code]

    29. COTSAE: “COTSAE: CO-Training of Structure and Attribute Embeddings for Entity Alignment”.
      Kai Yang, Shaoqin Liu, Junfeng Zhao, Yasha Wang, Bing Xie. (AAAI 2020) [paper][code]

    30. CEAFF: “Collective Embedding-based Entity Alignment via Adaptive Features”.
      Weixin Zeng, Xiang Zhao, Jiuyang Tang, Xuemin Lin. (ICDE 2020) [paper][code]

    31. "Deep Graph Matching Consensus".
      Matthias Fey, Jan E. Lenssen, Christopher Morris, Jonathan Masci, Nils M. Kriege. (ICLR 2020) [paper][code]

    32. CG-MuAlign: “Collective Multi-type Entity Alignment Between Knowledge Graphs”.
      Qi Zhu, Hao Wei, Bunyamin Sisman, Da Zheng, Christos Faloutsos, Xin Luna Dong, Jiawei Han. (WWW 2020) [paper][code]

    33. JarKA: “JarKA: Modeling Attribute Interactions for Cross-lingual Knowledge Alignment”.
      Bo Chen, Jing Zhang, Xiaobin Tang, Hong Chen, Cuiping Li. (PAKDD 2020) [paper][code]

    34. NMN: “Neighborhood Matching Network for Entity Alignment”.
      Yuting Wu, Xiao Liu, Yansong Feng, Zheng Wang, Dongyan Zhao. (ACL 2020) [paper][code]

    35. BERT-INT: “BERT-INT: A BERT-based Interaction Model For Knowledge Graph Alignment”.
      Xiaobin Tang, Jing Zhang, Bo Chen, Yang Yang, Hong Chen, Cuiping Li. (IJCAI 2020) [paper][code]

    36. SSP: “Global Structure and Local Semantics-Preserved Embeddings for Entity Alignment”.
      Hao Nie, Xianpei Han, Le Sun, Chi Man Wong, Qiang Chen, Suhui Wu, Wei Zhang. (IJCAI 2020) [paper][code]

    37. DAT: “Degree-Aware Alignment for Entities in Tail”.
      Weixin Zeng, Xiang Zhao, Wei Wang, Jiuyang Tang, Zhen Tan. (SIGIR 2020) [paper][code]

    38. RREA: “Relational Reflection Entity Alignment”.
      Xin Mao, Wenting Wang, Huimin Xu, Yuanbin Wu, Man Lan. (CIKM 2020) [paper][code]

    39. REA: “REA: Robust Cross-lingual Entity Alignment Between Knowledge Graphs”.
      Shichao Pei, Lu Yu, Guoxian Yu, Xiangliang Zhang. (KDD 2020) [paper][code]

    40. HyperKA: “Knowledge Association with Hyperbolic Knowledge Graph Embeddings”.
      Zequn Sun, Muhao Chen, Wei Hu, Chengming Wang, Jian Dai, Wei Zhang. (EMNLP 2020) [paper][code]

    41. AttrGNN: “Exploring and Evaluating Attributes, Values, and Structures for Entity Alignment”.
      Zhiyuan Liu, Yixin Cao, Liangming Pan, Juanzi Li, Zhiyuan Liu, Tat-Seng Chua. (EMNLP 2020) [paper][code]

    42. EPEA: “Knowledge Graph Alignment with Entity-Pair Embedding”.
      Zhichun Wang, Jinjian Yang, Xiaoju Ye. (EMNLP 2020) [paper]

    43. "Learning Short-Term Differences and Long-Term Dependencies for Entity Alignment".
      Jia Chen, Zhixu Li, Pengpeng Zhao, An Liu, Lei Zhao, Zhigang Chen, Xiangliang Zhang. (ISWC 2020) [paper]

    44. "Visual Pivoting for (Unsupervised) Entity Alignment".
      Fangyu Liu, Muhao Chen, Dan Roth, Nigel Collier. (AAAI 2021) [paper][code]

    45. DINGAL: “Dynamic Knowledge Graph Alignment”.
      Yuchen Yan, Lihui Liu, Yikun Ban, Baoyu Jing, Hanghang Tong. (AAAI 2021) [paper]

    46. RNM: “Relation-Aware Neighborhood Matching Model for Entity Alignment”.
      Yao Zhu, Hongzhi Liu, Zhonghai Wu, Yingpeng Du. (AAAI 2021) [paper]

    47. "Cross-lingual Entity Alignment with Incidental Supervision".
      Muhao Chen, Weijia Shi, Ben Zhou, Dan Roth. (EACL 2021) [paper][code]

    48. "Active Learning for Entity Alignment".
      Max Berrendorf, Evgeniy Faerman, Volker Tresp. (ECIR 2021) [paper]

    49. Dual-AMN: “Boosting the Speed of Entity Alignment 10×: Dual Attention Matching Network with Normalized Hard Sample Mining”.
      Xin Mao, Wenting Wang, Yuanbin Wu, Man Lan. (WWW 2021) [paper][code]1. JE: “A Joint Embedding Method for Entity Alignment of Knowledge Bases”.
      Yanchao Hao, Yuanzhe Zhang, Shizhu He, Kang Liu, Jun Zhao. (CCKS 2016) [paper][code]

    50. MTransE: “Multilingual Knowledge Graph Embeddings for Cross-lingual Knowledge Alignment”.
      Muhao Chen, Yingtao Tian, Mohan Yang, Carlo Zaniolo. (IJCAI 2017) [paper][code]

    51. JAPE: “Cross-Lingual Entity Alignment via Joint Attribute-Preserving Embedding”.
      Zequn Sun, Wei Hu, Chengkai Li. (ISWC 2017) [paper][code]

    52. IPTransE: “Iterative Entity Alignment via Joint Knowledge Embeddings”.
      Hao Zhu, Ruobing Xie, Zhiyuan Liu, Maosong Sun. (IJCAI 2017) [paper][code]

    53. BootEA: “Bootstrapping Entity Alignment with Knowledge Graph Embedding”.
      Zequn Sun, Wei Hu, Qingheng Zhang, Yuzhong Qu. (IJCAI 2018) [paper][code]

    54. KDCoE: “Co-training Embeddings of Knowledge Graphs and Entity Descriptions for Cross-lingual Entity Alignment”.
      Muhao Chen, Yingtao Tian, Kai-Wei Chang, Steven Skiena, Carlo Zaniolo. (IJCAI 2018) [paper][code]

    55. NTAM: “Non-translational Alignment for Multi-relational Networks”.
      Shengnan Li, Xin Li, Rui Ye, Mingzhong Wang, Haiping Su, Yingzi Ou. (IJCAI 2018) [paper][code]

    56. **“LinkNBed: Multi-Graph Representation Learning with Entity Linkage”.""
      Rakshit Trivedi, Bunyamin Sisman, Jun Ma, Christos Faloutsos, Hongyuan Zha, Xin Luna Dong (ACL 2018) [paper]

    57. GCN-Align: “Cross-lingual Knowledge Graph Alignment via Graph Convolutional Networks”.
      Zhichun Wang, Qingsong Lv, Xiaohan Lan, Yu Zhang. (EMNLP 2018) [paper][code]

    58. AttrE: “Entity Alignment between Knowledge Graphs Using Attribute Embeddings”.
      Bayu D. Trsedya, Jianzhong Qi, Rui Zhang. (AAAI 2019) [paper][code]

    59. SEA: “Semi-Supervised Entity Alignment via Knowledge Graph Embedding with Awareness of Degree Difference”.
      Shichao Pei, Lu Yu, Robert Hoehndorf, Xiangliang Zhang. (WWW 2019) [paper][code]

    60. RSN4EA: “Learning to Exploit Long-term Relational Dependencies in Knowledge Graphs”.
      Lingbing Guo, Zequn Sun, Wei Hu. (ICML 2019) [paper][code]

    61. MuGNN: “Multi-Channel Graph Neural Network for Entity Alignment”.
      Yixin Cao, Zhiyuan Liu, Chengjiang Li, Zhiyuan Liu, Juanzi Li, Tat-Seng Chua. (ACL 2019) [paper][code]

    62. GMNN: “Cross-lingual Knowledge Graph Alignment via Graph Matching Neural Network”.
      Kun Xu, Liwei Wang, Mo Yu, Yansong Feng, Yan Song, Zhiguo Wang, Dong Yu. (ACL 2019) [paper][code]

    63. MultiKE: “Multi-view Knowledge Graph Embedding for Entity Alignment”.
      Qingheng Zhang, Zequn Sun, Wei Hu, Muhao Chen, Lingbing Guo, Yuzhong Qu. (IJCAI 2019) [paper][code]

    64. RDGCN: “Relation-Aware Entity Alignment for Heterogeneous Knowledge Graphs”.
      Yuting Wu, Xiao Liu, Yansong Feng, Zheng Wang, Rui Yan, Dongyan Zhao. (IJCAI 2019) [paper][code]

    65. OTEA: “Improving Cross-lingual Entity Alignment via Optimal Transport”.
      Shichao Pei, Lu Yu, Xiangliang Zhang. (IJCAI 2019) [paper][code]

    66. NAEA: “Neighborhood-Aware Attentional Representation for Multilingual Knowledge Graphs”.
      Qiannan Zhu, Xiaofei Zhou, Jia Wu, Jianlong Tan, Li Guo. (IJCAI 2019) [paper][code]

    67. AVR-GCN: “A Vectorized Relational Graph Convolutional Network for Multi-Relational Network Alignment”.
      Rui Ye, Xin Li, Yujie Fang, Hongyu Zang, Mingzhong Wang. (IJCAI 2019) [paper][code]

    68. TransEdge: “TransEdge: Translating Relation-Contextualized Embeddings for Knowledge Graphs”.
      Zequn Sun, Jiacheng Huang, Wei Hu, Muhao Chen, Lingbing Guo, Yuzhong Qu. (ISWC 2019) [paper][code]

    69. KECG: “Semi-supervised Entity Alignment via Joint Knowledge Embedding Model and Cross-graph Model”.
      Chengjiang Li, Yixin Cao, Lei Hou, Jiaxin Shi, Juanzi Li, Tat-Seng Chua. (EMNLP 2019) [paper][code]

    70. HGCN: “Jointly Learning Entity and Relation Representations for Entity Alignment”.
      Yuting Wu, Xiao Liu, Yansong Feng, Zheng Wang, Dongyan Zhao. (EMNLP 2019) [paper][code]

    71. MMEA: “Modeling Multi-mapping relations for Precise Cross-lingual Entity Alignment”.
      Xiaofei Shi, Yanghua Xiao. (EMNLP 2019) [paper][code]

    72. HMAN: “Aligning Cross-lingual Entities with Multi-Aspect Information”.
      Hsiu-Wei Yang, Yanyan Zou, Peng Shi, Wei Lu, Jimmy Lin, Xu Sun. (EMNLP 2019) [paper][code]

    73. AKE: “Guiding Cross-lingual Entity Alignment via Adversarial Knowledge Embedding”.
      Xixun Lin, Hong Yang, Jia Wu, Chuan Zhou, Bin Wang. (ICDM 2019) [paper][code]

    74. MRAEA: “MRAEA: An Efficient and Robust Cross-lingual Entity Alignment Approach via Meta Relation Aware Representation”.
      Xin Mao, Wenting Wang, Huimin Xu, Man Lan, Yuanbin Wu. (WSDM 2020) [paper][code]

    75. AliNet: “Knowledge Graph Alignment Network with Gated Multi-hop Neighborhood Aggregation”.
      Zequn Sun, Chengming Wang, Wei Hu, Muhao Chen, Jian Dai, Wei Zhang, Yuzhong Qu. (AAAI 2020) [paper][code]

    76. "Coordinated Reasoning for Cross-Lingual Knowledge Graph Alignment".
      Kun Xu, Linfeng Song, Yansong Feng, Yan Song, Dong Yu. (AAAI 2020) [paper][code]

    77. COTSAE: “COTSAE: CO-Training of Structure and Attribute Embeddings for Entity Alignment”.
      Kai Yang, Shaoqin Liu, Junfeng Zhao, Yasha Wang, Bing Xie. (AAAI 2020) [paper][code]

    78. CEAFF: “Collective Embedding-based Entity Alignment via Adaptive Features”.
      Weixin Zeng, Xiang Zhao, Jiuyang Tang, Xuemin Lin. (ICDE 2020) [paper][code]

    79. "Deep Graph Matching Consensus".
      Matthias Fey, Jan E. Lenssen, Christopher Morris, Jonathan Masci, Nils M. Kriege. (ICLR 2020) [paper][code]

    80. CG-MuAlign: “Collective Multi-type Entity Alignment Between Knowledge Graphs”.
      Qi Zhu, Hao Wei, Bunyamin Sisman, Da Zheng, Christos Faloutsos, Xin Luna Dong, Jiawei Han. (WWW 2020) [paper][code]

    81. JarKA: “JarKA: Modeling Attribute Interactions for Cross-lingual Knowledge Alignment”.
      Bo Chen, Jing Zhang, Xiaobin Tang, Hong Chen, Cuiping Li. (PAKDD 2020) [paper][code]

    82. NMN: “Neighborhood Matching Network for Entity Alignment”.
      Yuting Wu, Xiao Liu, Yansong Feng, Zheng Wang, Dongyan Zhao. (ACL 2020) [paper][code]

    83. BERT-INT: “BERT-INT: A BERT-based Interaction Model For Knowledge Graph Alignment”.
      Xiaobin Tang, Jing Zhang, Bo Chen, Yang Yang, Hong Chen, Cuiping Li. (IJCAI 2020) [paper][code]

    84. SSP: “Global Structure and Local Semantics-Preserved Embeddings for Entity Alignment”.
      Hao Nie, Xianpei Han, Le Sun, Chi Man Wong, Qiang Chen, Suhui Wu, Wei Zhang. (IJCAI 2020) [paper][code]

    85. DAT: “Degree-Aware Alignment for Entities in Tail”.
      Weixin Zeng, Xiang Zhao, Wei Wang, Jiuyang Tang, Zhen Tan. (SIGIR 2020) [paper][code]

    86. RREA: “Relational Reflection Entity Alignment”.
      Xin Mao, Wenting Wang, Huimin Xu, Yuanbin Wu, Man Lan. (CIKM 2020) [paper][code]

    87. REA: “REA: Robust Cross-lingual Entity Alignment Between Knowledge Graphs”.
      Shichao Pei, Lu Yu, Guoxian Yu, Xiangliang Zhang. (KDD 2020) [paper][code]

    88. HyperKA: “Knowledge Association with Hyperbolic Knowledge Graph Embeddings”.
      Zequn Sun, Muhao Chen, Wei Hu, Chengming Wang, Jian Dai, Wei Zhang. (EMNLP 2020) [paper][code]

    89. AttrGNN: “Exploring and Evaluating Attributes, Values, and Structures for Entity Alignment”.
      Zhiyuan Liu, Yixin Cao, Liangming Pan, Juanzi Li, Zhiyuan Liu, Tat-Seng Chua. (EMNLP 2020) [paper][code]

    90. EPEA: “Knowledge Graph Alignment with Entity-Pair Embedding”.
      Zhichun Wang, Jinjian Yang, Xiaoju Ye. (EMNLP 2020) [paper]

    91. "Learning Short-Term Differences and Long-Term Dependencies for Entity Alignment".
      Jia Chen, Zhixu Li, Pengpeng Zhao, An Liu, Lei Zhao, Zhigang Chen, Xiangliang Zhang. (ISWC 2020) [paper]

    92. "Visual Pivoting for (Unsupervised) Entity Alignment".
      Fangyu Liu, Muhao Chen, Dan Roth, Nigel Collier. (AAAI 2021) [paper][code]

    93. DINGAL: “Dynamic Knowledge Graph Alignment”.
      Yuchen Yan, Lihui Liu, Yikun Ban, Baoyu Jing, Hanghang Tong. (AAAI 2021) [paper]

    94. RNM: “Relation-Aware Neighborhood Matching Model for Entity Alignment”.
      Yao Zhu, Hongzhi Liu, Zhonghai Wu, Yingpeng Du. (AAAI 2021) [paper]

    95. "Cross-lingual Entity Alignment with Incidental Supervision".
      Muhao Chen, Weijia Shi, Ben Zhou, Dan Roth. (EACL 2021) [paper][code]

    96. "Active Learning for Entity Alignment".
      Max Berrendorf, Evgeniy Faerman, Volker Tresp. (ECIR 2021) [paper]

    97. Dual-AMN: “Boosting the Speed of Entity Alignment 10×: Dual Attention Matching Network with Normalized Hard Sample Mining”.
      Xin Mao, Wenting Wang, Yuanbin Wu, Man Lan. (WWW 2021) [paper][code]

    3.汇总

    3.1定义

    • 匹配两个KG或一个KG内指向同一物理对象,合并向同时提

    定义统一

    • Entity Linking=entity disambiguation
    • Entity resolution=entity matching=deduplication=record linkage

    EA

    EA

    • 分类:

      • Scope:
        • entity alignment<-本文只考虑这个
        • relation
        • 类别对齐:class of taxonomies of two KGs
        • 方法:有一次性执行三种任务的joint model
      • Background knowledge
        • OAEI:使用ontology(T-box)作为背景信息
        • 另一种:不使用ontology的方法
      • Training
        • 无监督:PARIS,SIGMa,AML
        • 有监督:基于pre-defined mappings的
        • 半监督:bootstrapping(self-training,co-training)
    • EA with deep leaning:

      • 基于graph representation learning technologies
        • 建模KG结构
        • 生成实体嵌入
    • 比较

      • 无监督
        • PARIS
        • Agreement-MakerLight(AML):使用背景信息(本体)
      • ER方法:基于名称的启发式方法
        • goal相同:EA=ER–因为相同所以比较ER方法
    • Bechmarks:

      • 语言内+DBPedia
        • DBP15K
        • DWY15
        • 问题:现有的Bechmarks,只包含schema和instance信息。对不假设有可用的本体的EA方法来说。–所以本文不介绍本体?
    • PS:

      • OAEI:推广了KG track
      • 不公平

    3.2 评价指标

    • 对齐质量:准确性和全面性
      • MR
      • MRR
      • Hits@m:m=1为precision
      • precision/recall/f1
        • 传统方法再用
    • 对齐效率:分区索引技术对候选匹配对的筛选能力和准确性
      • 缩减率
      • 候选对完整性
      • 候选对质量

    3.3 数据集

    • Embedding数据集

      • FBK15
      • FBK15-237
      • WN18
      • WN18RR
    • 传统实体对齐数据集:

      • OAEI(since 2004)
    • embedding实体对齐数据集

      • DBP15K:

        • 跨语言:
          • zh-en,
            • zh:关系三元组数:70414,关系数1701,属性三元组数:248035
            • en: 关系三元组数:95142,关系数1323,属性三元组数:343218
          • ja-en,
            • ja:关系三元组数:77214,关系数1299,属性三元组数:248991
            • en: 关系三元组数:93484,关系数1153,属性三元组数:320616
          • fr-en
            • fr:关系三元组数:105998,关系数903,属性三元组数:273825
            • en: 关系三元组数:115722,关系数1208,属性三元组数:351094
        • 实体对齐连接数:15k(每对语言间)
        • 度的分布:大多在1,从2-10,度越大,实体数量下降
        • DBPedia
      • WK3L

      • DWY100K:

        • 每个KG实体数:100k
        • 单语言:
          • DBP-WD,
            • DBP:关系三元组数:463294,关系数330,属性三元组数:341770
            • WD:关系三元组数:448774,关系数220,属性三元组数:779402
          • DBP-YG
            • DBP:关系三元组数:428952,关系数302,属性三元组数:383757
            • YG:关系三元组数:502563,关系数31,属性三元组数:98028
          • (DBP:DBPedia,YG:Yago3,WD:wikidata)
        • 每对有100k个实体对齐连接
        • 度的分布:没有度为1or2的,峰值在4,之后递减
      • SRPRS

        • 认为以前的数据集太稠密了(DBP,DWY),度的分布偏离现实
        • 跨语言:
          • EN-FR,
            • EN:关系三元组数:36508,关系数221,属性三元组数:60800
            • FR:关系三元组数:33532,关系数177,属性三元组数:53045
          • EN-DE
            • EN:关系三元组数:38363,关系数220,属性三元组数:55580
            • DE:关系三元组数:37377,关系数120,属性三元组数:73753
        • 单语言:
          • DBP-WD,
            • DBP:关系三元组数:33421,关系数253,属性三元组数:64021
            • WD:关系三元组数:40159,关系数144,属性三元组数:133371
          • DBP-YG
            • DBP:关系三元组数:33748,关系数223,属性三元组数:58853
            • YG:关系三元组数:36569,关系数30,属性三元组数:18241
        • 每种有15k个实体对齐连接
        • 度的分布:很现实
          • 度小的实体多(精心取样)
      • EN-FR

      • DBP-FB(An Experimental Study of State-of-the-Art Entity Alignment Approaches)

        • DBP: 关系三元组数:96414,关系数407,属性三元组数:127614
        • FB:关系三元组数:111974,关系数882,属性三元组数:78740
    • 度的分布

      在这里插入图片描述
      在这里插入图片描述

    • EN-FR的统计
      在这里插入图片描述

    3.4 数据预处理技术

    3.5 索引

    • 分区索引:过滤掉不可能匹配的实体对,降低计算复杂度,避免数据库规模二次增长

    3.6 对齐

    3.6.1 按属性相似度/文本相似度做:成对实体对齐

    • 传统概率模型:
      • 基于属性相似度评分–>三分类:匹配,可能匹配,不匹配
      • 也可用01
    • 机器学习的模型
      • 根据实体属性构建向量
      • 方法:决策树、SVM等分类模型
      • 优点:自动拟合属性间的组合关系和对应程度,减少人为介入
      • 可引入无监督、半监督
    • 文本匹配/语义匹配
      • 文本特征明显的实体匹配
      • 实体简介很长的那种
      • Bert什么的

    3.6.2 协同对齐:考虑不同实体间的关联

    在属性相似度基础上考虑了结构相似度

    3.6.2.1 局部实体对齐

    • 计算相似度
      • 考虑邻居的属性(带匹配实体对的邻居属性集合)
      • 但不把邻居节点当做平等的实体去计算结构相似性
      • 计算
        • s i m ( e i , e j ) = α ⋅ s i m a t t r ( e i , e j ) + ( 1 − α ) ⋅ s i m N B ( e i , e j ) 实 体 本 身 的 相 似 度 : s i m a t t r ( e i , e j ) = Σ ( a 1 , a 2 ) ∈ A t t r ( e i , e j ) s i m ( a 1 , a 2 ) 实 体 关 联 实 体 相 似 度 s i m N B ( e i , e j ) = Σ ( e i ′ , e j ′ ) ∈ N B ( e i , e j ) s i m a t t r ( e i ′ , e j ′ ) sim(e_i,e_j)=\alpha \cdot sim_{attr}(e_i,e_j)+(1-\alpha)\cdot sim_{NB}(e_i,e_j)\\ 实体本身的相似度:sim_{attr}(e_i,e_j)=\Sigma_{(a_1,a_2)\in Attr(e_i,e_j)}sim(a_1,a_2)\\ 实体关联实体相似度sim_{NB}(e_i,e_j)=\Sigma_{(e_i',e_j')\in NB(e_i,e_j) sim_{attr}(e_i',e_j')} sim(ei,ej)=αsimattr(ei,ej)+(1α)simNB(ei,ej)simattr(ei,ej)=Σ(a1,a2)Attr(ei,ej)sim(a1,a2)simNB(ei,ej)=Σ(ei,ej)NB(ei,ej)simattr(ei,ej)

    3.6.2.2 全局实体对齐

    • 通过不同匹配策略之间相互影响调整实体之间的相似度
    • 基于相似度传播的方法
      • 基本思想:通过seed alignment以bootstrapping的方式迭代的产生一些新的匹配
      • 半监督?
    • 基于概率模型的方法
      • 基本思想:全局概率最大化。通过为实体匹配关系和匹配决策决策复杂的概率模型,来避免bootstrapping–需要人工参与
      • 基本方法:贝叶斯网络/LDA/CRF/Markov

    3.6.3 基于embedding的方法分类

    A Benchmarking Study of Embedding-based Entity Alignment for Knowledge Graphs
    <-分类来源

    • Embedding Module

      • 关系嵌入
        • triple embedding:transE
        • Path:路径上的长期依赖
        • Neighbor:GCN
      • 属性嵌入
        • 属性
        • literal
    • Interaction Mode

      • Combination mode
        • transformation:学习映射M
        • embedding space Calibration:嵌入到同一空间
        • parameter sharing:同一向量表示
        • parameter swapping: ( e 1 , e 2 ) ∈ S ′ , 则 ( e 1 , r 1 , e 1 ′ ) − > ( e 2 , r 1 , e 1 ′ ) (e_1,e_2)\in S',则(e_1,r_1,e_1')->(e_2,r_1,e_1') (e1,e2)S,(e1,r1,e1)>(e2,r1,e1)
      • learning
        • 监督
        • 半监督
        • 无监督
    • Embedding

      • transE
      • GCN
    • Alignment

      • 2个向量映射到一个空间
      • 训练一个相同的向量
      • Transition
      • Corpus-fusion
      • Margin-based
      • Graph matching
      • Attribution refined
    • Prediction:

      • 相似度计算:
        • cosine
        • euclidean
        • Manhattan distance
    • Extra information Module

      • 用以增强EA
      • 方法
        • bootstrapping(or self-learning:
          • 利用置信度高的对齐结果加入训练数据(下个iteration)
        • multi-type literal information
          • 属性
          • 实体描述
          • 实体名
          • 完善KG的结构
    • 模块级别的比较

      • 在个模块下介绍各方法如何实现该模块

    4.开源代码

    • OpenEA
      • 开源的embedding pipeline组件库

    5.效果比较

    6.使用场景

    • 单语言/多语言
    • 稀疏/稠密
    • 大规模/中等规模
    • 1v1/多对多
      • 1v1:BootEA

    7. 实验效果

    7.1 DBP15k

    • DBP15k

    在这里插入图片描述

    • DBP15k
      • 组1:仅用结构
        组2:用bootstrapping
        组3:+其他信息
        在这里插入图片描述

    7.2EN-FR

    • EN-FR: A Benchmarking Study of Embedding-based Entity Alignment for Knowledge Graphsh
      在这里插入图片描述

    7.3 SRPRS

    • SRPRS
      • 组1:仅用结构
        组2:用bootstrapping
        组3:+其他信息
        在这里插入图片描述

    7.4 DWY100k

    参考文献

    部分参考未列出

    1. A Benchmarking Study of Embedding-based Entity Alignment for Knowledge Graphsh
    展开全文
  • 基于自学习和嵌入的实体对齐
  • 知识库实体对齐技术综述。知识图谱相关技术。属于综述。
  • 基于图神经网络的实体对齐研究综述.pdf
  • 实体对齐(Entity Alignment)相关论文与数据集整理

    千次阅读 多人点赞 2021-03-21 21:46:13
    实体对齐(Entity Alignment)、知识图谱融合方法总结整理 年份 模型 主要思想 博文推荐 论文 代码 2019 Entity Alignment between Knowledge Graphs Using Attribute Embeddings 实体对齐数据集整理 ...

    实体对齐(Entity Alignment)、知识图谱融合论文方法总结整理

    传统的实体对齐方法主要通过属性相似度匹配的方式实现,利用有监督学习的机器学习模型,如:决策树、支持向量机、集成学习等。依赖实体的属性信息,通过属性相似度,进行跨平台实体对齐关系的推断。基于知识表示学习的方法通过将知识图谱中的实体和关系都映射低维空间向量,直接用数学表达式来计算各个实体之间相似度,例如transe方法等。
    
    年份模型主要思想博文代码论文
    2019SUM LSTM N-gram提出两个KG之间的实体对齐框架,由谓词对齐模块、嵌入学习模块、实体对齐模块组成,提出一种新的嵌入模型,将实体嵌入和属性嵌入集成在一起,用来学习对于两个KGs的统一嵌入空间,利用知识图中存在的大量属性三元组,生成属性字符嵌入。属性字符嵌入通过基于实体属性计算实体之间的相似度,将两个知识图中的实体嵌入转移到同一空间。我们使用传递性规则来进一步丰富实体的属性数量,以增强属性字符嵌入。知乎code10.Entity Alignment between Knowledge Graphs Using Attribute Embeddings
    2020COTSAE以前的工作主要集中在通过学习实体在关系三元组和预先对齐的“种子实体”上的嵌入来捕捉实体的结构语义。一些作品也试图结合属性信息来帮助提炼实体嵌入。然而,仍然有许多问题没有被考虑,这极大地限制了属性信息在实体对齐中的利用。不同的KGs可能有许多不同的属性类型,甚至同一个属性可能有不同的数据结构和值粒度。最重要的是,属性可能对实体对齐有各种“贡献”。为了解决这些问题,我们提出了通过联合训练两个嵌入学习组件来结合实体的结构和属性信息的COTSAE。在我们的模型中,我们还提出了一种联合注意方法来协同学习属性类型和值的注意。code29.COTSAE: CO-Training of Structure and Attribute Embeddings for Entity Alignment
    2020JarKA由于KGs的结构通常是稀疏的,因此实体的属性在对齐实体时可能起着重要的作用。然而,跨KGs的属性的异构性阻止了准确地嵌入和比较实体。为了解决这个问题,我们建议对属性之间的交互进行建模,而不是全局嵌入一个具有所有属性的实体。我们进一步提出了一个联合框架来合并从属性和结构推断的比对。code33.JarKA: Modeling Attribute Interactions for Cross-lingual Knowledge Alignment
    2017JAPE提出了一种跨语言实体对齐的联合属性保持嵌入模型。它将两个知识库的结构共同嵌入到一个统一的向量空间中,并通过利用知识库中的属性相关性来进一步完善它。code3.Cross-lingual Entity Alignment via Joint Attribute-Preserving Embedding
    2020AttrGNN使用一个属性值编码器,并将KG划分为子图,以有效地建模各种类型的属性三元组。此外,由于现有环境影响评价数据集的命名偏差,现有环境影响评价方法的性能被高估。为了做出客观的评估,我们提出了一个硬实验设置,在这个设置中,我们选择具有非常不同名称的等价实体对作为测试集。code41.Exploring and Evaluating Attributes, Values, and Structures for Entity Alignment
    2017MTransE提出了基于翻译的多语言知识图嵌入模型MTransE,以提供一个简单而自动化的解决方案。通过在独立的嵌入空间中编码每种语言的实体和关系,MTransE为每个嵌入向量提供了到其他空间中跨语言对应体的转换,同时保留了单语嵌入的功能。code2. Multilingual Knowledge Graph Embeddings for Cross-lingual Knowledge Alignment
    2017IPTransE提出了一种基于联合知识嵌入的实体对齐方法。我们的方法根据一个小的对齐实体的种子集,将实体和各种KGs的关系联合编码到一个统一的低维语义空间中。在这个过程中,我们可以根据实体在这个联合语义空间中的语义距离来对齐实体。更具体地说,我们提出了一种迭代和参数共享的方法来提高对准性能。code4.Iterative Entity Alignment via Joint Knowledge Embeddings
    2020NMN提出了一种新的基于采样的实体对齐框架(Neighborhood Matching Network,NMN)。NMN旨在精确的选择出包含最多信息量的邻居节点以及准确的计算出不同实体邻居节点的相似度。知乎34.Neighborhood Matching Network for Entity Alignment
    2018BootEA提出了一个基于Bootstrap的实体对齐方法。该方法迭代地将可能的实体对齐标记为训练数据 把实体对齐转换为分类问题 提出了截断的负采样知乎 code5. Bootstrapping Entity Alignment with Knowledge Graph Embedding
    2018KDCoE介绍了一种基于嵌入的方法,该方法利用弱对齐的多语言KG来使用实体描述进行半监督跨语言学习。我们的方法执行两个嵌入模型的联合训练,即多语言KG嵌入模型和多语言文字描述嵌入模型。code6.Co-training Embeddings of Knowledge Graphs and Entity Descriptions for Cross-lingual Entity Alignment
    2018NTAM提出了一种非平移方法,旨在利用概率模型为对齐任务提供更鲁棒的解决方案,通过探索结构属性以及在学习单个网络表示的过程中利用锚将每个网络投影到相同的向量空间。Non-translational Alignment for Multi-relational Networks
    2018提出了LinkNBed,这是一个深入的关系学习框架,可以跨多个图学习实体和关系表示。LinkNBed: Multi-Graph Representation Learning with Entity Linkage|
    2018GCN-Align提出了一种通过图形卷积网络进行跨语言KG对齐的新方法。给定一组预先对齐的实体,我们的方法训练GCNs将每种语言的实体嵌入到统一的向量空间中。实体对齐是基于嵌入空间中实体之间的关联来发现的。嵌入可以从实体的结构和属性信息中学习,并且结构嵌入和属性嵌入的结果被组合以获得精确的对齐。codeCross-lingual Knowledge Graph Alignment via Graph Convolutional Networks
    2019SEA提出了一种半监督实体对齐方法,利用标记实体和丰富的未标记实体信息进行对齐。此外,我们通过进行对抗性训练,在意识到程度差异的情况下,改进了知识图嵌入。Semi-Supervised Entity Alignment via Knowledge Graph Embedding with Awareness of Degree Difference
    2019RSN4EA提出了循环跳过网络,它使用一个跳过机制来弥补实体之间的差距。递归神经网络将递归神经网络与剩余学习相结合,以有效捕捉KGs内部和之间的长期关系依赖。我们设计了一个端到端的框架来支持不同任务的响应网络。我们的实验结果表明,在实体对齐方面,响应面方法优于最先进的基于嵌入的方法,并且在KG完成方面具有竞争力。codeLearning to Exploit Long-term Relational Dependencies in Knowledge Graphs
    2019MuGNN提出了一种新的多通道图神经网络模型,通过多通道鲁棒编码两个知识图来学习面向对齐的知识图嵌入。每个通道通过不同的关系加权方案对KGs进行编码,codeMulti-Channel Graph Neural Network for Entity Alignment
    2019GMNN引入了主题实体图,一个实体的局部子图,用它们在KG中的上下文信息来表示实体。从这个角度来看,知识库对齐任务可以表述为一个图匹配问题codeCross-lingual Knowledge Graph Alignment via Graph Matching Neural Network|
    2019MultiKE提出了一个新的框架,它统一了实体的多个视图来学习实体对齐的嵌入。具体来说,我们基于实体名称、关系和属性的视图,使用几种组合策略来嵌入实体。code15.Multi-view Knowledge Graph Embedding for Entity Alignment
    2019RDGCN提出了一种新的关系感知双图卷积网络(RDGCN),通过知识图和它的对偶关系之间的密切交互来整合关系信息,并进一步捕获邻近结构来学习更好的实体表示。codeRelation-Aware Entity Alignment for Heterogeneous Knowledge Graphs
    2019OTEA提出了一个新的实体排列框架(OTEA),它通过最优传输理论双重优化了实体层损失和群层损失。我们还对对偶平移矩阵施加了正则化,以减轻变换过程中噪声的影响。Improving Cross-lingual Entity Alignment via Optimal Transport
    2019NAEA结合实体的邻域子图层次信息,提出了一种多语言知识图的邻域感知注意表示方法NAEA。NAEA设计了一种注意机制,通过用加权组合聚集邻居的表示来学习邻居级表示。Neighborhood-Aware Attentional Representation for Multilingual Knowledge Graphs
    2019AVR-GCN提出了一种矢量关系图卷积网络(VR-GCN)来同时学习多关系网络中图实体和关系的嵌入。卷积过程采用了知识图的角色区分和翻译特性。此后,基于虚拟现实-GCN的虚拟现实-GCN对准框架被开发用于多关系网络对准任务。A Vectorized Relational Graph Convolutional Network for Multi-Relational Network Alignment
    2019KECG提出了一种基于联合知识嵌入模型和交叉图模型的半监督实体对齐方法。它可以更好地利用种子对齐,在整个图形上传播基于KG的约束。具体来说,对于知识嵌入模型,我们利用the来隐式完成两个KGs以实现一致性,并学习实体之间的关系约束。对于交叉图模型,我们扩展了具有投影约束的图注意网络(GAT)来对图进行鲁棒编码,两个KGs共享同一个GAT来传递结构知识,并通过注意机制忽略不重要的邻居进行对齐。codeSemi-supervised Entity Alignment via Joint Knowledge bedding Model and Cross-graph Model
    2019HGCN提出了一种新的实体对齐的联合学习框架。我们方法的核心是基于图卷积网络(GCN)的框架,用于学习实体和关系表示。我们不是依赖预先对齐的关系种子来学习关系表示,而是首先使用GCN学习的实体嵌入来近似它们。然后,我们将关系近似合并到实体中,以迭代学习两者的更好表示。codeJointly Learning Entity and Relation Representations for Entity Alignment
    2019MMEA几乎所有的方法都是基于TransE或其变体的,许多研究已经证明它们不适合编码多映射关系,如1-N、N-1和N-N关系,因此这些方法获得的比对精度较低。为了解决这个问题,我们提出了一个新的基于嵌入的框架。通过在嵌入上定义基于点产品的函数,我们的模型可以更好地捕捉1-1和多映射关系的语义。我们通过一小组预排列的种子来校准不同KGs的嵌入。我们还提出了一种加权负采样策略,以在训练过程中产生有价值的负样本,并最终将预测视为一个双向问题。Modeling Multi-mapping relations for Precise Cross-lingual Entity Alignment
    2019HMAN跨语言实体对齐的任务是将源语言中的实体与目标语言中的实体进行匹配。在这项工作中,我们研究了基于嵌入的方法来将多语言KGs中的实体编码到相同的向量空间中,其中等价的实体彼此接近。具体来说,我们应用图卷积网络(GCNs)来组合实体的多方面信息,包括实体的拓扑连接、关系和属性,以学习实体嵌入。为了利用用不同语言表达的实体的字面描述,我们提出了两种使用预训练的多语言BERT模型来弥补跨语言的差距。我们进一步提出了两个策略来整合基于GCN和基于贝尔的模块,以提高性能。codeAligning Cross-lingual Entities with Multi-Aspect Information
    2020MRAEA现有的基于翻译的实体对齐方法将跨语言知识和单语知识联合建模为一个统一的优化问题。另一方面,基于图神经网络(GNN)的方法要么忽略节点微分,要么通过实体或三重实例表示关系。它们都不能对嵌入在关系中的元语义进行建模,也不能对n对n和多图等复杂关系进行建模。为了应对这些挑战,我们提出了一种新的元关系感知实体对齐(MRAEA),通过关注节点的传入和传出邻居及其连接关系的元语义来直接建模跨语言实体嵌入。此外,我们还提出了一种简单有效的双向迭代策略,在训练过程中添加新的对齐种子。codeMRAEA: An Efficient and Robust Entity Alignment Approach for Cross-lingual Knowledge Graph
    2019AliNet提出了一种新的KG对齐网络,即AliNet,旨在以端到端的方式缓解邻域结构的非同构。由于模式的异构性,对应实体的直接邻居通常是不相似的,AliNet引入了远邻居来扩展它们的邻域结构之间的重叠。它采用一种注意力机制来突出有益的远方邻居并减少噪音。然后,它使用选通机制控制直接和远距离邻域信息的聚集。我们还提出了一个关系损失来改进实体表示。codeKnowledge Graph Alignment Network with Gated Multi-hop Neighborhood Aggregation|
    2020本文介绍了两种协调推理方法,即由易到难解码策略和联合实体对齐算法。具体来说,由易到难策略首先从预测结果中检索模型可靠的比对,然后将它们作为额外的知识纳入,以解决剩余的模型不确定的比对。为了实现这一点,我们进一步提出了一个基于当前最先进基线的增强校准模型。此外,为了解决多对一问题,我们建议联合预测实体对齐,以便一对一约束可以自然地纳入对齐预测。Coordinated Reasoning for Cross-Lingual Knowledge Graph Alignment
    2020CEAFF提出了一个集体环境评估框架。我们首先使用三个有代表性的特征,即结构、语义和字符串信号,它们适用于捕捉异构KGs中实体之间相似性的不同方面。为了做出集体进化算法决策,我们将进化算法表述为经典的稳定匹配问题,并通过延迟接受算法得到进一步有效的解决。Collective Embedding-based Entity Alignment via Adaptive Features
    2020提出了一个两阶段的神经架构,用于学习和细化图之间的结构对应关系。首先,我们使用由图神经网络计算的局部节点嵌入来获得节点之间的软对应的初始排序。其次,我们使用同步消息传递网络来迭代地重新排列软对应关系,以在图之间的局部邻域中达到匹配一致。我们从理论和经验上表明,我们的消息传递方案为相应的邻域计算了一个有充分根据的一致性度量,然后用于指导迭代的重新排序过程。codeDEEP GRAPH MATCHING CONSENSUS
    2020CG-MuAlign提出了一种用于多类型实体对齐的集合图神经网络,称为CGMuAlign。与以前的工作不同,CG-MuAlign联合对齐多种类型的实体,共同利用邻域信息,并推广到未标记的实体类型。具体来说,我们提出了一种新的集体聚集函数,该函数通过交叉图和自我关注来缓解知识图的不完全性,通过小批量训练和有效的邻域采样策略来提高效率。codeCollective Multi-type Entity Alignment Between Knowledge Graphs
    2020NMN提出了邻域匹配网络(NMN),一个新的实体对齐框架,以解决结构异质性的挑战。NMN估计实体之间的相似性,以捕捉拓扑结构和邻域差异。它提供了两个创新组件,用于更好地学习实体对齐的表示。它首先使用一种新颖的图形采样方法为每个实体提取一个有区别的邻域。然后,它采用交叉图邻域匹配模块来联合编码给定实体对的邻域差异。这种策略允许NMN有效地构建匹配定向的实体表示,同时忽略对对齐任务有负面影响的噪声邻居。codeNeighborhood Matching Network for Entity Alignment
    2020BERT-INT为了同时利用图的结构和边信息,如名称、描述和属性,大多数的工作都是通过图的神经网络将边信息,特别是名称,通过链接的实体进行传播。然而,由于不同知识图的异构性,聚集不同的邻居会影响对齐精度。这项工作提出了一个只利用辅助信息的交互模型。我们不是聚集邻居,而是计算邻居之间的交互,这可以捕获邻居的细粒度匹配。类似地,属性的交互也被建模。codeBERT-INT: A BERT-based Interaction Model For Knowledge Graph Alignment
    2020SSP为了学习实体表示,大多数进化算法依赖于基于翻译的方法来获取实体的局部关系语义,或者依赖于图卷积网络来利用全局KG结构。然后,基于它们的距离来识别对齐的实体。在本文中,我们建议联合利用全局KG结构和实体特定的关系三元组来实现更好的实体对齐。Global Structure and Local Semantics-Preserved Embeddings for Entity Alignment
    2020DAT现有的EA解决方案主要依靠结构信息来对齐实体,通常是通过KG嵌入。然而,在现实生活中,只有少数实体紧密相连,其余大多数拥有相当稀疏的邻域结构。我们称后者为长尾实体,并观察到这种现象可以说限制了结构信息在进化分析中的使用。为了缓解这个问题,我们重新审视和研究了传统的EA管道,以追求优雅的性能。codeDegree-Aware Alignment for Entities in Tail
    2020RREEA提出了一种新的基于神经网络的方法——关系反射实体对齐(RREA)。RREA利用关系反射转换,以更有效的方式为每个实体获取关系特定的嵌入。codeRelational Reflection Entity Alignment
    2020REA提出的REA(鲁棒实体对齐)方法由两部分组成:噪声检测和噪声感知实体对齐。噪声检测是根据对抗训练原理设计的。噪声感知实体对齐是以基于图形神经网络的知识图形编码器为核心设计的。为了相互促进这两个组成部分的性能,我们提出了一个统一的强化训练策略来将它们结合起来。codeREA: Robust Cross-lingual Entity Alignment Between Knowledge Graphs
    2020HyperKA用低维双曲线嵌入来探索知识关联。我们提出了一种双曲关系图神经网络,通过双曲变换来嵌入和获取知识关联。codeKnowledge Association with Hyperbolic Knowledge Graph Embeddings
    2020EPEA出了一种新的方法,直接学习实体对的嵌入KG对齐。我们的方法首先生成一个两个KGs的成对连通图(PCG),其节点是实体平面,边对应关系对;然后,它学习PCG的节点(实体对)嵌入,用于预测实体的等价关系。为了得到理想的嵌入,使用卷积神经网络从实体对的属性中生成实体对的相似特征;利用图神经网络传播相似特征,得到实体模型的最终嵌入。Knowledge Graph Alignment with Entity-Pair Embedding
    2020EVA通过利用实体的视觉相似性来创建初始种子字典(视觉中枢),提供了一个完全无监督的解决方案。codeVisual Pivoting for (Unsupervised) Entity Alignment
    2020RNM提出了一种新的基于关系感知的邻域匹配模型——RNM实体对齐模型。具体来说,我们建议利用邻域匹配来增强实体对齐。除了在匹配邻域时比较邻居节点,我们还试图从连通关系中挖掘有用的信息。此外,设计了一个迭代框架,以半监督的方式利用实体对齐和关系对齐之间的积极交互。Relation-Aware Neighborhood Matching Model for Entity Alignment
    2021JEANS提出了一个附带监督的模型,JEANS,它在一个共享的嵌入方案中联合表示多语言KGs和文本语料库,并寻求通过来自文本的附带监督信号来改善实体对齐。JEANS首先部署一个实体基础过程,将每个KG与单语文本语料库相结合。然后,进行两个学习过程:(1)嵌入学习过程,将每种语言的KG和文本编码在一个嵌入空间中,以及(2)基于自学习的对齐学习过程,迭代地诱导实体匹配和嵌入之间的词汇匹配。Cross-lingual Entity Alignment with Incidental Supervision
    2020提出了一种新的KG采样算法,利用该算法,我们生成了一组具有各种异质性和分布的专用基准数据集,以进行现实的评估。我们开发了一个开源库,包括12种代表性的基于嵌入的实体对齐方法,并对这些方法进行了广泛的评估,以了解它们的优势和局限性。codeA Benchmarking Study of Embedding-based Entity Alignment for Knowledge Graphs
    2020本文中,我们通过对最先进的环境分析方法进行全面的评估和详细的分析来填补这一空白。我们首先提出一个包含所有当前方法的通用e a框架,然后将现有方法分为三大类。接下来,我们根据这些解决方案的有效性、效率和健壮性,在广泛的用例上明智地评估它们An Experimental Study of State-of-the-Art Entity Alignment Approaches
    2020报告了我们在将基于图卷积网络(GCN)的模型应用于这项任务时的经验。GCN的变体被用于多种最先进的方法,因此了解基于GCN的模型的细节和局限性非常重要。Knowledge Graph Entity Alignment with Graph Convolutional Networks: Lessons Learned
    2020们评估了那些在工业环境中的最先进的方法,其中探索了不同大小和不同偏差的种子映射的影响。除了来自DBpedia和Wikidata的流行基准之外,我们还贡献并评估了一个新的工业基准,该基准是从医学应用部署中的两个异构知识图(KGs)中提取的。codeAn Industry Evaluation of Embedding-based Entity Alignment
    2019KAGAN提出了一个无监督的框架,将不同知识图的实体和关系嵌入与一个对抗性的学习框架相结合。此外,正则化项最大化了不同知识图嵌入之间的互信息,用于减轻学习对齐函数时的模式崩溃问题。通过利用有限数量的对齐三元组作为指导,这样的框架可以进一步与现有的监督方法无缝集成。Weakly-supervised Knowledge Graph Alignment with Adversarial Learning
    2021提出了一个新的框架来标记知识图数据集中的实体对齐。为人类贴标机选择信息实例的不同策略构成了我们框架的核心。我们说明了实体对齐的标注与将类别标注指定给单个实例有何不同,以及这些差异如何影响标注效率。基于这些考虑,我们提出并评估了不同的主动和被动学习策略。我们的一个主要发现是,被动学习方法可以有效地预先计算,并且更容易部署,可以实现与主动学习策略相当的性能。Active Learning for Entity Alignment
    2020(EM-GCN提出一个新的框架,即广义多关系图卷积网络(GEM-GCN)来解决这些限制,该框架结合了基于图的信念传播中的GCNs的能力和高级知识库嵌入方法的优势,并超越了这些限制。Generalized Multi-Relational Graph Convolution Network
    2021选择了一个具有代表性的基准数据集样本,并描述了它们的属性。我们还研究了实体表示的不同初始化,因为它们是模型性能的决定性因素。此外,我们为适当的评估设置使用共享的训练/验证/测试分割来评估所有数据集上的所有方法。codeA Critical Assessment of State-of-the-Art in Entity Alignment

    实体对齐数据集整理—更新中

    名称-下载地址-
    DBpe-dia(DBP)
    LinkedGeoData(LGD)
    Geonames(GEO)
    YAGO
    DBP15K下载地址
    DBP100K下载地址
    DWY100K下载地址

    实体对齐评价指标—更新中

    名称-意义-
    hits@10(H@10))对于一对关系及实体,我们将头实体或尾实体替换成任意一种其他的实体(共n-1个,保持另一个实体以及关系不变,只变其中一个实体),这样我们得到了(n-1)个新的关系三元组,然后我们对这些三元组计算实体关系距离,将这n-1个三元组按照距离从小到大排列。在这个排好序的n-1元素中,我们从第一个开始遍历,看从第一个到第十个是否能够遇到真实的实体,如果遇到了就将(hit@10 +1),表示我们的算法能够正确表示三元组关系的能力(在hit@10里 不要求第一个才是对的,能做到前十的能力就可以了)
    Mean Rank(MR)计算在测试集里,平均到第多少个才能匹配到正确的结果,值越小代表效果越好。
    Mean Reciprocal Rank(MRR)平均倒数排名,是一个国际上通用的对搜索算法进行评价的机制,即第一个结果匹配,分数为1,第二个匹配分数为0.5,第n个匹配分数为1/n,如果没有匹配的句子分数为0。最终的分数为所有得分之和。值越大代表效果越好。

    推荐阅读

    博客推荐
    知乎视频
    知乎视频思维导图
    在这里插入图片描述

    展开全文
  • 实体对齐简介

    千次阅读 2020-11-26 13:54:40
    为什么要进行实体对齐? 不同的知识图谱,收集知识的侧重点不同,对于同一个实体,有知识图谱的可能侧重于其本身某个方面的描述,有的知识图谱可能侧重于描述实体与其它实体的关系。 比如,对于历史人物曹操的...
  • 知识图谱之实体对齐

    千次阅读 2020-10-24 12:44:34
    一、实体对齐常见的步骤: 数据预处理:1) 语法正规化 2) 数据正规化 记录链接:把实体通过相似度进行连接 相似度计算:分成属性相似度和实体相似度。其中,属性相似度可以通过编辑距离(Levenstein,Wagner and ...
  • 实体对齐 在不同KG中的相同实体对齐(名字可能不同,但指代的是一个东西) 实体对齐 调研23中embedding-based实体对齐的方法,并根据其使用的技术和特性分类 KG取样:新的,保证取样与现实数据集分不一致 a set...
  • 基于Neo4j 图数据库的知识图谱的关联对齐(实体对齐)——上篇 基于Neo4j 图数据库的知识图谱的关联对齐(实体对齐)——下篇 在写入图谱前先要有相关的标准库。然后就是python简单的判断+cypher语句的结合写入。...
  • 《用于实体对齐的多视角知识图谱嵌入》 Multi-view Knowledge Graph Embedding for Entity Alignment 一、简介 实体对齐(Entity Alignment)的目标是找出不同知识图谱中的相同实体,该任务在知识图谱构建、融合以及...
  • 最近机缘巧合的了解了一些关于知识图谱应用的前沿研究,发现在很多新的研究内容中,实体对齐这样的一个传统任务依然有很大的研究价值。借实验室组会主讲的机会,特地学习了几篇实体对齐的文章,现整理这一项关于知识...
  • 知识图谱之实体对齐

    千次阅读 2020-11-24 21:32:31
    知识融合旨在解决如何将关于同一个实体或概念的多源描述信息融合起来,将多个知识库中的知识进行整合,形成一个知识库的过程,在这个过程中,主要关键技术包含指代消解、实体消歧、实体链接。 4.2.1关键问题解决...
  • 实体对齐相关概念

    2021-03-30 10:45:03
    实体对齐相关概念 **实体对齐(entity-alignment):**判断不同知识图谱中的两个实体是否指向真实世界同一对象的过程,又称为实体匹配(entity-matching),实体解析(entity-Resolution)。 **知识库实体对齐:**...
  • 实体对齐评价指标

    2021-03-30 10:50:21
    实体对齐评价指标 ​ 表示学习的过程,其实就是实体链接的过程,首先把实体以及关系随机初始化为一定长度的向量,然后基于训练数据,希望通过类似于翻译的方式得到一个更优的向量表示,使 头实体+关系 尽可能的与尾...
  • 什么是实体对齐、实体消歧、属性对齐?

    万次阅读 多人点赞 2019-10-13 11:33:16
    什么是实体对齐、实体消歧? 实体对齐旨在判断两个或者多个不同信息来源的实体是否为指向z真实世界中同一个对象。如果多个实体表征同一个对象,则在这些实体之间构建对齐关系,同时对实体包含的信息进行融合和聚集...
  • 实体对齐调研综述

    千次阅读 2019-04-19 20:27:48
    一般来说,由于自然语言存在较多的一词多义(相同的实体指称在不同的上下文中可以指向知识库中的不同实体)或多词一义(知识库中的相同实体在文本中有不同的指称)的现象,实体识别的结果很难直接加入到知识图谱当中...
  • 知识图谱—实体对齐

    千次阅读 2020-08-04 11:22:33
    图谱构建流程导读:1.知识提取从原始数据语料中自动识别出命名实体实体是知识图谱中最基本的元素。2.知识表示(一)介绍了知识表示学习的常见的代表模型:距离模型、单层神经网络模型、能量模型...
  • 文章目录1.Introduction2.Preliminaries2.2 Scope and Related work2.2.1 Entity Linking=entity disambiguation2.2.2 Entity resolution=entity matching=deduplication=record linkage2.2.3 Entity ...一次对齐/
  • 笔记整理 |谭亦鸣,东南大学博士生来源: ECIR 2021在这篇工作中,作者对两种SOTA实体对齐方法做了广泛的研究:首先仔细分析了现有benchmark的过程,并论证了其中存在一些缺...
  • 知识融合(实体对齐)笔记

    千次阅读 2020-04-07 15:30:18
    本文共1132个字,预计阅读时间需要4分钟。...实体对齐(entity alignment) 侧重发现指称真实世界相同对象的不同实例,也称为实体消解(resolution)、实例匹配(instance matching) 知识融合(kn...
  • 蔡氏电路matlab仿真代码凯基 EMNLP 2019论文“”的源代码和数据集。 要求 Python3(在3.6.6上测试) 火炬(在0.4.1上测试) 代码 此实现包括KECG,KECG(w \ o K)和KECG(w \ o NNS)。 在DBP15K(ZH-ZH)上...1000
  • 论文专栏: KDD2020知识图谱相关论文分享论文解读者: 北邮 GAMMA Lab 博士生 闫博题目: 鲁棒的跨语言知识图谱实体对齐会议: KDD 2020论文地址: https://...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 25,812
精华内容 10,324
关键字:

实体对齐