-
2022-02-21 11:28:12
1.Information Extraction 信息提取工具
MITIE (C++) library and tools for information extraction
Duckling (Haskell) Language, engine, and tooling for expressing, testing, and evaluating composable language rules on input strings.
IEPY (Python) IEPY is an open source tool for Information Extraction focused on Relation Extraction.
Snorkel A training data creation and management system focused on information extraction
- 实体识别
- 请求演示
这个是model
Neural Relation Extraction implemented with LSTM in TensorFlow
A neural network model for Chinese named entity recognition
bert-chinese-ner 使用预训练语言模型BERT做中文NER
Information-Extraction-Chinese Chinese Named Entity Recognition with IDCNN/biLSTM+CRF, and Relation Extraction with biGRU+2ATT 中文实体识别与关系提取
2. CoreNLP
ner
doc+code
附带上:openIE:关系抽取
- 使用:例子
缺点:速度慢/连接失败
特点:开放领域关系抽取(无预定义)、pipeline、java3.AllenNLP
- ner+re:pipeline
- 有一些联合抽取的model(dygie…)
更多相关内容 -
面向网络文本的高质量中文关系抽取数据集
2022-05-25 14:08:58目前广泛使用的深度学习模型往往对数据有着较强的依赖性,因此数据集的匮乏极大限制了中文实体关系抽取的发展。为了弥补中文实体关系抽取研究的这一短板,本文基于远程监督技术,将原生网络文本与外部知识库实体对齐... -
Python-基于远监督的中文关系抽取
2019-08-11 04:21:24基于远监督的中文关系抽取 -
论文研究-基于多实例多标签BLSTM神经网络的中文关系抽取 .pdf
2019-08-18 19:07:58基于多实例多标签BLSTM神经网络的中文关系抽取,唐慧,欧阳柳波,最近,深度学习模型已经成为关系提取的最先进方法,然而关于中文关系提取的研究工作却很少。本文针对中文关系抽取面临的词语之间无� -
ChineseNRE:中文实体关系抽取,pytorch,bilstm+attention
2021-05-10 17:51:59中文实体关系抽取,对实体关系抽取不了解的可以先看。顺便求star~ 数据 中文实体关系抽取数据实在太难找了,data中是忘记在哪里找的人物关系数据集,一共11+1种关系,数据质量不太好,但也找不到其他的了。 (更新... -
中文实体关系抽取数据集 Chinese-Literature-NER-RE-Dataset
2020-10-05 18:37:31基于几个可用的NER和RE数据集定义了7个实体标签和9个关系标签。实体(Entity):每个实体都由带有多个属性的T标签标识。关系(Relation):每个关系由R标签标识,该标签可以具有多个属性。 -
基于多粒度和语义信息的中文关系抽取
2021-05-06 11:49:47中文关系抽取采用基于字符或基于词的神经网络, 现有的方法大多存在分词错误和歧义现象, 会不可避免的引入大量冗余和噪音, 从而影响关系抽取的结果. 为了解决这一问题, 本文提出了一种基于多粒度并结合语义信息的中文... -
基于深度学习的中文关系抽取框架
2021-02-16 15:11:35基于深度学习的中文关系抽取框架 -
关系抽取综述
2021-04-30 14:18:49关系抽取发展至今,总体上可以分为基于规则和基于统计的抽取方式;之后出现的众多方法大多是以统计为主,辅助以规则;后来引入了包括远程监督、深度学习等模式并融合了注意力机制、多标签多实例方法。对关系抽取的... -
开源中文关系抽取框架,来自浙大知识引擎实验室
2020-09-22 08:36:00向AI转型的程序员都关注了这个号????????????机器学习AI算法工程 公众号:datayxDeepKEDeepKE 是基于 Pytorch 的深度学习中文关系抽取处理套件。环...向AI转型的程序员都关注了这个号????????????
机器学习AI算法工程 公众号:datayx
DeepKE
DeepKE 是基于 Pytorch 的深度学习中文关系抽取处理套件。
环境依赖:
python >= 3.6
torch >= 1.2
hydra-core >= 0.11
tensorboard >= 2.0
matplotlib >= 3.1
transformers >= 2.0
jieba >= 0.39
中文关系抽取
基于 CNN 的关系抽取模型
基于 BiLSTM 的关系抽取模型
基于 PCNN 的远程监督关系抽取模型
基于 Capsule 的关系抽取模型
基于 Transformer 的关系抽取模型
基于 GCN 的关系抽取模型
基于 BERT 语言预训练模型的关系抽取模型
代码 以及运行教程 获取:
关注微信公众号 datayx 然后回复 抽取 即可获取。
AI项目体验地址 https://loveai.tech
快速开始
数据为 csv 文件,样式范例为:
安装依赖:
pip install -r requirements.txt
存放数据:在
data/origin
文件夹下存放训练数据。训练文件主要有三个文件。更多数据建议使用百度数据库中Knowledge Extraction。train.csv
:存放训练数据集valid.csv
:存放验证数据集test.csv
:存放测试数据集relation.csv
:存放关系种类
开始训练:python main.py
每次训练的日志保存在
logs
文件夹内,模型结果保存在checkpoints
文件夹内
阅读过本文的人还看了以下文章:
基于40万表格数据集TableBank,用MaskRCNN做表格检测
《深度学习入门:基于Python的理论与实现》高清中文PDF+源码
2019最新《PyTorch自然语言处理》英、中文版PDF+源码
《21个项目玩转深度学习:基于TensorFlow的实践详解》完整版PDF+附书代码
PyTorch深度学习快速实战入门《pytorch-handbook》
【下载】豆瓣评分8.1,《机器学习实战:基于Scikit-Learn和TensorFlow》
李沐大神开源《动手学深度学习》,加州伯克利深度学习(2019春)教材
【Keras】完整实现‘交通标志’分类、‘票据’分类两个项目,让你掌握深度学习图像分类
如何利用全新的决策树集成级联结构gcForest做特征工程并打分?
Machine Learning Yearning 中文翻译稿
斯坦福CS230官方指南:CNN、RNN及使用技巧速查(打印收藏)
中科院Kaggle全球文本匹配竞赛华人第1名团队-深度学习与特征工程
不断更新资源
深度学习、机器学习、数据分析、python
搜索公众号添加: datayx
机大数据技术与机器学习工程
搜索公众号添加: datanlp
长按图片,识别二维码
-
nlp中的实体关系抽取方法总结
2021-02-24 02:21:31Q1:与联合抽取对比,Pipeline方法有哪些缺点?Q2:NER除了LSTM+CRF,还有哪些解码方式?如何解决嵌套实体问题?Q3:Pipeline中的关系分类有哪些常用...彩蛋:百度2020关系抽取比赛的baseline可以采取哪些方法?实体 -
基于动词名词和CHI特征选择的中文人物社会关系抽取
2021-02-25 00:26:22为了有效地降低特征向量的维数避免维数灾难,并尽可能去除噪声特征以提高关系抽取的准确率,提出一种基于动词和名词抽取与χ2统计量法( CHI) 相结合的特征选择方法,并使用TF-IDF计算特征权重。通过SVM 分类器进行... -
中文微博文本中的开放关系抽取
2021-03-14 01:47:47考虑到微博的特点,提出了一种无监督的开放关系抽取(ORE)方法,即MICRO-ORE。 首先,MICRO-ORE使用左右信息熵方法自动从微博文本中提取关键短语,并将其链接到外部知识源以规范微博文本并添加语义信息。 其次,... -
基于依存分析的开放式中文实体关系抽取方法.pdf
2020-02-11 16:28:01该方法利用依存句法分析简称依存分析实现开放式中文实体关系抽取,首先对一个句子进行依存分析,再结合中文语法启发式规则和依存分析的结果抽取关系表述,并根据距离确定论元位置,最后进行三元组输出。 -
面向中文专利的开放式实体关系抽取研究
2021-02-24 07:39:36为此,研究了在组块层次标注基础上应用马尔可夫逻辑网分层次进行中文专利开放式实体关系抽取的方法。实验表明:以组块为出发点降低了对句子理解的难度,外层和内层组块可以统一处理,减少了工程代价;而且在相同特征... -
深度学习实体关系抽取研究综述
2020-06-23 09:24:52实体关系抽取作为信息抽取、自然语言理解、信息检索等领域的核心任务和重要环节,能够从文本中抽取实体对间的语义关系.近年来,深度学习在联合学习、远程监督等方面上的应用,使关系抽取任务取得了较为丰富的研究成果.... -
CCKS2019-IPRE(人物关系抽取)任务数据集
2020-12-31 17:59:19数据分为三大部分,即训练集、验证集、测试集。数据分为两种颗粒度,一种是句子级别的关系和包(若干个句子)级别的关系。以及用于训练词向量和语言模型的大规模无标注语料。 -
基于合一句法和实体语义树的中文语义关系抽取
2021-02-23 08:00:07在ACE RDC 2005中文基准语料上进行的关系探测和关系抽取的实验表明,该方法能显著提高中文语义关系抽取性能,大类抽取的最佳F值达到67.0,这说明结构化句法信息和实体语义信息在中文语义关系抽取中具有互补性。 -
基于机器学习的中文隐式实体关系抽取方法
2021-07-07 11:00:14基于机器学习的中文隐式实体关系抽取方法 -
中文实体关系抽取实践
2019-07-17 16:21:04本篇博客主要讲NLP中的关系抽取,聚焦点中文,没有过多理论,侧重实践(监督学习)。 关于实体关系抽取的技术发展脉络,感兴趣的可以看一下: https://www.cnblogs.com/theodoric008/p/7874373.html 关系抽取有...前言
欢迎关注笔者微信公众号,会有更多分享~
本篇博客主要讲NLP中的关系抽取,聚焦点中文,没有过多理论,侧重实践(监督学习)。
关于实体关系抽取的技术发展脉络,感兴趣的可以看一下:
实体关系抽取 entity relation extraction 文献阅读总结 - 一条图图犬 - 博客园
最新的paper
直播预告 | 长文本知识抽取:基于语义分割的文档级三元组关系抽取
关系抽取有限定关系抽取和开放关系抽取,这里主要说限定关系抽取即分类问题
其过程常常又有监督学习和半监督学习,这里主要讲利用深度学习进行的监督学习,关于半监督学习可以使用deepdive
感兴趣的可以看笔者的另一篇博客:
deepdive python3 环境下多种实体关系抽取流程_爱吃火锅的博客-CSDN博客
另外有的场景没有给定实体对,需要联合抽取实体关系,这里也有一个例子是基于bert模型的,笔者进行了解读,感兴趣的可以看下:
bert实践:关系抽取解读_爱吃火锅的博客-CSDN博客_bert关系抽取
本篇全部代码:
https://github.com/Mryangkaitong/Chinese_NRE
数据
数据集简介
1. 数据来源
本次评测数据主要来源于互联网网页文本,其中验证集和测试集是通过人工进行标注的,而训练集是通过远程监督(Distant Supervision)自动生成的。
2. 数据集信息
在数据发布阶段,我们发布训练集、开发集和用于参赛者测试的测试集。总共有34类人物关系,包括一类特殊关系NA,具体见文件relation2id.txt。
3. 数据格式说明
训练集&验证集
各由三个数据文件组成,各数据文件格式如下:sent_train/dev:sentID sentence
bag_relation_train/dev:bagID e1 e2 sentIDs relationIDs
sent_relation_train/dev:sentID relationIDs测试集
由三个数据文件组成,其中bag_relation_test为Bag-Track的测试集,sent_relation_test为Sent-Track的测试集,各数据文件格式如下:
sent_test:sentID sentence
bag_relation_test:bagID e1 e2 sentIDs
sent_relation_test:sentID字段说明:
- sentID为一个实体对和包含该实体对句子的唯一ID。
- sentence为一个实体对和包含该实体对的句子有序组合,实体对之间、实体对和句子之间以“ ”隔开,句子以对应句子分词结果的形式给出,该分词结果仅做参考,参赛者可视情况使用。
- bagID为实例所属包的ID,同一个包中的实例具有相同的实体对。
- e1、e2为给定的人物实体对中的头实体和尾实体。
- sentIDs为包中的句子ID集合,每个ID之间以单个空格隔开。
- relationIDs为包的标签关系ID集合,每个ID之间以单个空格隔开,每个关系的ID见文件relation2id.txt。评价方式
关系抽取(Relation Extraction)是信息抽取的一个重要子任务,其任务是从文本内容中找出给定实体对之间的语义关系,是智能问答、信息检索等智能应用的重要基础,和知识图谱的构建有着密切的联系。在本次任务中,我们重点关注人物之间的关系抽取研究,简称IPRE(Inter-Personal Relationship Extraction)。给定一组人物实体对和包含该实体对的句子,找出给定实体对在已知关系表中的关系。我们将从以下两个方面进行评测:
1. Sent-Track:从句子级别上根据给定句子预测给定人物实体对的关系
输入:一组人物实体对和包含该实体对的一个句子
输出:该人物实体对的关系
样例一:
输入:贾玲 冯巩 贾玲,80后相声新秀,师承中国著名相声表演艺术家冯巩。
输出:人物关系/师生关系/老师
2. Bag-Track:从包级别上根据给定句子集合预测给定人物实体对的关系
输入:一组人物实体对和包含该实体对的若干句子
输出:该人物实体对的关系
样例二:
输入:
- 袁汤 袁安 从袁安起,几代位列三公(司徒、司空、太尉),出过诸如袁汤、袁绍、袁术等历史上著名人物。
- 袁汤 袁安 袁汤(公元67年—153年),字仲河,河南汝阳(今河南商水西南人,名臣袁安之孙,其家族为东汉时期的汝南袁氏。
输出:袁汤 袁安 人物关系/亲属关系/血亲/自然血亲/祖父母/爷爷 NA
说明:若有多个关系,则输出多个关系。
Sent-Track任务
选手将结果保存为result_sent.txt,以utf-8编码格式保存,按照sentID顺序,每行2列,以“ ”分隔,第一列为sentID,第二列为该实例实体对关系的判断结果的ID,即“sentID relationIDs”。若为多个关系,则每个关系ID之间以单个空格隔开。
Bag-Track任务
选手将结果保存为result_bag.txt,以utf-8编码格式保存,按照bagID顺序,每行2列,以“ ”分隔,第一列为bagID,第二列为该实体对的关系ID,即“bagID relationIDs”。若为多个关系,则每个关系ID之间以单个空格隔开。
最终提交文件要求:
每一个参赛队需提交的材料如下:
1、测试集预测结果文件,分别用result_sent.txt和result_bag.txt命名(UTF-8格式)
2、代码及说明
3、方法描述文档(非评测论文,评测论文撰写要求见CCKS 2019官网)。
以上三个文件需在任务提交截止日期后一周内发送至邮箱:王海涛<wanghaitao.mail@foxmail.com>。邮件的标题为:“CCKS-IPRE-参赛队名称”。
代码及其文档需打包成一个文件(tar,zip,gzip,rar等均可),用code.xxx命名,要求提交所有的程序代码及相关的配置说明,程序应当可以运行且所得结果与result_sent.txt和result_bag.txt相符
评测平台:本次评测将依托biendata平台(https://biendata.com/)展开,请有意向的参赛队伍关注平台上的竞赛列表。
评价指标
本次任务的评价指标包括精确率(Precision, P)、召回率(Recall, R)和F1值(F1-measure, F1),分为 Sent-Track 和 Bag-Track 两个部分,每部分按F1值分别排名。只统计预测结果中非NA的数目(如果NA关系预测错误,也会计入到评价指标中计算)。
1. Sent-Track预测结果评价:
给定测试集结果,表示类别预测正确的句子数目,
表示系统预测的句子数目,
表示标准结果的句子数目。
计算公式如下:2. Bag-Track预测结果评价:
给定测试结果,表示类别预测正确的包的数目,
表示系统预测的包的数目,
表示标准结果的包的数目。
计算公式如下:实践
该实践部分分为三大部分
第一部分主要是使用OpenNRE,这是清华开源的关系抽取API:
https://github.com/thunlp/OpenNRE
但是其目前只实现了bag方式的单标签,没有实现多标签,且没有sent方式,不过现在好像正在开发,大家可以期待,对其感兴趣的同学可以关注:
https://github.com/thunlp/OpenNRE/tree/nrekit
所以准确来说,OpenNRE并不适用该比赛,且其源码中在计算loss的时候使用了sigmoid,对于本赛题的sent方式也不适合,相反我们希望使用softmax,但是有人提出这也是一个技巧,虽然我们是多分类单标签但通过使用sigmoid可以消除类间干扰,说是这么说,直接实践看结果吧,在第二部分实践会看到
鉴于以上,为了进一步展示bag方式(多标签)和sent这种形式,这里会结合比赛的给出的baseline的代码进行实践,补充实现pcnn,rnn,cnn(目前只有sentences)等,同时恰好看到一个相关的别的比赛的答辩视频,其中提到过一些技术,这里也会结合的实现一下
baseline:https://github.com/ccks2019-ipre/baseline
还有就是GRU,其官方对比效果好于OpenNRE
GitHub - squirrel1982/TensorFlow-NRE: Neural Relation Extraction implemented with LSTM in TensorFlow
这也是本篇主要参考几篇资料,第一部分和第三部分在该比赛中效果不好,这里之所以讲主要目的就是介绍一下其使用流程,以便有需要的场合使用,可以略过一三,直接看第二部分
第一部分相关的实践因为其只能处理单标签,这里就用sent的数据
统计了一下类别数量(sent):
训练集上面:
0 248850 1 8135 10 6870 4 5513 33 2900 12 2627 16 1673 30 1610 11 1383 31 1301 32 1266 13 830 19 805 17 637 34 547 18 532 7 291 5 245 2 218 3 183 29 165 23 158 26 119 21 77 20 77 6 69 27 67 14 46 8 40 24 30 28 24 22 22 15 19 25 13 9 9
测试集上面:
0 37332 10 247 1 218 4 125 12 88 32 72 11 65 33 62 13 43 31 27 16 27 6 16 17 11 2 11 22 11 19 9 7 9 30 6 3 5 34 5 14 4 18 4 5 3 9 3 15 2 24 2 29 2 27 1 25 1 28 1 8 1 21 1 23 1 26 1 20 1
第一部分
OpenNRE需要训练好的词向量,所以我们首先训练词向量
训练词向量
这里使用了jieba进行分词,gensim框架进行训练,
过程是首先是生成语料库corpus.txt,最后生成word2vec.txt
两则都保存在当前文件夹
运行如下即可
Python word2vec_train.py
转化成json文件
因为OpenNRE的输入文件要求是json文件格式,所以这里简单写了个脚本进行转化成要求的json格式
OpenNRE是需要实体id的,这里转化的过程中一个是将句子id+_0和句子id+_1作为实体对的id
另一个是是使用实体字典作为id,看起来后者更符合逻辑,但是预测结果就会丢失句子信息,即属于同一实体对的所有句子都是一个预测结果
运行完后会在data文件夹下产5个相应的json文件
rel2id.json , word_vec.json,train.json , dev json ,test.json
如果采用后者会多产生一个
sent_id_dict.json
其中sent_id_dict.json的的形式是19#34:['TEST_SENT_ID_027274','TEST_SENT_ID_027275']用于后续预测结果映射
运行如下即可
python txt2json.py
OpenNRE修改部分
下载上述给的github,解压得到OpenNRE-master,后面就直接使用啦
在直接调用API之前,需要做以下工作
dev/test问题:
OpenNRE给的demo中有train和test两个数据集,而我们这里有3个数据集,train,dev,test,其中train和dev对应OpenNRE demo
中的train,test而我们这里的test是没有label的,所以做以下工作:
首先在OpenNRE-master下创建文件夹 data/people_relation/ (这里将项目命名为人物关系)
然后将上述生成的train.json , rel2id.json , word_vec.json放进来
将dev.json重命名为test.json放进来
将test.json重命名为test_submit.json放进来
为了使test_submit.json也能够生成对应的npy文件(至于为什么要生成npy?可以下面的“其他说明”部分),在train.demo中加上:
test_loader_submit = nrekit.data_loader.json_file_data_loader(os.path.join(dataset_dir, 'test_submit.json'), os.path.join(dataset_dir, 'word_vec.json'), os.path.join(dataset_dir, 'rel2id.json'), mode=nrekit.data_loader.json_file_data_loader.MODE_ENTPAIR_BAG, shuffle=False)
同样,test_demo.py中对应的改成:test_submit
另外预测结果时用到的是主要是OpenNRE/nrekit/framework.py / 下的__test_bag__函数的如下部分
主要是计算auc,这里的relfact_tot是指的关系数(不包括NA),因为作者的源码的test相当于dev是有标签的所有可以统计auc,但是我们的test是没有标签的,也没有必要知道这些指标,我们想要的只有结果,同时我们上面将txt转化为json的过程中将test中的所有关系都设置为了NA,所以当输入是test_submit时这里的relfact_tot就是0,会报错的,于是乎可以改成这样:
如果是test_submit,就将指标都设置为0,反正也不需要,而且也不可能知道
python版本带来的问题:
test_demo.py在将预测结果写入json文件时,如果使用的是Python3.6,使用json.dump将结果写入文件时会出错,改用ujson
首先导入ujson
import ujson
然后对应部分改为
ujson.dump(pred_result, outfile)
词向量维度:
上述我们的word_vec.json词向量是300维
那么对应到这里源码需要改一下即OpenNRE/nrekit/network/embedding.py /下第29行的word_position_embedding函数中将word_embedding_dim改为300
测试模型参数太多问题:
在运行到epoch=3的时候会突然报错:
这是因为在测试的时候每次都要重新生成一个Model,对应到tensorflow里面的话,张量就会越来越多,到最后就会溢出,为此这里我们就需要做一点改进,那就是判断一下之前是否已经有模型存在,存在的话直接加载就好啦
修改OpenNRE/nrekit/framework.py /,在107行加上,给类re_framework的初始化中加一个属性
self.test_model = None
然后在 __test_bag__方法下将源码中的
model = model(self.test_data_loader, self.test_data_loader.batch_size, self.test_data_loader.max_length)
改为
为了其进一步能够处理这种异常我们train方法下(283行)加上:
这样的话即使再出错,也可以在当前截止,使程序顺利结束,保存好已经训练过的模型
F1指标:
在训练的时候log给出的是准确率信息,没有f1相关的输出,这里我们顺便计算一下f1,并实时输出
在__test_bag__方法中修改:(至于为什么要这么写可参考OpenNRE/draw_plot.py中f1的计算)
同理,源码中模型是否保存的基准是auc,这里我们也替换成f1
所以,对应的test_demo.py中,这里返回的也是f1(改一下名字而已)
batch_size和max_length的设置:
原来的设置是batch_size=160,max_length=120
这里改为batch_size=128,max_length=60
具体需要修改的位置就是OpenNRE/nrekit/data_loader.py /下的
npy_data_loader和json_file_data_loader这两个类的初始化
以及OpenNRE/nrekit/framework.py /下的re_model和re_model类的初始化
和train_demo.py/test_demo.py下的相关位置例如:
画图
有的时候,效果很差,所以在draw_plot.py 绘制准确率的时候,这里还是改成从0开始吧,否则看不到结果
Selector的Maximum
源码中已经将max模型改为one,所以以后想要用在selector模式中用max,改用one就行
除此之外,对应的test_demo.py中要将如下部分
改为对应的:
---------------------------------------------------------------------------------------------------------------------------------------------------------------
训练:
这是OpenNRE给的在NYT10上面的运行结果
为此这里我们先来运行一下BiRNN+ Maximum模型组合
注意代码中Maximum对应的是one
python train_demo.py people_relation birnn one
因为时间较长,这里就后台运行吧
nohup python -u train_demo.py people_relation birnn one > output.log 2>&1 &
这里运行了15个epoch
性能
运行
python draw_plot.py people_relation_birnn_one
test_result下面会生成相应的图片
可以看到结果很差
预测
运行
python test_demo.py people_relation birnn one
上述运行完会在text_result文件夹下生成相应的预测结果即people_relation_birnn_one_pred.json
转化成txt
结果生成的是json,因上述比赛,这里对应写了一个转化脚本
运行
python json2txt.py people_relation_birnn_one
即可在text_result文件夹下生成result_sent.txt
这里说明一下,模型生成的json文件是各个类别的分数,注意这里不是概率,因为其用的是softmax,且没有NA的概率,所以这里转化的时候如果各个类别(这里是34种)之间分数差别太小(小于1e-5)就认为是0,没有判别出来,否则就去最大分数的类别作为最后类别,关于该问题详细看后面的“其他说明”部分
已经运行的部分结果
rnn+one:
pcnn+att:
pcnn+att:(单词做为id)
其他说明
一 :第一次运行的时候,需要所有的json文件,时间较长,加载的同时其会生成一个_processed_data文件夹
里面除了有我们原始的json文件外,还会有其对应预处理的.npy文件
假设之后需要用相同的数据重跑模型时,其会判断是否有_processed_data文件夹存在,如果存在就会使用np.load进行加载对应npy文件,而非加载json数据,这样做的目的就是加快了加载速度,经过试验加载json需要数个小时,而加载预处理对应的npy仅仅几秒。
二 :模型最后输出的是分数,其实内部源码用的是softmax,且没有NA的分数,按说应该用sigmoid比较好理解,关于这个问题的讨论作者也给出部分回答https://github.com/thunlp/OpenNRE/issues/96
三:在使用OpenNRE中进行预测后,通过转化为txt提交,线上效果很差,不知道什么原因?和这里的F1明显不一样,在转化的过程中是选取最大分数作为预测label的 ,这里需要说明:如果选用单词作为id,OpenNRE的结果是按照 head_id#tail_id 为实体对给出结果的,而不是按照句子id给出预测结果,也就是说如果一个实体对在多句话中出现,那么转化成txt的过程中是将所有句子都打标成预测的结果,这里是不是不太合理?
第二部分
该部分可以看做是OpenNRE的一个简化版本
部分说明
词向量部分:
这里既可以选择加载使用语料库预训练的词向量,也可以选择不使用,不使用的话那就初始化一个词向量矩阵,一同参与从头训练,其实就相当于使用训练集上面的样本当做语料库。
这里同时嵌入了bert模型,该模型目前较火,这里不做进一步介绍啦,网上很多,其关键核心就是句向量,相信很多同学都见过这样的解释,比如苹果一词在水果和手机环境下其实是不同的含义,以前的word2vec训练的一个词的词向量总是固定的,其不会因为语境的不同而不同,而bert就是弥补了这一点,其训练规程很复杂,所幸的是谷歌已经将训练的模型公布,我们可以直接调用,关于具体怎么调用,网上也很多,这里就给出一篇博客吧:
使用BERT获取中文词向量_zhylhy520的博客-CSDN博客_bert词向量
在具体使用的时候,要首先在后台开启其服务:
nohup bert-serving-start -model_dir ./nert_model/chinese_L-12_H-768_A-12 -num_worker=2 >> bert_output.log 2>&1 &
可能有人这里会有疑问,就比如上述博客中的“中国”这个词,那么得到结果也不就是一个固定的词向量吗?是的,其实我们这里应该这样理解,bert这里并不是将“中国”看成是一个词而是一句话,其本身的定位就是句向量,当输入中国时,其认为中国就是一句话,那么结果对应的就是对中国这一句话的向量,可能这样理解会好一点!
那么其实在这里我们没有利用到bert句向量的优势,因为我们还是相当于得到一个个词的向量,相当于用了其经过大量训练的预模型,如果有好其他想法,可以试一下
因为该过程较慢,这里在train过程中提取后,会随便保存提取好的bert的句向量即在data文件夹下的bert_word2vec.json,后续再进行的时候就不必重新提取啦,直接使用load_bert_word2vec加载bert_word2vec.json就行
网络部分:
这里参考OpenNRE加入pcnn,rnn,birnn,后两个较简单
这里主要说一说pcnn是怎样具体实现的,其原理很简单就是根据两个实体将一句话分成左中右3段,然后分别进行进行最大池化,在代码的实现过程中,其是通过mask,即0,1,2,3对其进行编号(1,2,3是左中右,0代表补齐的部分),然后分段加100,然后整体进行池化,假设【左面+100,中,右面】,【左面,中+100,右面】,【左面,中,右面+100】,即对【【左面+100,中,右面】,【左面,中+100,右面】,【左面,中,右面+100】】进行最大池化,那么对于【左面+100,中,右面】相当于左面先天性的比中,右多出100,那么其实最大化相当于就是在左面进行了,同理【左面,中+100,右面】相当于就是在中间进行了,依次类推,最后得到3个向量那就是相当于分段在左中右进行了最大池化。
bag实现方式:
-------------------------
首先需要说明,假设我们的batch_size = 128
那么bag这种形式在网路过程中其实并不是batch_size = 128,举例来说self.embedding()的输出维度应该是
[batch_size,self.sen_len,self.word_dim+2*self.pos_dim]
对应到这里应该是[128,60,310],但是实际上是[377,60,310]
为什么呢?应该bag下一个样本可能有多个句子,代码中是将所有句子平铺,可想而知总数是大于128的,那么label的shape还是正常的[128,35],那么最后是怎么对应哪几句话属于一个bag呢?
那就是通过sen_num_batch字段,其内部记录了数量,假设样本如下:(前面代表句子,后面代表label)
[sentence_0,sentence_2,sentence_9 ] [0,1]
[sentence_8] [2]
[sentence_10,sentence_19] [6]
那么sen_num_batch中就是【0,3,4,6]即记录累加句子个数,平铺句子后是pat = 【sentence_0,sentence_2,sentence_9 ,sentence_8,sentence_10,sentence_19】
那么选取的时候,对应第一个bag就是pat[0:3]即pat[sen_num_batch[0]:sen_num_batch[1]],依次类推
当然对应的如果是sentence方式,这里的batch_size就一直是128啦
------------------------------------------------------------------------------------------------------------------------------------------
下面看一下bag具体的形式
所谓bag和sentences在实现上的不同,其实是在最后面,即在前面embedding(word2vec,bert等等)以及encoder(cnn,pcnn等等)流程都是一样的,只不过实际中bag方式下的batch_size可能要大一些
两者的正式区别是在经过上述过程后(self.sentence_reps就是上述过程的结果【self.batch_size,self.hidden_dim】)开始分道扬镳的,对应到代码中就是
bag_level和sentence_level两个分别处理的函数。
为了对比先来看下sentence_level
def sentence_level(self): out = tf.matmul(self.sentence_reps, self.relation_embedding) + self.relation_embedding_b self.probability = tf.nn.softmax(out, 1) self.classifier_loss = tf.reduce_mean( tf.reduce_sum(-tf.log(tf.clip_by_value(self.probability, 1.0e-10, 1.0)) * self.input_label, 1))
很简单,这里就是通过self.relation_embedding(【self.hidden_dim, self.num_classes】即【300,35】)转化为[batch_size,self.num_classes],然后经过softmax就是结果shape就是【128,35】
下面来看下bag_level
def bag_level(self): self.classifier_loss = 0.0 self.probability = [] if self.encoder=='pcnn': hidden_dim_cur = self.hidden_dim*3 else: hidden_dim_cur = self.hidden_dim self.bag_sens = tf.compat.v1.placeholder(dtype=tf.int32, shape=[self.batch_size + 1], name='bag_sens') self.att_A = tf.compat.v1.get_variable(name='att_A', shape=[hidden_dim_cur]) self.rel = tf.reshape(tf.transpose(self.relation_embedding), [self.num_classes, hidden_dim_cur]) for i in range(self.batch_size): sen_reps = tf.reshape(self.sentence_reps[self.bag_sens[i]:self.bag_sens[i + 1]], [-1, hidden_dim_cur]) att_sen = tf.reshape(tf.multiply(sen_reps, self.att_A), [-1, hidden_dim_cur]) score = tf.matmul(self.rel, tf.transpose(att_sen)) alpha = tf.nn.softmax(score, 1) bag_rep = tf.matmul(alpha, sen_reps) out = tf.matmul(bag_rep, self.relation_embedding) + self.relation_embedding_b prob = tf.reshape(tf.reduce_sum(tf.nn.softmax(out, 1) * tf.reshape(self.input_label[i], [-1, 1]), 0), [self.num_classes]) self.probability.append( tf.reshape(tf.reduce_sum(tf.nn.softmax(out, 1) * tf.linalg.tensor_diag([1.0] * (self.num_classes)), 1), [-1, self.num_classes])) self.classifier_loss += tf.reduce_sum( -tf.log(tf.clip_by_value(prob, 1.0e-10, 1.0)) * tf.reshape(self.input_label[i], [-1])) self.probability = tf.concat(axis=0, values=self.probability) self.classifier_loss = self.classifier_loss / tf.cast(self.batch_size, tf.float32)
经过前面部分,self.sentence_reps的输出是【377,300】
这里for其实就是遍历每一个bag(batch),然后通过self.bag_sens(就是上述说的sen_num_batch)就可以得到当前bag中所有句子,假设
[sentence_0,sentence_2,sentence_9 ] [0,1]
那么后面tensor的shape依次是:
sen_reps [ 3, 300]
att_sen [ 3, 300]
score [35, 3]
alpha [35, 3]
bag_rep [ 35, 300]
out [ 35, 35]
self.probability是一列列表,每次append的是【1,35】,所以最后的shape是【128,35】
这里其实就是用了一个attention,说的高大上一点就是所谓的注意力机制,关于attention可以看一下这篇
Attention Model(mechanism) 的 套路_BVL的博客-CSDN博客
对应上面博主所说的套路,我们这里的问题想将所有的的bag形状转化为[num_classes,hidden_dim]即将
sen_reps(shape多种多样,有可能是上面的【3,300】也有可能是【1,300】,【5,300】等等)转化为bag_rep(即同一转化为【35,300】)
这个就是博主说的attention解决的创建:
“你有kk个dd维的特征向量hi(i=1,2,...,k)hi(i=1,2,...,k)。现在你想整合这kk个特征向量的信息,变成一个向量h∗h∗(一般也是dd维)。”
这里的score就是打分,alpha就是score经过softmax后的权重,之后sen_reps通过乘以权重(tf.matmul(alpha, sen_reps))便得以转化为bag_rep形式
那么关键就是打分函数,这里是一个矩阵self.rel,其实就是self.relation_embedding矩阵
这里其实是[n,300] =>[n,35]=>[300,35]=>[35,35]=>取对角线得到[1,35]
一般attention逻辑来说是[n,300]=>[1,300]最后通过一个矩阵转化得到[1,35],
第二种:score是对每一句话打一个一个分数,
而第一种是采用了每一句话都对每一个类打一个分数[n,35],然后得到[35,300]相当于综合考虑了n句话得到了35类,每一类给与了300种分数,最后通过一个矩阵转化得到[35,35]取对角线得到[1,35]
------------------------------------------------------------------------------------------------------------------------------------------------------------------
以上就是两者的全过程,不论是bag形式还是sentences形式,经过上面的输出的预测结果self.probability都是【batch_size,num_classes】即【128,35】
之后再train,dev以及test函数中,对于bag和sentences形式也略有一点不同,但都是同一个套路,就看test中吧
if self.bag: all_preds = all_probs all_preds[all_probs > 0.9] = 1 all_preds[all_probs <= 0.9] = 0 else: all_preds = np.eye(self.num_classes)[np.reshape(np.argmax(all_probs, 1), (-1))]
如果是sentences方式就直接取35类中最大值为结果
如果是bag方式那就设置一个阈值,大于0.9的都认为是结果,当然啦这个阈值也是人为可以设定的
以下是部分运行结果(F1):
不使用经过text预训练的词向量 cnn : 线下bag 0.19 线上bag 0.16564
使用经过text预训练的词向量 cnn : 线下bag 0.312704 线上bag 0.33402 线下sent 0.21 线上sent 0.21387
使用bert句向量 cnn : 线下bag 0.33 线上bag 0.32057
使用经过text预训练的词向量 pcnn : 线上bag 0.30414
-----------------------------------------------------------------------------------------------------------------------------------------------------------------------
更新部分:
偶然发现天池上面一个已经结束的比赛,初赛是实体识别,复赛是关系抽取
瑞金医院MMC人工智能辅助构建知识图谱大赛-天池大赛-阿里云天池
答辩视频
【瑞金医院MMC人工智能辅助构建知识图谱大赛】总决赛 答辩会直播 - AI学习 - 阿里云天池
部分开源代码:
https://github.com/qrfaction/ruijin-kg-SuperGUTScode
首先归纳一下框架:
数据预处理部分:针对瑞金这个比赛,这里可以做的就是分句(滑动窗口),一般该部分可以努力的方向是数据增强
模型部分:大部分都采取了常见的birnn+attention,核心框架都是这个,只不过在其上面进行了部分改进
下面会使用答辩中提到的一些技巧来扩展我们第二部分的代码,进而看下在我们开头说的比赛上面效果,下面是笔者实验的部分结果结果(由于知道的比较晚,此时比赛已经结束了,没法进行线上验证了,下面仅给出线下分数):
一 input+双层birnn(lstm)+attention_1
首先是Q&A团队提到的
总体框架是:
Encoder部分主要就是birnn,看一下输入部分(Input):
从这里可以看到多了flag和segment,其中flag是词性,segment是实体标示,第一个实体位置赋值0.1,第二个是-0.1,其余位置为0
这里笔者在具体复现的时候采用的是pyltp得到词性(笔者代码中的postagger和上图的flag是一个东西),实体位置标示改为1(没试过0.1的效果),然后经过birnn(单层GRU)+attention_1得到输出
这里所谓的attention_1指的是打分机制使用的是原text
相比于之前大概提升了4个百分点
二 input+单层birnn(gru)+attention_1
sent方式线下:
这里将birnn部分换成了单层的GRU
可以看到是0.26,接近提升6个百分点(相比0.21),效果显著
当前我们的模型总结起来大体是
二 input+cnn
这里主要就是不使用birnn,而是使用一个简单的cnn,顺便看了一下其在bag方式上面的效果:
大概运行了200个epoch,可以看到还不如bag的baseline,所以说birnn还是要好点
三 input+双层birnn+attention_2
这里尝试使用双层birnn,因为第一层(底层)偏向提取语法方面的信息,第二层(高层)偏向提取语义方面的信息,至于理论语句是有一篇论文,答辩视频中也提到了,作者是通过用底层birnn的输出和高层的输出去分别做语法语义方面的任务,发现底层善于处理语法高层善于处理语义,这里我们将两层输出进行简单的加和(借鉴第一名的思路),当前模型大体框架是
其中attention_2(借鉴第二名思路)
这里的x0-x1-x2的含义是用除了两个实体以外的其它文本信息去做打分机制,而上面我们的attention_1是直接使用了自身encodr作为打分机制的,所谓打分机制实际上目的就是要得到一个[batch_size,max_len,1]的向量
相比于第一个0.2693稍微提高了一点,效果不是很明显
四 input(cnn)+双层birnn+attention_2
这里主要在embedding的时候先使用cnn分别对word,位置,词性进行一次cnn提取特征
效果不好,反而下降了
四 双层birnn+attention_1+level_1
看了那几种分类,其实可以看到是有等级的比如1-29都属于一大类亲属关系,30-32社交关系,33-34师生关系,0自己属于一大类,于是这里试了一下在输出层使用一个level_1矩阵做一个四分类计算一个loss,然后再经过2两个全连接层做一个35分类计算一个Loss,将两部分loss作为最后的总loss结果:
没有效果
五 sigmoid
看到说使用sigmoid可以一定程度上屏蔽类间干扰,相当于多个二分类,然后计算loss的时候因为知道label嘛,取出对应的概率去计算,恩恩,貌似很有道理,但是实践效果极差
六 双层birnn(gru)+attention_1+MASK
这里是将实体对都替换成MASK,因为判断实体对的关系更多的是应该考虑除实体对以外的那些文本
有所提高
六 数据增强相关
一般来说数据NLP数据增强比较容易想到的就是随机drop掉一些词和shuffle随机打乱一些句子顺序
(1)双层birnn(gru)+attention_1+drop
(2)双层birnn(gru)+attention_1+drop+MASK
(3)双层birnn(gru)+attention_1+drop+shuffle
drop+shuffle
(4)双层birnn(gru)+attention_1+drop+shuffle+MASK
(5)双层birnn(gru)+attention_1+shuffle+MASK
七 双层birnn(gru)+MultiHeadAttention+MASK
这里主要考虑了bert Transformer中的MultiHeadAttention,注意在具体代码实现的时候,原本多头attention,是重复多次然后concat,这里是将hidden先均分成多份,然后分别进行attention所以最后MultiHeadAttention的结果最后一维不是n*hidden而还是hidden
从上面(1)(2)来看drop带来好处,但是MASK反而降低性能
从(3)(4)来看MASK似乎又带来了性能的提高
因为数据增强这里采用的是随机选择一些词进行打乱或drop,不难想象有可能会drop掉一些关键词,而且在关系抽取中我们多次应用了位置信息,打乱位置信息的话可能也会带来一定影响,但是这样随机假如一些扰动在一定程度也可以增加模型的泛化性,说实话没有试验前,不会做出好不好的判断,上述是一部分试验结果,也许再次运行的话又会有不一样的结果,因为数据增强是随机的,drop和shffle到底有没有用?有多大的用?从上面看貌似有点作用,至于MASK能不能提高性能,为什么会出现(2)的情况,这个到后面其实还在一直运行,貌似已经收敛,截取的结果,0.276的结果也是在跑了一段时间后本以为收敛了,可是出现了0.276,总得来说感觉MASK还是很有用。
后续在做相关任务的时候,其实最好的办法就是去试一试看看效果
-------------------------------------------------------------------------------------------------------------------------------------------------------------------------
第三部分
其也是只有bag这种方式的单标签
一:将解压的数据放入origin_data目录下 二:数据预处理
python initial.py
三:训练
python train_GRU.py
其中它会自动调用test_GRU.py验证其在dev上面的性能
四:预测结果
python predict_GRU.py 2643
其中2643是加载2643模型,可以加载别的,具体看model下面有哪些即可
运行结果:
遇到的问题和一些总结:
一 : 上述都是基于tensorflow实现的,这里偶然间看到一个基于pytorch实现的类似OpenNRE,想要开发pytorch版 本可以参考一下GitHub - ShulinCao/OpenNRE-PyTorch: Neural Relation Extraction implemented in PyTorch
二 :经过试验可得,使用gensim或是bert预训练的词向量总体上会有大幅度提高,但对比word2vec,bert貌似在当前(NRE)问题中没有看到显著优势(其主要在文本分类上面优势比较明显),线下有稍微提高,线上反而效果又欠佳
三:pcnn相比于rnn有做了__piecewise_pooling改进,但是效果在该数据集上却比cnn差一点
六:这里也没有进行调参,而且在确定了最后要用的模型后,为了提高一点可以同时使用train和dev数据集去训练,然后预测test,当然啦这没什么技术层面的技巧,纯粹是为了扩大点数据量增加分数,以上结果都是单纯训练train数据集的结果
总结一下其它比较好的几个思路:
1 人工打标
2 先对NA和非NA做一个而分类,有关系的话再进行多种关系的多分类,这其实就是前面说的多级分类
3 对bag进行句子合并
4 调整远程监督的打标的结果
模型的话大部分都是bert,将实体对放在句首,用:隔开,必须是:,真是玄学
更新
OneRel:关系抽取最新SOTA,但看完之后觉得...JayJay有一些自己的看法~
https://mp.weixin.qq.com/s/glRcbuBJV4vCefDycRJMQA
-
基于Deep Belief Nets 的中文名实体关系抽取
2015-04-11 15:45:11基于Deep Belief Nets 的中文名实体关系抽取 -
【转】用Bi-GRU和字向量做端到端的中文关系抽取
2018-12-10 15:59:18本文转载自:用Bi-GRU和字向量做端到端的中文关系抽取 代码在: Information-Extraction-Chinese 实体识别和关系抽取是例如构建知识图谱等上层自然语言处理应用的基础。关系抽取可以简单理解为一个分类问题:给定...本文转载自:用Bi-GRU和字向量做端到端的中文关系抽取
代码在: Information-Extraction-Chinese
实体识别和关系抽取是例如构建知识图谱等上层自然语言处理应用的基础。关系抽取可以简单理解为一个分类问题:给定两个实体和两个实体共同出现的句子文本,判别两个实体之间的关系。
使用CNN或者双向RNN加Attention的深度学习方法被认为是现在关系抽取state of art的解决方案。已有的文献和代码,大都是针对英文语料,使用词向量作为输入进行训练。这里以实践为目的,介绍一个用双向GRU、字与句子的双重Attention模型,以天然适配中文特性的字向量(character embedding)作为输入,网络爬取数据作为训练语料构建的中文关系抽取模型。
代码主要是基于清华的开源项目thunlp/TensorFlow-NRE开发,感谢!
双向GRU加Dual Attention模型
双向GRU加字级别attention的模型想法来自文章 “Attention-Based Bidirectional Long Short-Term Memory Networks for Relation Classification” [Zhou et al.,2016]。这里将原文的模型结构中的LSTM改为GRU,且对句子中的每一个中文字符输入为character embedding。这样的模型对每一个句子输入做训练,加入字级别的attention。
句子级别attention的想法来自文章 “Neural Relation Extraction with Selective Attention over Instances” [Lin et al.,2016]。原文模型结构图如下,这里将其中对每个句子进行encoding的CNN模块换成上面的双向GRU模型。这样的模型对每一种类别的句子输入做共同训练,加入句子级别的attention。
语料获取
中文关系抽取的公开语料比较少。我们从distant supervision的方法中获取灵感,希望可以首先找到具有确定关系的实体对,然后再去获取该实体对共同出现的语句作为正样本。负样本则从实体库中随机产生没有关系的实体对,再去获取这样实体对共同出现的语句。
对于具有确定关系的实体对,我们从复旦知识工厂得到,感谢他们提供的免费API!一个小问题是,相同的关系label在复旦知识工厂中可能对应着不同的标注,比如“夫妻”,抓取到的数据里有的是“丈夫”,有的是“妻子”,有的是“伉俪”等等,需要手动对齐。
得到实体对,获取实体对共同出现的语句,我们直接借助百度、搜狐、360等的新闻搜素功能,抓取实体对共同出现的新闻在搜索列表中的摘要。
我们还从一个开源项目Roshanson/TextInfoExp中获取了不少关系抽取语料。感谢!
模型训练
下面进入实战,Clone和运行中文关系抽取项目.
系统要求:
-
Python (>=3.5) 一定要用Python 3。因为编码问题,Python 2对中文太不友好。
-
TensorFlow (>=r1.0) Tensorflow几个月一个大变样,对<1.0暂不支持。不过清华Thunlp的原始代码是旧版的Tensorflow,对旧版TF仍然执迷不悟念念不忘的朋友们可以去参考。
-
scikit-learn (>=0.18)
训练:
1.所有数据准备在 origin_data/ 中, 包括了关系种类 (relation2id.txt), 训练数据 (train.txt), 测试数据 (test.txt) and 中文字向量 (vec.txt). 中文字向量是在中文wikipedia上训练的。训练数据和测试数据是将原始数据随机排序,然后按大概80%做训练,20%做测试的方法分开。更好的方法是再加入验证数据,但是训练一个epoch已经好长时间,就偷个懒不搞k-fold什么的了。。。
现有的数据包含以下12种关系种类: unknown, 父母, 夫妻, 师生, 兄弟姐妹, 合作, 情侣, 祖孙, 好友, 亲戚, 同门, 上下级
2.将所有数据通过字向量整理成numpy的形式,存储在 data/
python initial.py
3.进行训练,模型会存储在 model/。并没有怎么仔细调节超参数,模型结构除了字向量的输入以外,也是完全照搬英文版的模型。感兴趣的朋友们以这个结果为baseline可以尝试调出更好的模型参数。
python train_GRU.py
预测:
python test_GRU.py
代码中有两个main函数。第一个main函数是用测试数据来测试准确率的(我的实验大概70%左右),第二个则是供用户输入数据进行inference。程序会在command line中提示输入”name1 name2 sentence”格式的测试数据。
一些结果
我们请来王大牛和李晓华两位同学来做角色扮演,测试了一些例子。
可以看到模型给出的结果还是蛮有趣的,有一些错误,但也是“情有可原”的合理。
回顾整个过程,对于中文关系提取这个比较复杂的任务,我们的方法完全没有构造n-gram、词性、依存句法等复杂特征,使用深度学习模型,甚至不需要中文分词,只依靠字向量和大量训练语料就得到了一个效果不错的端到端模型。
INFO:tensorflow:Restoring parameters from ./model/ATT_GRU_model-9000 reading word embedding data... reading relation to id 实体1: 李晓华 实体2: 王大牛 李晓华和她的丈夫王大牛前日一起去英国旅行了。 关系是: No.1: 夫妻, Probability is 0.996217 No.2: 父母, Probability is 0.00193673 No.3: 兄弟姐妹, Probability is 0.00128172 实体1: 李晓华 实体2: 王大牛 李晓华和她的高中同学王大牛两个人前日一起去英国旅行。 关系是: No.1: 好友, Probability is 0.526823 No.2: 兄弟姐妹, Probability is 0.177491 No.3: 夫妻, Probability is 0.132977 实体1: 李晓华 实体2: 王大牛 王大牛命令李晓华在周末前完成这份代码。 关系是: No.1: 上下级, Probability is 0.965674 No.2: 亲戚, Probability is 0.0185355 No.3: 父母, Probability is 0.00953698 实体1: 李晓华 实体2: 王大牛 王大牛非常疼爱他的孙女李晓华小朋友。 关系是: No.1: 祖孙, Probability is 0.785542 No.2: 好友, Probability is 0.0829895 No.3: 同门, Probability is 0.0728216 实体1: 李晓华 实体2: 王大牛 谈起曾经一起求学的日子,王大牛非常怀念他的师妹李晓华。 关系是: No.1: 师生, Probability is 0.735982 No.2: 同门, Probability is 0.159495 No.3: 兄弟姐妹, Probability is 0.0440367 实体1: 李晓华 实体2: 王大牛 王大牛对于他的学生李晓华做出的成果非常骄傲! 关系是: No.1: 师生, Probability is 0.994964 No.2: 父母, Probability is 0.00460191 No.3: 夫妻, Probability is 0.000108601 实体1: 李晓华 实体2: 王大牛 王大牛和李晓华是从小一起长大的好哥们 关系是: No.1: 兄弟姐妹, Probability is 0.852632 No.2: 亲戚, Probability is 0.0477967 No.3: 好友, Probability is 0.0433101 实体1: 李晓华 实体2: 王大牛 王大牛的表舅叫李晓华的二妈为大姐 关系是: No.1: 亲戚, Probability is 0.766272 No.2: 父母, Probability is 0.162108 No.3: 兄弟姐妹, Probability is 0.0623203 实体1: 李晓华 实体2: 王大牛 这篇论文是王大牛负责编程,李晓华负责写作的。 关系是: No.1: 合作, Probability is 0.907599 No.2: unknown, Probability is 0.082604 No.3: 上下级, Probability is 0.00730342 实体1: 李晓华 实体2: 王大牛 王大牛和李晓华为谁是论文的第一作者争得头破血流。 关系是: No.1: 合作, Probability is 0.819008 No.2: 上下级, Probability is 0.116768 No.3: 师生, Probability is 0.0448312
-
-
中文知识图谱-基于规则的关系抽取
2020-12-01 15:05:33一、概述:首先基于规则和人工抽取关系词,随后基于抽取的关系词抽取关系句,然后基于人工总结的模板结合同义词和re模块进行模板匹配抽取三元组。二、规则抽取流程1)句子关系词抽取(所谓的关系词就是含有某个关系的... -
bert实践:关系抽取解读
2019-07-31 16:42:46上述图片是其可以完成的几大类任务,ab都是sentence级别的(文本分类,关系抽取等等),cd是tokens级别的(如命名实体识别,知识问答) 下面首先解读一下怎么使用bert代码完成自己任务,一些代码的具体含义,最后... -
利用Bert进行关系抽取
2022-05-09 15:33:18简单来看就是一个多标签分类任务,类别就是上述的那几种关系 接着用预测出来的关系和文本,使用bert搭建一个实体抽取的模型,其简单来看也是一个分类模型,类别是: SUB对应的就是subject,B-SUB就是第一个实体开始... -
谓词概念连通度的中文实体关系抽取策略-- (2014年)
2021-04-24 04:02:33中文实体关系抽取是开放域文本检索与知识发现的研究热点,传统的抽取策略普遍存在人工标注量大,模式通用性受限,关系抽取粒度相对固定等问题,限制了其在开放领域的关系抽取效果。基于概念的结构分层和关系连通,面向... -
零基础入门--中文实体关系抽取(BiLSTM+attention,含代码)
2018-10-07 22:02:23前面写过一片实体抽取的入门,实体关系抽取就是在实体抽取的基础上,找出两个实体...中文实体关系抽取的数据实在是太难找了,我现在只有忘记在哪里找到的一个人物关系数据集。希望同学们能分享一些其他的数据集。... -
ChineseNRE-master.zip_SemEval2010 Task 8_人物关系_人物关系抽取_关系抽取id_关系抽取
2022-07-14 00:03:18深度神经网络,人物关系抽取代码实现,中文实体关系抽取 -
关系抽取调研-工业界
2022-04-11 11:42:53关系抽取调研——工业界目录 1. 任务 1.1. 任务定义 1.2. 数据集 1.3. 评测标准 2. 方法总结 2.1. 基于模板的方法 2.1.1. 基于触发词/字符串 2.1.2. 基于依存句法 2.2. 监督学习 2.2.1. 机器学习 2.2.2. 深度... -
基于协陪义动词的中文隐式实体关系抽取
2021-03-07 16:35:58针对旅游和新闻领域文本经常包含许多由协陪义动词引发的隐式实体关系,本文研究了基于协陪义动词的中文隐式实体关系抽取问题. 将机器学习方法与规则相结合,借助于显式实体关系对隐式实体关系进行推理. 首先,利用...