精华内容
下载资源
问答
  • 2022-05-19 16:37:12

    “人才引进落户政策”“企业法人变更登记”“如何办理公积金贷款”……在智慧政务业务中,智能客服能够7*24小时响应群众、企业关于日常事务办理、民生政策、企业经营法规等咨询,大力提升了信息获取的便利性。

    智能问答系统涉及自然语言处理、语音技术、检测技术、文字识别等多项AI技术,已成为了互联网+政企服务不可或缺的组成部分。

    在业务场景中,智能客服聚焦常见问题,将复杂的政策、众多的业务进行细致拆解和梳理,对问题进行分析、匹配与拓展,对政务问答场景进行语义理解,并且用浅显通俗的方式呈现给群众,可提供查询办事指南、了解最新政策和热门问题等技能,赋予了机器像人一样理解和解决用户问题的能力。

    智能人机交互—云问

    语言是人类的思维工具,当计算机具备了处理自然语言的能力,才能展开对于智能世界的真正探索认知。以上提到的“智能客服”正是来自星辰人工智能中台应用之一云问。

    云问以自然语言处理(NLP)、知识图谱、机器学习为核心,依托于星辰人工智能中台提供的各种深度学习的基础框架和模型库,通过组件化的模块,可视化场景配置,让用户轻松实现NLP算法或搭建模型,摆脱代码的束缚,满足各行业应用的需求。

    云问具备自主学习能力。在应对复杂文本和非规范用语时,能够基于语义分析的迁移学习技术,快速建模并准确处理,不断优化应答内容,自动发现新知识点,让知识库不断扩展丰富,提供更加智能和精准的业务服务。同时,云问集成了丰富的数据接口,能够快速对接各类型的结构化、非结构化数据,打通多业务系统,消除数据孤岛。基于大数据分析技术,在人机交互过程,云问对服务流程进行智能化渗透,洞察客户需求,提升客户满意度,挖掘更多价值。

    云问平台有两个核心的任务,分别是自然语言理解与自然语言生成。

    在自然语言理解方面,云问依托于深度学习技术,通过少量标注数据即可提升模型训练效果,提取海量数据的潜在特征,深入理解多模态语言背后的含义;通过准确的结构分析能力,深入分析句法结构,准确判断文字表达的情感倾向;依托大规模的知识图谱深度连接,构建内容之间深度联系,深度挖掘语义关系,提炼非结构化数据的价值信息,辅助决策;云问语言理解技术通过各种基础技术的综合利用,对多种应用场景中冗杂、混乱、含蓄的中文表述实现语义理解。

    机器除了理解自然语言之外,要与人进行交互,语言生成的任务也必不可少。在语言生成方面,云问基于多流机制的语言生成预训练技术,兼顾词、短语等不同粒度的语义信息,显著提升生成效果,通过结构化数据和内容聚合的方式,自动或辅助地帮助用户生成相关知识领域话题。

    云问具备定制优化、可视配置、数据运营等功能于一体,通过人机互动的形式已应用于多个服务场景,商业价值逐步得到市场认可。

    数智化营销,政企服务升级

    在政务、医疗、金融、零售等行业,服务人才短缺、客户群体庞大、咨询频次高、问题重复度高是通病。为解决行业痛点,云问从优化资源、提升用户体验出发、提供响应更快、服务更智慧的智能化服务体验,助力政企客户实现服务和营销数智化转型。

    在政务场景,智慧政务旨在助力政务决策、业务流程优化,提升利企便民的服务体验。云问通过对政务服务流程的智能化渗透,发挥FAQ知识检索问答、任务流程式问答、知识图谱复杂推理问答等方面的技术优势,赋能到政务管理及决策层级,为智慧政务建设提供全方位支持。

    在医疗场景,通过使用云问搜索技能的虚拟助手,经办人员进入到智能检索页面,在检索页面的搜索框内输入相关问题,即可实现对数据后台医保知识的检索。比方说输入“生育政策”一词,云问将应用语言模型和医保领域语料库,对搜索内容进行分词、同近义词挖掘,内容关联性分析等,经办人员可轻松实现检索,满足快速、准确地获取信息的需求。

    在金融场景,“数字人”能够精准理解顾客意图并以拟人的方式高效解决用户问题。云问基于金融行业知识图谱的推荐,通过智能算子分析对话内容,实时画像预测,利⽤个性化智能推荐,向客户推送相关的金融资讯,并提供相关服务。从用户服务端来看,智能推荐能够帮助金融机构实时定位用户核心需求并持续关注用户状态,及时调整服务策略以保证服务质量与用户满意度。

    数字世界中,认知智能核心解决的问题是对人类文明抽象概念的识别与联想,自然语言处理技术作为人类和机器之间沟通的桥梁,它让机器更懂我们,让服务更有温度。云问将助力更多服务场景价值转型升级,实现降本增效,提升各行业数字化、智能化、精细化的管理水平。

    更多相关内容
  • 参考:https://github.com/liuhuanyong/QASystemOnMedicalKG
  • 基于知识图谱问答系统 -- SpringBoot整合Neo4j开发问答系统 代码和资源完整,请尽量自行学习 PS:资源的下载积分会随下载次数自动增加越来越多,如果您积分不够的话可以私信我重置下载分数
  • 基于知识图谱问答系统,BERT做命名实体识别和句子相似度 介绍 本项目主要由两个重要的点组成,一是基于BERT的命名实体识别,二是基于BERT的句子相似度计算,本项目将这两个模块进行融合,构建基于BERT的KBQA问答...
  • 本代码实现是基于python实现的learing question answering over corpora and konwlege bases ,代码实现与论文有所出入,原因是本实现用的语料是中文做训练数据集,其中命名实体认为论文有太多欠缺,而实体识别是...
  • Question Answering over Knowledge Bases
  • 基于知识图谱智能问答系统

    千次阅读 2020-05-31 12:47:52
    公众号关注“ML_NLP” 设为 “星标”,重磅干货,第一时间送达! 来自 |知乎 ...编辑 |机器学习算法与...由于本实验室目前正在使用知识图谱搭建问答系统,故而这里将使用知识图谱的方式构建该智能问答系统。这里...

    公众号关注 “ML_NLP”

    设为 “星标”,重磅干货,第一时间送达!

     

    来自 | 知乎

    地址 | https://zhuanlan.zhihu.com/p/58248608

    作者 | 张墨一

    编辑 | 机器学习算法与自然语言处理公众号

    本文仅作学术分享,若侵权,请联系后台删文处理

     

    1 任务背景:

    本次实验拟设计一个智能问答系统,并应当保证该智能问答系统可以回答5个及其以上的问题。由于本实验室目前正在使用知识图谱搭建问答系统,故而这里将使用知识图谱的方式构建该智能问答系统。这里将构建一个关于歌曲信息的问答系统。以“晴天”为例,本系统应当能够回答晴天的歌词是什么,晴天是哪首专辑的歌曲,该专辑是哪一年发行的,该专辑对应的歌手是谁,该歌手的的基本信息是什么。

    本系统的环境配置过程以及全部代码均已上传Github。下面的文章主要介绍的是系统总体结构以及部分代码解析。

    zhangtao-seu/Jay_KGgithub.com

    2 系统总体工作流程图

    在搭建系统之前,第一步的任务是准备数据。这里的准备的数据包括周杰伦的姓名,个人简介,出生日期,以及发行的所有专辑名字,《叶惠美》专辑的名字,简介以及发行日期,《以父之名》、《晴天》的歌曲名和歌词。

    准备好数据之后,将数据整理成RDF文档的格式。这里采用手工的方式在protégé中构建本体以及知识图谱。本体作为模式层,这里声明了三个类,包括歌手类、专辑类和歌曲类;声明了四种关系,也叫objectProperty,包括include,include_by,release和release_by。其中include和include_by声明为inverseOf关系,表示专辑和歌曲之间的包含和被包含的关系。Release和release_by声明为inverseOf关系表示歌手和专辑之间的发行和被发行的关系;声明了8种数据属性,也叫DataProperty,分别为singer_name,singer_birthday,singer_introduction,album_name,album_introduction,album_release_date,song_name和song_content。将上述准备好的数据以individual和dataProperty的形式写进知识图谱。至此,就准备好了我们的RDF/OWL文件了。

    接着,为了使用RDF查询语言SPARQL做后续的查询操作,这里使用Apache Jena的TDB和Fuseki组件。TDB是Jena用于存储RDF的组件,是属于存储层面的技术。Fuseki是Jena提供的SPARQL服务器,也就是SPARQL endpoint。这一步中,首先利用Jena将RDF文件转换为tdb数据。接着对fuseki进行配置并打开SPARQL服务器,就可以通过查询语句完成对知识图谱的查询。

    最后,将自然语言问题转换成SPARQL查询语句。首先使用结巴分词将自然语言问题进行分词以及词性标注。这里将专辑名字和歌曲名字作为外部词典以保证正确的分词和词性标注。以“叶惠美”为例,结巴分词将“叶惠美”标注为nr,即人名,这里“叶惠美”作为专辑名字应该标注为nz,即专有名词。对于不同类型的问题,我们将问题匹配给不同的查询语句生成函数从而得到正确的查询语句。将查询语句作为请求参数和Fuseki服务器通信就能得到相应的问题结果。上述工作流程图如图2-1所示。

     

     

    图2-1 系统工作流程图

    3 系统实现

    3.1 系统实现工具和环境

    使用protégé构建知识库的本体和知识图谱。首先是定义模式层,包括class,objectProperty和dataProperty。以歌曲类为例,其RDF代码为:

    <!-- http://www.semanticweb.org/张涛/ontologies/2019/1/untitled-ontology-32#歌曲 -->
    <owl:Class rdf:about="http://www.semanticweb.org/张涛/ontologies/2019/1/untitled-ontology-32#歌曲">
     <rdfs:subClassOf>
     <owl:Restriction>
     <owl:onProperty rdf:resource="http://www.semanticweb.org/张涛/ontologies/2019/1/untitled-ontology-32#song_content"/>
     <owl:allValuesFrom rdf:resource="http://www.w3.org/2001/XMLSchema#string"/>
     </owl:Restriction>
     </rdfs:subClassOf>
     <rdfs:subClassOf>
     <owl:Restriction>
     <owl:onProperty rdf:resource="http://www.semanticweb.org/张涛/ontologies/2019/1/untitled-ontology-32#song_name"/>
     <owl:allValuesFrom rdf:resource="http://www.w3.org/2001/XMLSchema#string"/>
     </owl:Restriction>
     </rdfs:subClassOf>
    </owl:Class>

    可以看出class “歌曲”包含了song_name和song_content两个dataProperty。以include的关系为例,其RDF代码如下:

    <!-- http://www.semanticweb.org/张涛/ontologies/2019/1/untitled-ontology-32#include -->
    <owl:ObjectProperty rdf:about="http://www.semanticweb.org/张涛/ontologies/2019/1/untitled-ontology-32#include">
    <owl:inverseOf rdf:resource="http://www.semanticweb.org/张涛/ontologies/2019/1/untitled-ontology-32#include_by"/>
    <rdfs:domain rdf:resource="http://www.semanticweb.org/张涛/ontologies/2019/1/untitled-ontology-32#专辑"/>
    <rdfs:range rdf:resource="http://www.semanticweb.org/张涛/ontologies/2019/1/untitled-ontology-32#歌曲"/>
    </owl:ObjectProperty>

    可以看出该关系和include_by是inverseOf的关系,其关系主语是专辑,宾语是歌曲。以singer_introduction的dataProperty为例,其RDF代码如下:

    <!-- http://www.semanticweb.org/张涛/ontologies/2019/1/untitled-ontology-32#singer_introduction -->
    <owl:DatatypeProperty rdf:about="http://www.semanticweb.org/张涛/ontologies/2019/1/untitled-ontology-32#singer_introduction">
    <rdfs:domain rdf:resource="http://www.semanticweb.org/张涛/ontologies/2019/1/untitled-ontology-32#歌手"/>
    <rdfs:range rdf:resource="http://www.w3.org/2001/XMLSchema#string"/>
    </owl:DatatypeProperty>

    可以看出其主语是歌手类,其宾语是字符串。

    接着是数据层。图3-1和图3-2是系统的知识图谱可视化的结果。可以看出,“七里香”是一个专辑,“东风破”是一首歌曲。

     

     

     

    图3-1专辑知识图谱可视化

     

     

     

    图3-2 歌曲知识图谱可视化

    使用Feseki启动SPARQL服务器,可以在localhost:3030中实现数据的查询。以查询“以父之名”的专辑为例,图3-3展示其查询代码和查询结果,可以看出如下语句可以得到查询结果“叶惠美”。

     

     

     

    图3-3 Feseki平台的查询情况

    3.2 自然语言处理核心代码分析

    使用结巴分词将自然语言句子实现分词和词性标注。其核心代码如下:

    import jieba
    import jieba.posseg as pseg
    class Word(object):
    def __init__(self, token, pos):
     self.token = token
     self.pos = pos
    class Tagger:
    def __init__(self, dict_paths):
     # TODO 加载外部词典
     for p in dict_paths:
     jieba.load_userdict(p)
    @staticmethod
    def get_word_objects(sentence):
     # 把自然语言转为Word对象
     return [Word(word.encode('utf-8'), tag) for word, tag in pseg.cut(sentence)]

    这段代码可以将句子作为一个输入,输出句子的分子和词性,以“叶惠美是什么发布的?”为例,可以得到以下结果:

     

     

     

    图3-4 结巴分词示意图

    将句子作为参数传递给Rule对象,根据关键字匹配相一致的查询语句的生成函数,Rule对象和关键字匹配的代码如下:

    from refo import finditer, Predicate, Star, Any, Disjunction
    import re
     
    class W(Predicate):
     def __init__(self, token=".*", pos=".*"):
     self.token = re.compile(token + "$")
     self.pos = re.compile(pos + "$")
     super(W, self).__init__(self.match)
     
     def match(self, word):
     m1 = self.token.match(word.token.decode("utf-8"))
     m2 = self.pos.match(word.pos)
     return m1 and m2
     
    class Rule(object):
     def __init__(self, condition_num, condition=None, action=None):
     assert condition and action
     self.condition = condition
     self.action = action
     self.condition_num = condition_num
     
     def apply(self, sentence):
     matches = []
     for m in finditer(self.condition, sentence):
     i, j = m.span()
     matches.extend(sentence[i:j])
     return self.action(matches), self.condition_num
    # TODO 定义关键词
    pos_person = "nr"
    pos_song = "nz"
    pos_album = "nz"
    person_entity = (W(pos=pos_person))
    song_entity = (W(pos=pos_song))
    album_entity = (W(pos=pos_album))
    singer = (W("歌手") | W("歌唱家") | W("艺术家") | W("艺人") | W("歌星"))
    album = (W("专辑") | W("合辑") | W("唱片"))
    song = (W("歌") | W("歌曲"))
    birth = (W("生日") | W("出生") + W("日期") | W("出生"))
    english_name = (W("英文名") | W("英文") + W("名字"))
    introduction = (W("介绍") | W("是") + W("谁") | W("简介"))
    song_content = (W("歌词") | W("歌") | W("内容"))
    release = (W("发行") | W("发布") | W("发表") | W("出"))
    when = (W("何时") | W("时候"))
    where = (W("哪里") | W("哪儿") | W("何地") | W("何处") | W("在") + W("哪"))
     
    # TODO 问题模板/匹配规则
    """
    1.周杰伦的专辑都有什么?
    2.晴天的歌词是什么?
    3.周杰伦的生日是哪天?
    4.以父之名是哪个专辑里的歌曲?
    5.叶惠美是哪一年发行的?
    """
    rules = [
     Rule(condition_num=2, condition=person_entity + Star(Any(), greedy=False) + album + Star(Any(), greedy=False), action=QuestionSet.has_album),
     Rule(condition_num=2, condition=song_entity + Star(Any(), greedy=False) + song_content + Star(Any(), greedy=False),
     action=QuestionSet.has_content),
     Rule(condition_num=2, condition=person_entity + Star(Any(), greedy=False) + introduction + Star(Any(), greedy=False),
     action=QuestionSet.person_inroduction),
     Rule(condition_num=2, condition=song_entity + Star(Any(), greedy=False) + album + Star(Any(), greedy=False),
     action=QuestionSet.stay_album),
     Rule(condition_num=2, condition=song_entity + Star(Any(), greedy=False) + release + Star(Any(), greedy=False),
     action=QuestionSet.release_album),
    ]

    匹配成功后,通过action动作出发相对应的函数能够生成相对应的查询语句。以查询“以父之名是哪个专辑的歌曲?”为例,其生成查询语句的代码如下:

    # TODO SPARQL前缀和模板
    SPARQL_PREXIX = u"""
    PREFIX owl: <http://www.w3.org/2002/07/owl#>
    PREFIX rdfs: <http://www.w3.org/2000/01/rdf-schema#>
    PREFIX xsd: <http://www.w3.org/2001/XMLSchema#>
    PREFIX : <http://www.semanticweb.org/张涛/ontologies/2019/1/untitled-ontology-32#>
    """
    SPARQL_SELECT_TEM = u"{prefix}\n" + \
     u"SELECT {select} WHERE {{\n" + \
     u"{expression}\n" + \
     u"}}\n"
    class QuestionSet:
    @staticmethod
     def stay_album(word_object):
     # 以父之名是哪个专辑的歌曲
     select = u"?x"
     sparql = None
     
     for w in word_object:
     if w.pos == pos_song:
     e = u" :{song} :include_by ?o."\
     u" ?o :album_name ?x.".format(song=w.token.decode('utf-8'))
     sparql = SPARQL_SELECT_TEM.format(prefix=SPARQL_PREXIX,
      select=select,
     expression=e)
     break
     return sparql
    最后,将得到的查询语句作为请求参数和SPARQL服务器进行通信并对得到的结果进行解析就能得到我们想要的答案,其核心代码如下:
    from SPARQLWrapper import SPARQLWrapper, JSON
    from collections import OrderedDict
     
     
    class JenaFuseki:
     def __init__(self, endpoint_url='http://localhost:3030/jay_kbqa/sparql'):
     self.sparql_conn = SPARQLWrapper(endpoint_url)
     
     def get_sparql_result(self, query):
     self.sparql_conn.setQuery(query)
     self.sparql_conn.setReturnFormat(JSON)
     return self.sparql_conn.query().convert()
     
     @staticmethod
     def parse_result(query_result):
     """
     解析返回的结果
     :param query_result:
     :return:
     """
     try:
     query_head = query_result['head']['vars']
     query_results = list()
     for r in query_result['results']['bindings']:
     temp_dict = OrderedDict()
     for h in query_head:
      temp_dict[h] = r[h]['value']
     query_results.append(temp_dict)
     return query_head, query_results
     except KeyError:
     return None, query_result['boolean']

    以上就是将自然语言转换成SPARQL查询语言并与Feseki进行通信的核心代码。

    3.3 代码运行结果

    这里分别从歌手的简介,专辑的发行时间,歌手的所有专辑,歌曲属于哪个专辑以及歌曲的歌词等5类问题做问答,均能达到良好的表现效果。其问答情况如图3-5所示。

     

     

    图3-5 问答系统运行结果实例

    最后:

    代码部分参考了:

    知识图谱-给AI装个大脑zhuanlan.zhihu.com

    配置部分参考了:

    https://blog.csdn.net/keyue123/article/details/85266355blog.csdn.net

     

    重磅!忆臻自然语言处理-学术微信交流群已成立

    可以扫描下方二维码,小助手将会邀请您入群交流,

    注意:请大家添加时修改备注为 [学校/公司 + 姓名 + 方向]

    例如 —— 哈工大+张三+对话系统。

    号主,微商请自觉绕道。谢谢!

     

     

    推荐阅读:

    PyTorch Cookbook(常用代码段整理合集)

    通俗易懂!使用Excel和TF实现Transformer!

    深度学习中的多任务学习(Multi-task-learning)——keras实现

    展开全文
  • 本代码实现是基于python实现的基于复旦大学崔万云博士的learing question answering over corpora and konwlege bases ,代码实现与论文有所出入,原因是本实现用的语料是中文做训练数据集,其中命名实体认为论文有...
  • 该项目基于医疗信息,利用neo4j构建知识图谱,最后根据刘焕勇老师的开源项目(https://github.com/liuhuanyong/QASystemOnMedicalKG)搭建问答系统
  • 复旦大学博士论文,系统而全面地介绍了基于知识图谱智能问答相关关键技术
  • 基于知识图谱的自动问答系统,有代码,和说明文档,大家可以看看.很很好的知识图谱的入门案例代码
  • 基于neo4j知识图谱智能问答系统

    千次阅读 2022-02-28 20:17:59
    本项目采用neo4j作为数据库,存储了知识题库。用户可以根据提示深入去了解问题。属于一款简易版的智能问答系统

    项目介绍

    本项目采用neo4j作为数据库,存储了知识题库。用户可以根据提示深入去了解问题。属于一款简易版的智能问答系统。
    服务端使用技术:python+django框架
    前台使用:html+css+jquery
    已实现功能:
    数据的批量导入,有模板(xls格式),可以自定义导入多个层级的问答信息。
    前台页面的智能问答
    可以作为某些系统的附带问答模块,或者AI智能回复服务。
    在这里插入图片描述
    数据库截图:
    在这里插入图片描述

    展开全文
  • 清华大学人工智能研究院院长张钹院士2020年发表署名文章,首次全面阐述第三代人工智能的理念,提出第三代人工智能的发展路径是融合第一代的知识驱动和第二代的数据驱动的人工智能基于知识图谱的推...

    清华大学人工智能研究院院长张钹院士2020年发表署名文章,首次全面阐述第三代人工智能的理念,提出第三代人工智能的发展路径是融合第一代的知识驱动和第二代的数据驱动的人工智能。基于知识图谱的推理,恰恰体现了第三代人工智能的特点。

    知识图谱可以说是整个AI的未来,是实现人工智能从“感知”跃升到“认知”的基础。近年来,作为实现认知智能的核心驱动力,已广泛应用在金融、电商、医疗、政务等诸多领域。

    (来源:艾瑞咨询)

    但知识图谱是一项庞大而复杂的工程,涉及知识工程、自然语言处理、数据库、机器学习等多个学科的知识。

    很多初学者受限于知识图谱庞大的知识面,在众多的知识点中很难理清知识体系,往往无从着手学习;

    并且其技术栈较长,掌握知识图谱整个知识框架需要很长时间;

    同时,遇到问题时如果得不到及时解答,会逐渐失去热情直至放弃。

    基于此,深蓝学院教研团队推出『知识图谱理论与实践』线上课程。课程详细讲解知识图谱各个生命周期的主流方法,让大家系统学习整个知识图谱框架体系、落地方法、应用场景,并最终完成问答系统的实践项目,帮助大家高效入门知识图谱。

    科学系统的学习内容

    (点击查看大图)

    实践项目

    课程细致讲解理论的同时,结合知识图谱各个阶段的核心技术通过实践项目,帮助大家对知识图谱有更广泛的认识。

    (点击查看大图)

    受疫情影响,基于以往6期线下课程,迭代本期精品线上课程

    第六期集训(北京场)班级同学合影

    (第一、二期线下课程老师答疑环节)

    学完课程可以收获

    理论上

    1、掌握以知识图谱为代表的知识工程的基本问题和基本方法;

    2、系统性的掌握知识图谱生命周期各阶段核心技术原理。

    实践上

    1、具备编程实现知识图谱各阶段经典算法 ;

    2、学会使用经典的知识图谱相关软件;

    3、 掌握知识图谱案例研发脉络,能简单实现基于知识图谱的问答系统。

    还可以收获

    1. 优质的学习圈子

    伙伴们大多是来自985、211及海外院校硕博,在这里大家一起学习、进行讨论与研究。独一无二的优质圈子将是你未来学习与就业的宝贵资源。

    (本期已报名学员学校展示)

    2. 企业认可的证书

    学完课程后将有机会收获优秀学员证书、毕业证书,为你的简历加分添彩。

    精益求精的课程服务

    1. 三师助力

    讲师&助教及时答疑解惑,班主任全程带班督学,帮你克服拖延,不断进步。

    2. 定期班会

    助教会对作业进行1V1讲评和指导;在班会中,学习更多技巧;在交流中收获更多思路。


    抢占优惠名额

    现在报名,立即优惠200元

    最后24个大额优惠名额

    备注“ 19 ”,优先通过哦~

    添加客服『叶子』

    咨询更多

    展开全文
  • Python+Neo4j医药知识图谱自动问答系统源码,知识图谱构建,自动问答,基于kg的自动问答。以疾病为中心的一定规模医药领域知识图谱,并以该知识图谱完成自动问答与分析服务。
  • 基于电影知识图谱智能问答系统,有助于搭建基于import-基于电影知识图谱智能问答系统
  • 基于知识图谱智能问答机器人
  • 基于知识图谱的电网模型本体智能问答系统研究.pdf
  • 知识图谱智能问答在很多行业、领域可以带来很好的交互体验,为我们节省大量的时间。在经历过蒸汽时代、电气时代和信息时代之后,人类社会正处在迈进智能化时代的阶段中。近十年人工智能技术迅速发展,这也在在这次...
  • Spring-Boot集成Neo4j并利用Spark的朴素贝叶斯分类器实现基于电影知识图谱智能问答系统
  • 一个简单的问答系统,只不过这其中的构建过程是基于知识图谱。主要的使用的工具(AKA,重点)有protégé(用于知识图谱的建模)、jena数据库(其为一个基于三元组的图数据库,用于完成知识图谱的存储)、Python中的...
  • 【博客源代码】课程设计-在校整理-10 基于知识图谱的医疗智能问答小程序实现示例源代码与数据文件
  • 基于知识图谱智能问答项目

    千次阅读 多人点赞 2021-01-25 10:25:16
    在此基础上研究基于语义解析的问答匹配,通过对领域知识进行知识图谱表示、构建问答模型,综合应用了文本映射,SPARQL查询等技术实现智能问答机器人系统。项目中问答算法的设计与知识图谱的构建参考了GitHub中的开源...
  • 本代码实现是基于python实现的基于复旦大学崔万云博士的learing question answering over corpora and konwlege bases ,代码实现与论文有所出入,原因是本实现用的语料是中文做训练数据集,其中命名实体认为论文有...
  • 基于知识图谱智能问答机器
  • 知识图谱技术是实现机器认知智能和推动各行业智能化发展的关键基础技术。知识图谱也成为大规模知识工程的代表性实践,其学科日益完善。 本讲义是配套《知识图谱_ 概念与技术》书籍的讲义,配套学习更佳!!!
  • neo4j图数据库+python+知识图谱(适用于毕业/课程设计)
  • 一个简单的基于知识图谱问答系统 数据集:数据集为2019年语言智能大赛的关系撤除数据集 实体识别模型:利用Transformer模型进行实体识别(以后会变更为bert) 事实识别:自己构造了几十条数据,利用逻辑回归进行...
  • 1-4+基于知识图谱问答在O2O智能交互场景中的应用和演进

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 5,734
精华内容 2,293
关键字:

基于知识图谱的智能问答系统

友情链接: jHuffman_javaa.rar