精华内容
下载资源
问答
  • Pyltp

    千次阅读 2020-05-18 15:59:33
    Pyltp库入门 conda create -n Py3.6 python=3.6 conda activate Py3.6 法一 pip install pyltp 法二 git clone https://github.com/HIT-SCIR/pyltp cd pyltp/ltp git submodule init #初始化本地配置文件 git ...

    Pyltp库入门

    conda create -n Py3.6 python=3.6
    conda activate Py3.6
    

    法一

    pip install pyltp
    

    法二

    git clone https://github.com/HIT-SCIR/pyltp
    cd pyltp/ltp
    git submodule init #初始化本地配置文件
    git submodule update #从该项目中抓取所有数据并检出父项目中列出的合适的提交
    python setup.py install
    

    链接
    Git 工具 - 子模块
    使用Git Submodule管理子模块

    在这里插入图片描述

    在这里插入图片描述

    # 分句
    from pyltp import SentenceSplitter
    sents = SentenceSplitter.split("新华社武汉516日电 武汉市514日部署在全市范围内开展集中核酸检测。\
        16日晚,武汉市卫健委发布集中核酸检测十问十答,便于广大居民全面、准确了解相关情况。")  # 分句
    print('\n'.join(sents))
    
    sudo curl http://model.scir.yunfutech.com/model/ltp_data_v3.4.0.zip --output pyltp.zip
    

    在这里插入图片描述

    unzip pyltp.zip
    

    在这里插入图片描述

    mv ltp_data_v3.4.0 ltp_data
    

    在这里插入图片描述

    展开全文
  • pyltp

    2020-02-11 21:10:04
    github网址:...pyltp 是 LTP 的 Python 封装,提供了分词,词性标注,命名实体识别,依存句法分析,语义角色标注的功能。 1分句 使用 pyltp 进行分句示例如下 from pyltp import S...

    github网址:https://github.com/HIT-SCIR/pyltp
    在线文档:https://pyltp.readthedocs.io/zh_CN/latest/api.html
    参考:https://blog.csdn.net/qq_42851418/article/details/83114328

    pyltp 是 LTP 的 Python 封装,提供了分词,词性标注,命名实体识别,依存句法分析,语义角色标注的功能。

    定义

    分词标注集
    在这里插入图片描述
    词性标注集
    LTP 使用的是863词性标注集,其各个词性含义如下表。

    在这里插入图片描述命名实体识别标注集
    NE识别模块的标注结果采用O-S-B-I-E标注形式,其含义为

    在这里插入图片描述LTP中的NE 模块识别三种NE,分别如下:

    在这里插入图片描述
    依存句法关系

    在这里插入图片描述
    语义角色类型

    在这里插入图片描述

    1分句

    使用 pyltp 进行分句示例如下

    from pyltp import SentenceSplitter
    sents = SentenceSplitter.split('元芳你怎么看?我就趴窗口上看呗!')  # 分句
    print('\n'.join(sents))
    

    结果如下

    元芳你怎么看?
    我就趴窗口上看呗!
    

    2.分词

    2.1 基本分词

    # -*- coding: utf-8 -*-
    import os
    LTP_DATA_DIR = '/path/to/your/ltp_data'  # ltp模型目录的路径
    cws_model_path = os.path.join(LTP_DATA_DIR, 'cws.model')  # 分词模型路径,模型名称为`cws.model`
    
    from pyltp import Segmentor
    segmentor = Segmentor()  # 初始化实例
    segmentor.load(cws_model_path)  # 加载模型
    words = segmentor.segment('元芳你怎么看')  # 分词
    print '\t'.join(words)
    segmentor.release()  # 释放模型
    
    
    元芳  你       怎么      看 !
    

    2.2 使用自定义词典

    只有分词处理的那一句不太一样,参数加上了自定义的词典

    lexicon文件如下:
    在这里插入图片描述

    import os
    LTP_DATA_DIR='D:\Data\ltp_data_v3.4.0'  # ltp模型目录的路径
    cws_model_path = os.path.join(LTP_DATA_DIR, 'cws.model')  # 分词模型路径,模型名称为`cws.model`
    
    from pyltp import Segmentor
    segmentor = Segmentor()  # 初始化实例
    segmentor.load_with_lexicon(cws_model_path, 'lexicon') # 加载模型,第二个参数是您的外部词典文件路径
    words = segmentor.segment('亚硝酸盐是一种化学物质')
    print('\t'.join(words))
    segmentor.release()
    
    [INFO] 2018-08-16 19:18:03 loaded 2 lexicon entries
    亚硝酸盐        是      一      种      化学    物质
    

    3.词性标注(分词后进行标注)

    使用 pyltp 进行词性标注示例如下

    # -*- coding: utf-8 -*-
    import os
    LTP_DATA_DIR = '/path/to/your/ltp_data'  # ltp模型目录的路径
    pos_model_path = os.path.join(LTP_DATA_DIR, 'pos.model')  # 词性标注模型路径,模型名称为`pos.model`
    
    from pyltp import Postagger
    postagger = Postagger() # 初始化实例
    postagger.load(pos_model_path)  # 加载模型
    
    words = ['元芳', '你', '怎么', '看']  # 分词结果
    postags = postagger.postag(words)  # 词性标注
    
    print '\t'.join(postags)
    postagger.release()  # 释放模型
    

    结果如下

    nh  r       r       v
    

    也可使用外部词典进行词性标注
    pyltp 词性标注同样支持用户的外部词典。词性标注外部词典同样为一个文本文件,每行指定一个词,第一列指定单词,第二列之后指定该词的候选词性(可以有多项,每一项占一列),列与列之间用空格区分。示例如下

    雷人 v a
    】 wp
    

    4.命名实体识别(分词和词性标注后进行)

    import os
    LTP_DATA_DIR='D:\Data\ltp_data_v3.4.0'  # ltp模型目录的路径
    ner_model_path = os.path.join(LTP_DATA_DIR, 'ner.model')  # 命名实体识别模型路径,模型名称为`pos.model`
    
    from pyltp import NamedEntityRecognizer
    recognizer = NamedEntityRecognizer() # 初始化实例
    recognizer.load(ner_model_path)  # 加载模型
    
    words = ['元芳', '你', '怎么', '看'] #分词结果
    postags = ['nh', 'r', 'r', 'v']#词性标注结果 
    netags = recognizer.recognize(words, postags)  # 命名实体识别
    
    print('\t'.join(netags))
    recognizer.release()  # 释放模型
    
    S-Nh    O   O   O
    

    LTP 采用 BIESO 标注体系。B 表示实体开始词,I表示实体中间词,E表示实体结束词,S表示单独成实体,O表示不构成命名实体。

    LTP 提供的命名实体类型为:人名(Nh)、地名(Ns)、机构名(Ni)。

    B、I、E、S位置标签和实体类型标签之间用一个横线 - 相连;O标签后没有类型标签。

    5.依存句法分析(分词和词性标注后进行)

    使用 pyltp 进行依存句法分析示例如下

    # -*- coding: utf-8 -*-
    import os
    LTP_DATA_DIR = '/path/to/your/ltp_data'  # ltp模型目录的路径
    par_model_path = os.path.join(LTP_DATA_DIR, 'parser.model')  # 依存句法分析模型路径,模型名称为`parser.model`
    
    from pyltp import Parser
    parser = Parser() # 初始化实例
    parser.load(par_model_path)  # 加载模型
    
    words = ['元芳', '你', '怎么', '看']
    postags = ['nh', 'r', 'r', 'v']
    arcs = parser.parse(words, postags)  # 句法分析
    
    print "\t".join("%d:%s" % (arc.head, arc.relation) for arc in arcs)
    parser.release()  # 释放模型
    

    其中,words 和 postags 分别为分词和词性标注的结果。同样支持Python原生的list类型。

    结果如下

    4:SBV       4:SBV   4:ADV   0:HED
    

    arc. head 表示依存弧的父结点的索引。 ROOT 节点的索引是 0 ,第一个词开始的索引依次为1,2,3,···
    arc. relation 表示依存弧的关系。
    arc.head 表示依存弧的父节点词的索引,arc.relation 表示依存弧的关系。

    利用其他一个图例更简单明白体现该关系
    示例:

    ###############依存句法分析###############
    2:SBV	0:HED	2:VOB	5:ATT	8:ATT	8:ATT	6:RAD	3:VOB
    
    =====依存句法分析=====
    SBV(我, 想)	
    HED(想, Root)
    VOB(听, 想)
    ATT(一, 首)
    ATT(首, 爱)
    ATT(小虎队, 爱)
    RAD(的, 小虎队)
    VOB(爱, 听)
    

    在这里插入图片描述

    6.语义角色标注(分词和词性标注后,还得再加上依存句法分析结果 进行)

    使用 pyltp 进行语义角色标注示例如下

    # -*- coding: utf-8 -*-
    import os
    LTP_DATA_DIR = '/path/to/your/ltp_data'  # ltp模型目录的路径
    srl_model_path = os.path.join(LTP_DATA_DIR, 'srl')  # 语义角色标注模型目录路径,模型目录为`srl`。注意该模型路径是一个目录,而不是一个文件。
    
    from pyltp import SementicRoleLabeller
    labeller = SementicRoleLabeller() # 初始化实例
    labeller.load(srl_model_path)  # 加载模型
    
    words = ['元芳', '你', '怎么', '看']
    postags = ['nh', 'r', 'r', 'v']
    # arcs 使用依存句法分析的结果
    roles = labeller.label(words, postags, arcs)  # 语义角色标注
    
    # 打印结果
    for role in roles:
        print role.index, "".join(
            ["%s:(%d,%d)" % (arg.name, arg.range.start, arg.range.end) for arg in role.arguments])
    labeller.release()  # 释放模型
    

    结果如下

    3 A0:(0,0)A0:(1,1)ADV:(2,2)
    

    第一个词开始的索引依次为0、1、2…

    返回结果 roles 是关于多个谓词的语义角色分析的结果。由于一句话中可能不含有语义角色,所以结果可能为空。

    role.index 代表谓词的索引, role.arguments 代表关于该谓词的若干语义角色。

    arg.name 表示语义角色类型,arg.range.start 表示该语义角色起始词位置的索引,arg.range.end 表示该语义角色结束词位置的索引。

    例如上面的例子,由于结果输出一行,所以“元芳你怎么看”有一组语义角色。 其谓词索引为3,即“看”。这个谓词有三个语义角色,范围分别是(0,0)即“元芳”,(1,1)即“你”,(2,2)即“怎么”,类型分别是A0、A0、ADV。

    arg.name 表示语义角色关系,arg.range.start 表示起始词位置,arg.range.end 表示结束位置。

    示例:

    ### “ 我 / 想 / 看 / 恐龙 / 来 / 了 ”
    1 A0:(0,0)A1:(2,5)
    2 A1:(3,3)
    
    A1:(2,5)	-->看恐龙来了
    A1:(3,3)	-->恐龙
    

    在这里插入图片描述
    对于儿童项动画片名的提取,用到分词﹑词性标注﹑依存句法分析﹑语义角色标注这几步。在词性标注这一步,将动画片名标注为 n ,对于片名中存在其他词性的部分片名,尤其是词性为v的片名(因为会在语义角色标注这一步被识别为谓词),不容易识别出来,因此需要对片名中的部分词语,标注其外部词性。比如:将动画片名“恐龙来了”标注为 n 词性。
    (这一步骤主要针对那些动画片名称中含有其他词性(比如动词)且不易被识别的动画名)

    在语义角色标注这一步中输出 A1 ,输出放入结果列表,即为提取出的动画片名。(对于有多个谓词对应的多个 A1 ,一般输出谓词索引较大时对应的那一个 A1 ,因为对于提取动画片名的语料,只用提取一次信息(即动画片名),所以不用担心 A1 中可能出现非动画片名的信息。

    【 而对于歌手歌曲名的识别,歌手歌曲可能连着作为一个 A1 ,比如“周杰伦的告白气球”,无法分开这两项,比如“我想听周杰伦的告白气球”的结果“周杰伦的告白气球”会作为一个 A1 输出的。】

    使用外部分词词典和外部词性标注词典(比如:把“恐龙来了”作为一个词,标注n词性),得到语义角色标注结果为:

    ###########词性标注##########
    我/r	想/v	看/v	恐龙来了/n
    
    ##########语义角色标注##########
    2 A1:(3,3)
    恐龙来了
    

    语义角色关系:
    (1)核心的语义角色为A0~A5六种:

    在这里插入图片描述
    (2)附加语义角色15个:
    在这里插入图片描述

    ## 依存句法分析与语义依存分析的区别 参考

    https://www.cnblogs.com/CheeseZH/p/5768389.html

    展开全文
  • pyltp:pyltp

    2021-05-10 16:35:18
    pyltp pyltp 是 的 Python 封装。 在使用 pyltp 之前,您需要简要了解 能否帮助您解决问题。 目前基于Pytorch的LTP4 已经发布,而PyLTP将会只有非常有限的维护,请大家移步使用[LTP 4]() 依赖支持情况 Python 2.7, 3...
  • pyltp pyltp 是 语言技术平台(Language Technology Platform, LTP)的 Python 封装。 在使用 pyltp 之前,您需要简要了解 语言技术平台(LTP) 能否帮助您解决问题。 目前基于Pytorch的LTP4 已经发布,而PyLTP...
  • pyltp Demo

    2018-08-14 16:12:00
    #coding: utf-8 ...from pyltp import SentenceSplitter from pyltp import Segmentor from pyltp import Postagger from pyltp import NamedEntityRecognizer from pyltp import Parser from pyltp import ...
    #coding: utf-8
    import os
    from pyltp import SentenceSplitter
    from pyltp import Segmentor
    from pyltp import Postagger
    from pyltp import NamedEntityRecognizer
    from pyltp import Parser
    from pyltp import SementicRoleLabeller
    import re
    # import processHandler
    import pyltpT
    
    #pyltp官方文档http://pyltp.readthedocs.io/zh_CN/develop/api.html#id15
    #http://blog.csdn.net/MebiuW/article/details/52496920
    #http://blog.csdn.net/lalalawxt/article/details/55804384
    
    LTP_DATA_DIR = 'E:\BaiduNetdiskDownload\ltp_data_v3.4.0'  # ltp模型目录的路径
    cws_model_path = os.path.join(LTP_DATA_DIR, 'cws.model')  # 分词模型路径,模型名称为`cws.model`
    pos_model_path = os.path.join(LTP_DATA_DIR, 'pos.model')  # 词性标注模型路径,模型名称为`pos.model`
    ner_model_path = os.path.join(LTP_DATA_DIR, 'ner.model')  # 命名实体识别模型路径,模型名称为`pos.model`
    par_model_path = os.path.join(LTP_DATA_DIR, 'parser.model')  # 依存句法分析模型路径,模型名称为`parser.model`
    srl_model_path = os.path.join(LTP_DATA_DIR, 'pisrl.model')  # 语义角色标注模型目录路径,
    print("======================>>>>"+srl_model_path)
    
    def main():
        #sentence_splitter()
        words = segmentor('我家在中科院,我现在在北京上学。中秋节你是否会想到李白?')
        # print(words)
        tags = posttagger(words)
        netags=ner(words,tags)
        arcs = parse(words,tags)
        roles = role_label(words, tags, netags, arcs)
        print(roles)
    
    
    
    # 分句,也就是将一片文本分割为独立的句子
    def sentence_splitter(sentence='你好,你觉得这个例子从哪里来的?当然还是直接复制官方文档,然后改了下这里得到的。我的微博是MebiuW,转载请注明来自MebiuW!'):
        sents = SentenceSplitter.split(sentence)  # 分句
        print('\n'.join(sents))
    
    
    """分词"""
    def segmentor(sentence=None):
        segmentor = Segmentor()  # 初始化实例
        segmentor.load(cws_model_path)  # 加载模型
        words = segmentor.segment(sentence)  # 分词
        #默认可以这样输出
        print ('\t'.join(words))
        # 可以转换成List 输出
        words_list = list(words)
        segmentor.release()  # 释放模型
        return words_list
    
    
    """词性标注"""
    def posttagger(words):
        #LTP_DATA_DIR = 'E:\BaiduNetdiskDownload\ltp_data_v3.4.0'  # ltp模型目录的路径
    
        postagger = Postagger() # 初始化实例
        postagger.load(pos_model_path)  # 加载模型
        postags = postagger.postag(words)  # 词性标注
        for word,tag in zip(words,postags):
            print(word+'/'+tag)
        postagger.release()  # 释放模型
        return postags
    
    
    """命名实体识别"""
    def ner(words,postags):
        print('命名实体开始')
        recognizer = NamedEntityRecognizer()
        recognizer.load(ner_model_path) #加载模型
        netags = recognizer.recognize(words,postags) #命名实体识别
        for word,ntag in zip(words,netags):
            print(word+'/'+ ntag)
        recognizer.release()   #释放模型
        nerttags = list(netags)
        return nerttags
    
    """依法"""
    def parse(words, postags):
        parser = Parser() # 初始化实例
        parser.load(par_model_path)  # 加载模型
        arcs = parser.parse(words, postags)  # 句法分析
        print("\t".join("%d:%s" % (arc.head, arc.relation) for arc in arcs))
        parser.release()  # 释放模型
        return arcs
    
    
    def role_label(words, postags, netags, arcs):
        labeller = SementicRoleLabeller() # 初始化实例
        labeller.load(srl_model_path)  # 加载模型
        roles = labeller.label(words, postags, netags, arcs)  # 语义角色标注
        for role in roles:
            print(role.index+"".join(
                ["%s:(%d,%d)" % (arg.name, arg.range.start, arg.range.end) for arg in role.arguments]))
        labeller.release()  # 释放模型
        return roles
    
    def testss():
        sentence="600251后市怎样操作?谢谢。"
        hagongdaLTP=pyltpT.PyltpT()
        hagongdalist = hagongdaLTP.ltpmain(sentence)
        sentence1="$精华制药(sz003买入,短线还有机会吗?压力位多少,大概什么价位卖掉合适?谢谢。"
        hagongdaLTP1 = pyltpT.PyltpT()
        hagongdalist2 = hagongdaLTP1.ltpmain(sentence1)
        print(hagongdalist)
        for item in hagongdalist2:
            if 'sh' or 'sz' in item:
                hagongdalist2[hagongdalist2.index(item)]=item[2:8]
            item = re.sub("[\s+\.\!\/_,\[\]:$\-:);%;=^*(+\"\']+|[+——\“!\”,?。?<《》>、~@#¥%……&*()]+", '', item)
            if len(item)==1:
                hagongdalist2.remove(item)
        print(hagongdalist2)
    
    def hagongda2(sentence):
        LTP_DATA_DIR = 'E:\BaiduNetdiskDownload\ltp_data_v3.4.0'  # ltp模型目录的路径
        cws_model_path = os.path.join(LTP_DATA_DIR, 'cws.model')  # 分词模型路径,模型名称为`cws.model`
        cidian_path = os.path.join(LTP_DATA_DIR, 'cidian.txt')
        print(cidian_path)
        segmentor = Segmentor()  # 初始化实例
        segmentor.load_with_lexicon(cws_model_path, cidian_path)  # 加载模型
        sentence = ''.join(sentence.split())
        sentence = re.sub("[\s+\.\!\/_,\[\]:$\-:);%;=^*(+\"\']+|[+——\“!\”,?。?<《》>、~@#¥%……&*()]+", '', sentence)
        words = segmentor.segment(sentence)
        #print(' '.join(words))
        words_list = list(words)
        segmentor.release()
        return words_list
    
    
    def test2():
        LTP_DATA_DIR = 'E:\BaiduNetdiskDownload\ltp_data_v3.4.0'  # ltp模型目录的路径
        cws_model_path = os.path.join(LTP_DATA_DIR, 'cws.model')  # 分词模型路径,模型名称为`cws.model`
        pos_model_path = os.path.join(LTP_DATA_DIR, 'pos.model')  # 词性标注模型路径,模型名称为`pos.model`
        ner_model_path = os.path.join(LTP_DATA_DIR, 'ner.model')  # 命名实体识别模型路径,模型名称为`pos.model`
        par_model_path = os.path.join(LTP_DATA_DIR, 'parser.model')  # 依存句法分析模型路径,模型名称为`parser.model`
        srl_model_path = os.path.join(LTP_DATA_DIR, 'srl')  # 语义角色标注模型目录路径,
    
        segmentor = Segmentor()
        segmentor.load(cws_model_path)
        words = segmentor.segment('亚硝酸盐是一种化学物质')
        print(' '.join(words))
        segmentor.release()
    
    
    def test():
        project_path = "E:\\BaiduNetdiskDownload\\ltp_data_v3.4.0"  # 项目文件夹目录
        # 可设置ltp_test、(cws、pos、par、ner)_cmdline,但是注意各自能用的参数,没有的参数请置空""
        model_exe = "cws_cmdline"  # 又如cws_cmdline
    
        threads_num = " --threads " + str(3)  # 更改线程数
        #last_stage = " --last-stage " + "all"  # 最终步骤,可设置ws、pos、ner、dp、srl、all
        input_path = " --input " + "E:\\BaiduNetdiskDownload\\ltp_data_v3.4.0\\file\\test.txt"  # 输入文件
        seg_lexicon = ""  # 分词用户词典
        pos_lexicon = ""  # 词性标注用户词典
        output_path = "E:\\LTP-project\\file\\out.txt"  # 输出文件
    
        command = "cd " + project_path + " & " + model_exe + threads_num + input_path + " > " + output_path
        os.system(command)
    
    if __name__ == '__main__':
        main()
    展开全文
  • pyltp wheel file

    2019-03-11 21:34:25
    pyltp在pip时出错,需安装此文件。
  • pyltp安装

    2020-06-22 22:27:19
    1.首先安装python3.7和下载pyltp-0.2.1-cp37-cp37m-win_amd64.whl文件 pyltp3.7版本下载地址 链接: https://pan.baidu.com/s/1UL-aBN-gx-5d29m116rZMw 提取码: gxb3 2.将pyltp-0.2.1-cp37-cp37m-win_amd64.whl文件...

    首先我是使用anaconda安装失败后,后面使用原生态的python3.7来安装的,一步成功。

    1.首先安装python3.7和下载pyltp-0.2.1-cp37-cp37m-win_amd64.whl文件
    pyltp3.7版本下载地址
    链接: https://pan.baidu.com/s/1UL-aBN-gx-5d29m116rZMw 提取码: gxb3

    2.将pyltp-0.2.1-cp37-cp37m-win_amd64.whl文件复制到安装目录的Scripts目录下
    3.cd到该目录下执行以下命令进行安装

    pip.exe install pyltp-0.2.1-cp37-cp37m-win_amd64.whl
    

    4.安装成功后如下所示
    在这里插入图片描述
    5.安装成功后,还需要借助模型数据集来进行使用
    https://github.com/HIT-SCIR/ltp/releases
    注意:在使用pisrl时,windows会出现问题,需要使用下面的model来代替包里面的
    http://ltp.ai/download.html

    展开全文
  • pyltp-master

    2018-12-17 16:26:51
    pyltp模块安装包,运行setup即可安装,缺少部件按提示操作
  • import pyltp 怎样安装pyltp

    千次阅读 2018-06-20 17:00:58
    1.http://mlln.cn/2018/01/31/pyltp%E5%9C%A8windows%E4%B8%8B%E7%9A%84%E7%BC%96%E8%AF%91%E5%AE%89%E8%A3%85/ 2.pip install 文件路径
  • Pyltp使用

    2018-05-30 15:08:00
    1.先使用pip安装pyltp-0.2.1-cp36-cp36m-win_amd64.whl 2.再参考API文档进行具体的使用:http://pyltp.readthedocs.io/zh_CN/develop/api.html Pyltp包地址:链接:...
  • pyltp的wheel文件

    2019-03-19 13:56:57
    pyltp的wheel文件,支持python3.5和3.6。下载后在命令行直接pip install即可 pyltp-0.2.1-cp35-cp35m-win_amd64.whl pyltp-0.2.1-cp36-cp36m-win_amd64.whl
  • pyltp实战

    2020-03-04 17:40:10
    #!/usr/bin/python # -*- coding: utf-8 -*- """ Created on Mon Oct 29 09:36:34 ...https://pyltp.readthedocs.io/zh_CN/latest/api.html#id2 注意和准备事项 1. 中文文本编码必须为utf-8。 2. 准备好ltp_data_v...
  • 如何安装pyltp

    2020-04-12 10:50:34
    如何安装pyltp## 如何安装pyltp
  • pyltp wheel文件 3.x

    2021-04-25 16:00:23
    pyltp 3.x 安装pyltp所需文件 pyltp-0.2.1-cp35-cp35m-win_amd64.whl pyltp-0.2.1-cp36-cp36m-win_amd64.whl
  • pip install pyltp==0.1.9.1 model 3.3.1 顺利安装   1.安装python2.7 https://www.python.org/download/releases/2.7/ 下载安装即可  配置环境   2.安装Micorsoft Visual C++ Compiler ...
  • pyltp文档

    千次阅读 2018-02-28 23:07:15
    安装 pyltp 注:由于新版本增加了新的第三方依赖如dynet等,不再支持 windows 下 python2 环境。 使用 pip 安装 使用 pip 安装前,请确保您已安装了 pip $ pip install pyltp 接下来,需要下载 LTP 模型文件...
  • pyltp使用基础

    2020-09-08 08:54:45
    pyltp简单的使用基础
  • 安装pyltp 出现Microsoft Visual C++ 14.0 required! pyltp-0.2.1-cp36-cp36m-win_amd64.whl pyltp-0.2.1-cp35-cp35m-win_amd64.whl
  • pyltp的安装 包

    2018-07-20 23:13:58
    支持python3.6的pyltp,可用于实体识别,文本切词等相关工作
  • Ubuntu安装pyltp

    2020-11-18 09:40:58
    sudo apt install git sudo apt install cmake 安装ltp ...cd ltp pip install -r requirement.txt python setup.py install 回到ltp的上级目录 git clone ...cp -r ltp/ pyltp/ cd pyltp git submodule i
  • pyltp环境的搭建: 在终端安装pyltp时一般会报错: 使用wheel方法: 下载wheels 下面两个文件针对不同的python版本下载一个即可 python-3.5: pyltp-0.2.1-cp35-cp35m-win_amd64.whl ...python-3.6: pyltp-0.2.1-...
  • pyltp 3.6 wheel 文件

    2018-04-25 21:10:10
    pyltp 3.6 wheel 文件,亲测可在win10以及win7环境安装成功
  • pyltp安装wheel文件

    2018-08-23 01:13:25
    完美解决python3.6安装pyltp出现的各类错误,各类vs错误,编译错误均可完美解决

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 773
精华内容 309
关键字:

pyltp