精华内容
下载资源
问答
  • 自然语言处理python

    2018-06-10 09:48:48
    我看到的最好的自然语言处理方面的资料,特意拿出来分享,已经整理好,5个积分,也不贵了
  • 自然语言处理python(英文版) 用自然语言处理python(英文版) 用自然语言处理python(英文版) 用自然语言处理python(英文版)
  • 自然语言处理Python和NLTK 自然语言处理Python和NLTK的代码存储库 ##您将学到的内容: 了解自然语言的复杂性以及机器如何处理自然语言 使用标记化和分块来清理和纠缠文本,以帮助您更好地处理数据 将文本标记为...
  • Stanza:斯坦福NLP自然语言处理Python工具包,NER有很大改进(支持中文) Stanza:适用于多种人类语言的 Python NLP 库 斯坦福 NLP 集团的官方 Python NLP 库。 它支持在 60 多种语言上运行各种准确的自然语言处理...
  • 斯坦福NLP团队,于1月29日发布了新版的自然语言处理Python库:StandfordNLP,不同于以前java系的CoreNLP, 这次的项目是一个全新Python库,内部基于PyTorch 1.0。小编刚刷完文档,个人觉得,这是目前最值得学习的自然...

    https://www.toutiao.com/a6655115885528744456/

     

    斯坦福NLP团队,于1月29日发布了新版的自然语言处理Python库:StandfordNLP,不同于以前java系的CoreNLP, 这次的项目是一个全新Python库,内部基于PyTorch 1.0。小编刚刷完文档,个人觉得,这是目前最值得学习的自然语言处理算法库了!现在分享给大家。

    斯坦福NLP团队发布最新自然语言处理Python库

     

     

    版本特性

    新版的StandfordNLP包含以下特性:

    • 纯python库,没有什么设置项,pip install后直接可用
    • 拥有自然语言处理所需的几乎所有方法
    • 包含预训练模型,支持73个树库中的53种语言
    • 与斯坦福CoreNLP无缝联动
    • 斯坦福NLP团队出品,质量有保证

    安装

    pip install stanfordnlp
    

    使用

    >>> import stanfordnlp
    >>> stanfordnlp.download('en') # 这会下载英语的神经网络模型
    >>> nlp = stanfordnlp.Pipeline() # 获取一个默认的英语语言处理流程
    >>> doc = nlp("Barack Obama was born in Hawaii. He was elected president in 2008.")
    >>> doc.sentences[0].print_dependencies()
    ('Barack', '4', 'nsubj:pass')
    ('Obama', '1', 'flat')
    ('was', '4', 'aux:pass')
    ('born', '0', 'root')
    ('in', '6', 'case')
    ('Hawaii', '4', 'obl')
    ('.', '4', 'punct')
    

     


     

    中文demo

    >>> import stanfordnlp
    >>> stanfordnlp.download('zh') # 下载中文模型
    >>> nlp = stanfordnlp.Pipeline(lang='zh') # 中文语言处理流程
    >>> doc = nlp("達沃斯世界經濟論壇是每年全球政商界領袖聚在一起的年度盛事。")
    >>> doc.sentences[0].print_tokens() # 打印token
    達沃斯	達沃斯	PROPN
    世界	世界	NOUN
    經濟	經濟	NOUN
    論壇	論壇	NOUN
    是	是	AUX
    每年	每年	DET
    全球	全球	NOUN
    政	政	PART
    商界	商界	NOUN
    領袖	領袖	NOUN
    聚	聚	VERB
    在	在	VERB
    一起	一起	NOUN
    的	的	PART
    年度	年度	NOUN
    盛事	盛事	NOUN
    。	。	PUNCT
    >>> doc.sentences[0].print_dependencies() # 打印依存分析树
    ('達沃斯', '4', 'nmod')
    ('世界', '4', 'nmod')
    ('經濟', '4', 'nmod')
    ('論壇', '16', 'nsubj')
    ('是', '16', 'cop')
    ('每年', '10', 'nmod')
    ('全球', '10', 'nmod')
    ('政', '9', 'case:pref')
    ('商界', '10', 'nmod')
    ('領袖', '11', 'nsubj')
    ('聚', '16', 'acl:relcl')
    ('在', '11', 'mark')
    ('一起', '11', 'obj')
    ('的', '11', 'mark:relcl')
    ('年度', '16', 'nmod')
    ('盛事', '0', 'root')
    ('。', '16', 'punct')
    

     


    Pipeline的配置

    在StandfordNLP里,Pipline配置了StandfordNLP怎么处理数据,比如英文的默认是Token,Lemma等,而中文的是分词,Token等。完整的Pipline配置见下图:

    import stanfordnlpconfig = {
    'processors': 'tokenize,mwt,pos,lemma,depparse', # 配置调用该Pipline需要用到的模型,
    lang': 'fr', # 配置该Pipline所处理的目标语言
    # 配置用到的模型,及其模型路径,注意,这里的模型都是PyTorch的
    # 你也可以自己训练自己的模型
    'tokenize_model_path': './fr_gsd_models/fr_gsd_tokenizer.pt',
    'mwt_model_path': './fr_gsd_models/fr_gsd_mwt_expander.pt',
    'pos_model_path': './fr_gsd_models/fr_gsd_tagger.pt',
    'pos_pretrain_path': './fr_gsd_models/fr_gsd.pretrain.pt',
    'lemma_model_path': './fr_gsd_models/fr_gsd_lemmatizer.pt',
    'depparse_model_path': './fr_gsd_models/fr_gsd_parser.pt',
    'depparse_pretrain_path': './fr_gsd_models/fr_gsd.pretrain.pt'
    }
    nlp = stanfordnlp.Pipeline(**config) # 根据配置初始化Pipline
    doc = nlp("Van Gogh grandit au sein d'une famille de l'ancienne bourgeoisie.") # 将Pipline运用到句子上
    doc.sentences[0].print_tokens() # 查看结果
    

    更多信息,请访问该库的github地址:

    https://github.com/stanfordnlp/stanfordnlp
    展开全文
  • 最新深度学习资源 PDF文件文字版 Python 完整资源 英文版 简洁易懂
  • 数据挖掘、机器学习、自然语言处理Python工具包(持续更新) 科学计算Python包 Numpy Numpy中文学习文档 Numpy官方文档 Numpy是一个功能强大的Python库,主要用于对多维数组执行计算。Numpy这个词来源于两个单词-- ...

    数据挖掘、机器学习、自然语言处理Python工具包(持续更新)

    科学计算Python包

    Numpy

    在这里插入图片描述

    Numpy是一个功能强大的Python库,主要用于对多维数组执行计算。Numpy这个词来源于两个单词-- NumericalPythonNumpy提供了大量的库函数和操作,可以帮助程序员轻松地进行数值计算。这类数值计算广泛用于以下任务:

    • 机器学习模型:在编写机器学习算法时,需要对矩阵进行各种数值计算。例如矩阵乘法、换位、加法等。Numpy提供了一个非常好的库,用于简单(在编写代码方面)和快速(在速度方面)计算。Numpy数组用于存储训练数据和机器学习模型的参数。

    • 图像处理和计算机图形学:计算机中的图像表示为多维数字数组。Numpy成为同样情况下最自然的选择。实际上,Numpy提供了一些优秀的库函数来快速处理图像。例如,镜像图像、按特定角度旋转图像等。

    • 数学任务:Numpy对于执行各种数学任务非常有用,如数值积分、微分、内插、外推等。因此,当涉及到数学任务时,它形成了一种基于PythonMATLAB的快速替代。

    Pandas

    在这里插入图片描述
    pandas是一个开源的,BSD许可的库,为Python编程语言提供高性能,易于使用的数据结构和数据分析工具。

    Scipy

    在这里插入图片描述
    Scipy是一个用于数学、科学、工程领域的常用软件包,可以处理插值、积分、优化、图像处理、常微分方程数值解的求解、信号处理等问题。它用于有效计算Numpy矩阵,使NumpyScipy协同工作,高效解决问题。

    机器学习算法包

    Scikit-learn

    在这里插入图片描述
    scikit-learn(简记sklearn),是用python实现的机器学习算法库。sklearn可以实现数据预处理、分类、回归、降维、模型选择等常用的机器学习算法。

    深度学习常用包

    Tensorflow

    在这里插入图片描述
    TensorFlow™是一个采用数据流图(data flow graphs),用于数值计算的开源软件库。节点(Nodes)在图中表示数学操作,图中的线(edges)则表示在节点间相互联系的多维数据数组,即张量(tensor)。它灵活的架构让你可以在多种平台上展开计算,例如台式计算机中的一个或多个CPU(或GPU),服务器,移动设备等等。TensorFlow 最初由Google大脑小组(隶属于Google机器智能研究机构)的研究员和工程师们开发出来,用于机器学习和深度神经网络方面的研究,但这个系统的通用性使其也可广泛用于其他计算领域。

    Keras

    在这里插入图片描述
    Keras是一个高层神经网络APIKeras由纯Python编写而成并基于TensorflowTheano以及CNTK后端。Keras 为支持快速实验而生,能够把你的idea迅速转换为结果。

    自然语言处理常用包

    gensim

    在这里插入图片描述
    Gensim是一款开源的第三方Python工具包,用于从原始的非结构化的文本中,无监督地学习到文本隐层的主题向量表达。 它支持包括TF-IDFLSALDA,和word2vec在内的多种主题模型算法, 支持流式训练,并提供了诸如相似度计算,信息检索等一些常用任务的API接口。

    NLTK

    NLTK是一个高效的Python构建的平台,用来处理人类自然语言数据。它提供了易于使用的接口,通过这些接口可以访问超过50个语料库和词汇资源(如WordNet),还有一套用于分类、标记化、词干标记、解析和语义推理的文本处理库,以及工业级NLP库的封装器和一个活跃的讨论论坛

    数据可视化常用包

    Matplotlib

    在这里插入图片描述
    Matplotlibpython上的一个2D绘图库,是Python中最常用的可视化工具之一。它可以在夸平台上边出很多高质量的图像。综旨就是让简单的事变得更简单,让复杂的事变得可能。我们可以用matplotlib生成绘图、直方图、功率谱、柱状图、误差图、散点图等 。

    Senborn

    在这里插入图片描述
    Seaborn是一个用Python制作统计图形的库。它建立在matplotlib之上,并与pandas数据结构紧密集成。Seaborn旨在使可视化成为探索和理解数据的核心部分。其面向数据集的绘图功能对包含整个数据集的数据框和数组进行操作,并在内部执行必要的语义映射和统计聚合,以生成信息图。

    展开全文
  • python字符串的简单使用 namesList = ['Tuffy','Ali','Nysha','Tim' ] sentence = 'My dog sleeps on sofa' names = ';'.join(namesList) print(type(names), ':', names) wordList = sentence.split(' ') print(...

    python字符串的简单使用

    namesList = ['Tuffy','Ali','Nysha','Tim' ]
    sentence = 'My dog sleeps on sofa'
    
    names = ';'.join(namesList)
    print(type(names), ':', names)
    wordList = sentence.split(' ')
    print((type(wordList)), ':', wordList)
    additionExample = 'ganehsa' + 'ganesha' + 'ganesha'
    multiplicationExample = 'ganesha' * 2
    print('Text Additions :', additionExample)
    print('Text Multiplication :', multiplicationExample)
    str = 'Python NLTK'
    print(str[1])
    print(str[-3])
    

    使用python读取pdf

    from PyPDF2 import PdfFileReader
    
    def getTextPDF(pdfFileName, password = ''):
        # 打开
        pdf_file = open(pdfFileName, 'rb')
        # 读取
        read_pdf = PdfFileReader(pdf_file)
        if password != '':
            read_pdf.decrypt(password)
        text = []
        for i in range(0,read_pdf.getNumPages()):
            # 转化为文本
            text.append(read_pdf.getPage(i).extractText())
        return '\n'.join(text)
    pdfFile = 'sample-one-line.pdf'
    pdfFileEncrypted = 'sample-one-line.protected.pdf'
    
    print('PDF 1: \n',pdf.getTextPDF(pdfFile))
    print('PDF 2: \n',pdf.getTextPDF(pdfFileEncrypted,'tuffy'))
    
    PDF 1: 
     This is a sample PDF document I am using to demonstrate in the tutorial.
     
    
    PDF 2: 
     This is a sample PDF document
    

    读取word

    import docx
    
    def getTextWord(wordFileName):
        doc = docx.Document(wordFileName)
        fullText = []
        for para in doc.paragraphs:
            fullText.append(para.text)
        return '\n'.join(fullText)
    
    
    
    docName = 'sample-one-line.docx'
    print('Document in full :\n',word.getTextWord(docName))
    
    doc = docx.Document(docName)
    print('Number of paragraphs :',len(doc.paragraphs))
    print('Paragraph 2:',doc.paragraphs[1].text)
    print('Paragraph 2 style:',doc.paragraphs[1].style)
    print('Paragraph 1:',doc.paragraphs[0].text)
    print('Number of runs in paragraph 1:',len(doc.paragraphs[0].runs))
    for idx, run in enumerate(doc.paragraphs[0].runs):
        print('Run %s : %s' %(idx,run.text))
    
    print('is Run 0 underlined:',doc.paragraphs[0].runs[5].underline)
    print('is Run 2 bold:',doc.paragraphs[0].runs[1].bold)
    print('is Run 7 italic:',doc.paragraphs[0].runs[3].italic)
    
    Document in full :
     This is a sample PDF document with some text in BOLD, some in ITALIC and some underlined. We are also embedding a Title down below.
    This is my TITLE.
    This is my third paragraph.
    Number of paragraphs : 3
    Paragraph 2: This is my TITLE.
    Paragraph 2 style: _ParagraphStyle('Title') id: 2164251707992
    Paragraph 1: This is a sample PDF document with some text in BOLD, some in ITALIC and some underlined. We are also embedding a Title down below.
    Number of runs in paragraph 1: 8
    Run 0 : This is a sample PDF document with 
    Run 1 : some text in BOLD
    Run 2 : , 
    Run 3 : some in ITALIC
    Run 4 :  and 
    Run 5 : some underlined.
    Run 6 :  We are also embedding a Title down below
    Run 7 : .
    is Run 0 underlined: True
    is Run 2 bold: True
    is Run 7 italic: True
    

    在这里插入图片描述

    feedparser

    import feedparser
    # 全球之声
    myFeed = feedparser.parse("http://feeds.mashable.com/Mashable")
    print('Feed Title :', myFeed['feed']['title'])
    print('Number of posts :', len(myFeed.entries))
    post = myFeed.entries[0]
    print('Post Title :',post.title)
    content = post.content[0].value
    print('Raw content :\n',content)
    
    展开全文
  • from nltk.corpus import reuters #加载路透语料库 files = reuters.fileids() print(len(files)) # 10788 words16097 = reuters.words(['test/16097']) print(words16097) 什么是语料 就是一个个txt,一个txt就是...
    from nltk.corpus import reuters #加载路透语料库
    files = reuters.fileids()
    print(len(files)) # 10788
    words16097 = reuters.words(['test/16097'])
    print(words16097)
    

    什么是语料

    就是一个个txt,一个txt就是一个列表

    categories种类

    reutersGenres = reuters.categories()
    print(reutersGenres)  # 90
    
    

    加载语料特定的种类的句子

    # 加载语料特定的种类
    for w in reuters.words(categories=['bop','cocoa']):
        print(w +' ',end='')
        if(w is '.'): # 一个句子就换行
            print()
    

    实际生活中要自己下载语料来搞

    读取下载的语料

    from nltk.corpus import CategorizedPlaintextCorpusReader
    
    # 语料将分成不同的种类的txt,所以采用正则的方法来读取txt
    reader = CategorizedPlaintextCorpusReader(r'/Volumes/Data/NLP-CookBook/Reviews/txt_sentoken', r'.*\.txt', cat_pattern=r'(\w+)/*')
    print(reader.categories())  # 种类
    print(reader.fileids()) #txt的名称
    
    posFiles = reader.fileids(categories='pos')  # 读取积极类型txt
    negFiles = reader.fileids(categories='neg')  # 读取消极txt
    

    # 随机读取文件
    from random import randint
    fileP = posFiles[randint(0,len(posFiles)-1)]
    fileN = negFiles[randint(0, len(posFiles) - 1)]
    print(fileP)
    print(fileN)
    for w in reader.words(fileP):
        print(w + ' ', end='')
        if (w is '.'):
            print()
    for w in reader.words(fileN):
        print(w + ' ', end='')
        if (w is '.'):
    
    
    import nltk
    from nltk.corpus import brown #布朗语料
    
    print(brown.categories())
    
    genres = ['fiction', 'humor', 'romance']  #三个种类
    # 统计疑问词的数量
    whwords = ['what', 'which', 'how', 'why', 'when', 'where', 'who']
    
    
    for i in range(0,len(genres)):
        genre = genres[i]
        print()
        print("Analysing '"+ genre + "' wh words")
        # 读取txt
        genre_text = brown.words(categories = genre)
        # 分词
        fdist = nltk.FreqDist(genre_text)
        for wh in whwords:
            print(wh + ':', fdist[wh], end=' ')
    
    Analysing 'fiction' wh words
    what: 128 which: 123 how: 54 why: 18 when: 133 where: 76 who: 103 
    Analysing 'humor' wh words
    what: 36 which: 62 how: 18 why: 9 when: 52 where: 15 who: 48 
    Analysing 'romance' wh words
    what: 121 which: 104 how: 60 why: 34 when: 126 where: 54 who: 89 
    

    词频计数

    import nltk
    from nltk.corpus import webtext#个人聊天文本
    print(webtext.fileids())
    # ['firefox.txt', 'grail.txt', 'overheard.txt', 'pirates.txt', 'singles.txt', 'wine.txt']
    fileid = 'singles.txt'
    wbt_words = webtext.words(fileid)
    # 分词dict  list
    fdist = nltk.FreqDist(wbt_words)
    # 出现次数最多的单词
    print('Count of the maximum appearing word "',fdist.max(),'" : ', fdist[fdist.max()])
    # 总数
    print('Total Number of distinct tokens in the bag : ', fdist.N())
    print('Following are the most common 10 words in the bag')
    # 将出现最多的前10
    print(fdist.most_common(10))
    # 个人广告的频率分布
    print('Frequency Distribution on Personal Advertisements')
    print(fdist.tabulate())
    # [(',', 539), ('.', 353), ('/', 110), ('for', 99), ('and', 74), ('to', 74), ('lady', 68), ('-', 66), ('seeks', 60), ('a', 52)]
    fdist.plot(cumulative=True)
    

    在这里插入图片描述

    词义wordnet

    # 使用wordnet进行词义消去
    from nltk.corpus import wordnet as wn
    
    chair = 'chair'
    # bat 棒球 蝙蝠  synsets同义词
    chair_synsets = wn.synsets(chair) #API接口
    print('Synsets/Senses of Chair :', chair_synsets, '\n\n')
    # Synsets/Senses of Chair : [Synset('chair.n.01'), Synset('professorship.n.01'), Synset('president.n.04'), Synset('electric_chair.n.01'), Synset('chair.n.05'), Synset('chair.v.01'), Synset('moderate.v.01')]
    # chair 有 7中意思
    for synset in chair_synsets:
        print(synset, ': ')
        # 定义
        print('Definition: ', synset.definition())
        # 同义词
        print('Lemmas/Synonymous words: ', synset.lemma_names())
        # 例子
        print('Example: ', synset.examples(), '\n')
    

    上方词和下分词

    from nltk.corpus import wordnet as wn
    # 同义集
    woman = wn.synset('woman.n.01')
    bed = wn.synset('bed.n.01')
    
    print(woman.hypernyms())# 和woman有关的同义集  2 个上分词adult female
    #[Synset('adult.n.01'), Synset('female.n.02')]
    woman_paths = woman.hypernym_paths()
    for idx, path in enumerate(woman_paths):
        print('\n\nHypernym Path :', idx + 1)
        for synset in path:
            print(synset.name(), ', ', end='')
    
    
    
    types_of_beds = bed.hyponyms()  # 下分词
    print('\n\nTypes of beds(Hyponyms): ', types_of_beds)  #26个
    
    print(sorted(set(lemma.name() for synset in types_of_beds for lemma in synset.lemmas())))
    
    F:\anaconda\python.exe D:/学习资料/最爱的书籍/自然语言处理/Natural-Language-Processing-with-Python-Cookbook/Chapter01/recipe6.py
    [Synset('adult.n.01'), Synset('female.n.02')]
    
    
    Hypernym Path : 1
    entity.n.01 , physical_entity.n.01 , causal_agent.n.01 , person.n.01 , adult.n.01 , woman.n.01 , 
    
    Hypernym Path : 2
    entity.n.01 , physical_entity.n.01 , object.n.01 , whole.n.02 , living_thing.n.01 , organism.n.01 , person.n.01 , adult.n.01 , woman.n.01 , 
    
    Hypernym Path : 3
    entity.n.01 , physical_entity.n.01 , causal_agent.n.01 , person.n.01 , female.n.02 , woman.n.01 , 
    
    Hypernym Path : 4
    entity.n.01 , physical_entity.n.01 , object.n.01 , whole.n.02 , living_thing.n.01 , organism.n.01 , person.n.01 , female.n.02 , woman.n.01 , 
    
    Types of beds(Hyponyms):  [Synset('berth.n.03'), Synset('built-in_bed.n.01'), Synset('bunk.n.03'), Synset('bunk_bed.n.01'), Synset('cot.n.03'), Synset('couch.n.03'), Synset('deathbed.n.02'), Synset('double_bed.n.01'), Synset('four-poster.n.01'), Synset('hammock.n.02'), Synset('marriage_bed.n.01'), Synset('murphy_bed.n.01'), Synset('plank-bed.n.01'), Synset('platform_bed.n.01'), Synset('sickbed.n.01'), Synset('single_bed.n.01'), Synset('sleigh_bed.n.01'), Synset('trundle_bed.n.01'), Synset('twin_bed.n.01'), Synset('water_bed.n.01')]
    ['Murphy_bed', 'berth', 'built-in_bed', 'built_in_bed', 'bunk', 'bunk_bed', 'camp_bed', 'cot', 'couch', 'deathbed', 'double_bed', 'four-poster', 'hammock', 'marriage_bed', 'plank-bed', 'platform_bed', 'sack', 'sickbed', 'single_bed', 'sleigh_bed', 'truckle', 'truckle_bed', 'trundle', 'trundle_bed', 'twin_bed', 'water_bed']
    
    Process finished with exit code 0
    
    

    使用wordNet计算名词

    # 使用wordNet计算名词,动词,形容词,副词
    from nltk.corpus import wordnet as wn
    type = 'n'#名词
    
    synsets = wn.all_synsets(type)
    
    lemmas = []
    for synset in synsets:
        for lemma in synset.lemmas():
            lemmas.append(lemma.name())
    
    print(len(lemmas))  # 146347
    lemmas = set(lemmas)  # 去重
    print('Total distinct lemmas: ', len(lemmas))  # 119034
    # 词的意思
    count = 0
    for lemma in lemmas:
        count = count + len(wn.synsets(lemma, type))
    
    print('Total senses :',count)  # 152763 
    # 平均一个词 1.2833560159282222意思
    print('Average Polysemy of ', type,': ' ,  count/len(lemmas))
    
    展开全文
  • python自然语言处理

    2017-09-21 23:14:12
    PYTHON自然语言处理中文版 主要讲述了利用python语言进行自然语言处理的过程 包含大量代码的实践类书籍 PYTHON自然语言处理中文版 主要讲述了利用python语言进行自然语言处理的过程 包含大量代码的实践类书籍
  • Python 自然语言处理

    2017-09-16 10:31:06
    Python自然语言处理》是自然语言处理领域的一本实用入门指南,旨在帮助读者学习如何编写程序来分析书面语言。《Python自然语言处理》基于Python编程语言以及一个名为NLTK的自然语言工具包的开源库,但并不要求读者...
  • PYTHON自然语言处理

    2016-12-10 11:28:59
    PYTHON自然语言处理
  • 自然语言处理理论书籍很多,讲实际操作的不多,能讲的这么系统的更少。Python语言在做NLP方面有较明显的优势。之前国外有《Natural Language Process with Python》,国内热心网友将其翻译为中文版。从这个角度讲,...
  • Python自然语言处理

    2017-10-13 08:51:24
    PYTHON 自然语言处理【中文版】, 带你入门自然语言处理
  • PYTHON自然语言处理中文版 PYTHON自然语言处理中文版 PYTHON自然语言处理中文版 PYTHON自然语言处理中文版
  • python 自然语言处理1

    2019-04-21 16:11:42
    python 自然语言处理
  • 精通Python自然语言处理Python开发令人惊讶的NLP项目 自然语言处理任务 掌握利用Python设计和构建给予NLP的应用的实践
  • Python自然语言处理专栏目录 初体验HanLP—Python自然语言处理(1) 切分算法—Python自然语言处理(2) 字典树—Python自然语言处理(3) 停用词过滤—Python自然语言处理(4) 简繁体转换—Python自然语言处理(5...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 9,250
精华内容 3,700
关键字:

自然语言处理python

python 订阅