分词 订阅
分词就是具有动词及形容词二者特征的词,尤指以-ing或-ed,-d,-t,-en或-n结尾的英语动词性形容词,具有形容词功能,同时又表现各种动词性特点,如时态、语态、带状语性修饰语的性能及带宾词的性能。分词分为现在分词和过去分词两种,是一种非谓语动词形式。现在分词和过去分词主要差别在于:现在分词表示“主动和进行”,过去分词表示“被动和完成”(不及物动词的过去分词不表示被动,只表示完成)。分词可以有自己的状语、宾语或逻辑主语等。 展开全文
分词就是具有动词及形容词二者特征的词,尤指以-ing或-ed,-d,-t,-en或-n结尾的英语动词性形容词,具有形容词功能,同时又表现各种动词性特点,如时态、语态、带状语性修饰语的性能及带宾词的性能。分词分为现在分词和过去分词两种,是一种非谓语动词形式。现在分词和过去分词主要差别在于:现在分词表示“主动和进行”,过去分词表示“被动和完成”(不及物动词的过去分词不表示被动,只表示完成)。分词可以有自己的状语、宾语或逻辑主语等。
信息
结    构
现在分词doing,过去分词done
外文名
participle
语    法
非谓语动词形式
中文名
分词
特    征
具有动词及形容词二者特征
表    示
进行,完成,被动
分词分词的类型
一般式doing一般被动式 done完成式having done完成被动式having been done所有否定式都是在-ing前面加not,过去分词done
收起全文
精华内容
下载资源
问答
  • 集成IK分词器 solr安装参见博文—-Apache solr入门 下载分词器jar包,github地址 将ik-analyzer-solr7-7.x.jar包上传到 $SOLR_INSTALL_HOME/server/solr-webapp/webapp/WEB-INF/lib目录下 在$SOLR_INSTALL_HOME/...
  • 【NLP】之 结巴分词

    2021-01-20 02:25:22
    1.结巴分词简介 结巴分词是当前效果较好的一种中文分词器,支持中文简体、中文繁体分词,同时还支持自定义词库。 结巴分词支持三种分词模式:精确模式、全模式和搜索引擎模式。 精确模式是试图将句子最精确的进行...
  • 本文实例讲述了Python中文分词工具之结巴分词用法。分享给大家供大家参考,具体如下: 结巴分词工具的安装及基本用法,前面的文章《Python结巴中文分词工具使用过程中遇到的问题及解决方法》中已经有所描述。这里要...
  • 下面小编就为大家带来一篇python中文分词,使用结巴分词对python进行分词的实例讲解。有比较好的参考价值,希望能给大家做个参考。一起跟随小编过来看看吧
  • 分词算法上没有太多创新,采用的是自己采集的词频词典,并辅以一定的专有名称,人名,地名,数字年代等规则识别来达到基本分词,经小范围测试准确率在90 %〜95%之间,基本上能满足一些小型搜索引擎,关键字提取等...
  • 表面上看,分词其实就是那么回事,但分词效果好不好对信息检索、实验结果还是有很大影响的,同时分词的背后其实是涉及各种各样的算法的。 中文分词与英文分词有很大的不同,对英文而言,一个单词就是一个词,而汉语...
  • 结巴分词支持三种分词模式,支持繁体字,支持自定义词典 2、三种分词模式 全模式:把句子中所有的可以成词的词语都扫描出来, 速度非常快,但是不能解决歧义 精简模式:把句子最精确的分开,不会添加多余单词,看起来...
  • 这是前一段时间我在研究中文分词时在网上找到的一个词典,TXT格式的,拿出来分享一下。这是前一段时间我在研究中文分词时在网上找到的一个词典,TXT格式的,拿出来分享一下。这是前一段时间我在研究中文分词时在网上...
  • 分词是自然语言处理的一个基本工作,中文分词和英文不同,字词之间没有空格。中文分词是文本挖掘的基础,对于输入的一段中文,成功的进行中文分词,可以达到电脑自动识别语句含义的效果。中文分词技术属于自然语言...
  • 中文分词C语言版.rar

    2021-07-16 18:11:52
    这是一款用C语言编写的中分分词程序,程序可以编辑分词的规律,根据词典进行分词
  • 分词词库_中文分词词库最新整理(TXT格式)
  • 中文分词是做好中文内容检索、文本分析的基础,主要应用于搜索引擎与数据挖掘领域。中文是以词为基本语素单位,而词与词之间并不像英语一样有空格来分隔,因而中文分词的难点在于如何准确而又快速地进行分词
  • 中文分词词库整理 rar

    2020-10-08 20:25:15
    30万 中文分词词库.txt 42537条伪原创词库.txt 百度分词词库.txt 词库地址.txt 词库下载地址.txt
  • PPT中包含基于词典分词算法以及HMM(隐马尔可夫模型)算法,结巴分词(具体实现算法)等内容,PPT中包含基于词典分词算法以及HMM(隐马尔可夫模型)算法,结巴分词(具体实现算法)等内容
  • 中文分词数据集.zip

    2021-02-28 21:31:26
    分词数据集,用于训练一个用来分词的模型。详细看压缩包里的内容。
  • 1.默认情况 语句中关键字在含有英文和特殊字符时(machine-1234),使用jieba...通常情况下,我们可以加载预定义字典来包含词库里不存在的词,以达到正确分词的效果 # 利用用户自定义字典 import jieba str1 = 查找mac
  • 结巴中文分词停用表,整合百度分词、哈工大等停用词表2000余条数据 即拿即用,效果好,提升分词速度准确率。
  • 在使用jiba分词的情况下,使用这个词典有助于提高你的分词准确度,因为这个分词词典包含了众多领域词汇,这些词汇出自某dog的几十个细胞词库。已使用转换器转换成txt,欢迎下载。
  • 最短路分词、N-最短路分词 由字构词(侧重精度,全世界最大语料库,可识别新词;适合NLP任务) 感知机分词、CRF分词 词典分词(侧重速度,每秒数千万字符;省内存) 极速词典分词 所有分词器都支持: 索引全...
  • 中文分词 [1] 。分词就是将连续的字序列按照一定的规范重新组合成词序列的过程。我们知道,在英文的行文中,单词之间是以空格作为自然分界符的,而中文只是字、句和段能通过明显的分界符来简单划界,唯独词没有一个...
  • 中文分词词库汇总

    2018-08-09 23:27:08
    汇总的中文分词词库,分为两个目录: 1、中文分词词库汇总。包含10个词库,文件名字表示里面词的数量(单位是千),如150.txt,表示包含15万词。 2、主流分词工具的词库。包含word/jieba/mmseg/IK分词工具的最近词库...
  • 主要介绍了python实现中文分词FMM算法,实例分析了Python基于FMM算法进行中文分词的实现方法,涉及Python针对文件、字符串及正则匹配操作的相关技巧,需要的朋友可以参考下
  • jieba 基于Python的中文分词工具,安装使用非常方便,直接pip即可,2/3都可以,功能强悍,十分推荐。 中文分词(Chinese Word Segmentation) 指的是将一个汉字序列切分成一个一个单独的词。 分词模块jieba,它是...
  • 麻将中文分词 简介 麻将一直是广受欢迎的传统娱乐活动,字牌的组合千变万化。汉字的组合也是变化多端,麻将这个项目希望能从汉字组合中发现汉语的秘密,为自然语言处理提供好的中文分词工具。 麻将是基于Scala的...
  • elasticsearch7.8.0版本的IK分词
  • es7.0 ik分词

    2019-09-27 17:29:26
    es提供的分词是英文分词,对于中文的分词就做的非常不好了,ik分词器是针对中文分词 来用于搜索和使用。
  • jieba分词器 java版

    2020-10-10 09:24:18
    本人最近在用lucene做一些东西,需要用到jieba分词器。但csdn上的资源都是需要积分的,一个开源软件竟然还要积分。。。从github找的,分享给大家吧
  • jieba分词的自定义词典:使用jieba分词对语料进行分词之前,需要先载入,载入代码为jieba.load_userdict("userdict.txt")。

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 156,163
精华内容 62,465
关键字:

分词