精华内容
下载资源
问答
  • 集成IK分词器 solr安装参见博文—-Apache solr入门 下载分词器jar包,github地址 将ik-analyzer-solr7-7.x.jar包上传到 $SOLR_INSTALL_HOME/server/solr-webapp/webapp/WEB-INF/lib目录下 在$SOLR_INSTALL_HOME/...
  • analyzer分词器 solr改配置以后 重新建立一下索引 Dataimport 重启服务器 IK分词器简介

    analyzer分词器

    solr改配置以后 重新建立一下索引 Dataimport 重启服务器

    IK分词器简介

    在这里插入图片描述

    展开全文
  • IK分词器_ikanalyzer-solr5

    2018-02-11 15:00:52
    IK中文分词器solr配置用jar包,适用于solr5版本,欢迎下载。。。
  • 下载分词器jar包百度网盘地址:链接:https://pan.baidu.com/s/1GHwv6uBcUhI7GpOpqFnl4g 密码:121w使用1. 将压缩包解压、重命名为ik_analyzer2. 将 ik-analyzer-solr6.jar 复制到 solr lib目录下cp ~/Downloads/ik_...

    下载分词器jar包

    百度网盘地址:

    链接:https://pan.baidu.com/s/1GHwv6uBcUhI7GpOpqFnl4g 密码:121w

    使用

    1. 将压缩包解压、重命名为ik_analyzer

    2. 将 ik-analyzer-solr6.jar 复制到 solr lib目录下

    cp ~/Downloads/ik_analyzer/ik-analyzer-solr6.jar ~/www/Java/solr/WEB-INF/lib

    3. 将相关包放入solr classpath

    cp ~/Downloads/ik_analyzer/mydict.dic ~/Downloads/ik_analyzer/IKAnalyzer.cfg.xml ~/Downloads/ik_analyzer/ext_stopword.dic ~/www/Java/solr/WEB-INF/classes

    若~/www/Java/solr/WEB-INF/classes文件夹不存在、需要新建

    4. 配置schema

    其中:copyfiled是将item_title、item_sell_point、item_category_name都作为后边的item_keywords来搜索

    5. 保存、重启tomcat、访问页面

    http://localhost:8081/solr/index.html

    c0d678434c55?utm_campaign=maleskine&utm_content=note&utm_medium=seo_notes&utm_source=recommendation

    analyzer.png

    问题

    如果遇到错误:java.lang.AbstractMethodError

    可以检查下分词器的版本是否过低

    当前这篇文章使用的solr是7.2.1的版本、使用的是网盘保存的分词器版本、是ok的、

    之前使用了 IKAnalyzer2012FF_u1.jar 这个版本、出现的上述错误~

    c0d678434c55?utm_campaign=maleskine&utm_content=note&utm_medium=seo_notes&utm_source=recommendation

    error.png

    展开全文
  • solr中文分词工具,分别对应solr5.5.0和solr7.0.0版本的ik分词器
  • solr7.7.2配置自带中文分词器及IK分词器 solr7.7.2的安装请查看:https://blog.csdn.net/mdy9953MDY/article/details/104671135 这里记录两种中文分词器:smartcn 和 ik 分词器 1、solr7.X以后自带分词器(smartcn)...

    solr7.7.2配置自带中文分词器及IK分词器

    solr7.7.2的安装请查看:https://blog.csdn.net/mdy9953MDY/article/details/104671135
    这里记录两种中文分词器:smartcn 和 ik 分词器

    1、solr7.X以后自带分词器(smartcn):

    solr7.X之后已有内置了中文分词器,下面是内置分词器配置
    

    1.1 将我们解压的solr-7.7.2中中文分词器jar包复制到solr项目中
    在这里插入图片描述
    输入命令:

    cp /usr/local/solr-7.7.2/contrib/analysis-extras/lucene-libs/lucene-analyzers-smartcn-7.7.2.jar /usr/local/solr/tomcat8/webapps/solr/WEB-INF/lib/
    

    在这里插入图片描述
    1.2 修改我们前面在solrhome下创建的solrcore中的配置文件
    在这里插入图片描述
    输入命令:

    vi /usr/local/solr/solrhome/mySolrCore/conf/managed-schema 
    

    添加如下配置:

    <fieldType name="smartcn" class="solr.TextField" positionIncrementGap="100">
           <analyzer type="index">
             <tokenizer class="org.apache.lucene.analysis.cn.smart.HMMChineseTokenizerFactory"/>
            </analyzer>
            <analyzer type="query">
              <tokenizer class="org.apache.lucene.analysis.cn.smart.HMMChineseTokenizerFactory"/>
            </analyzer>
      </fieldType>
    

    在这里插入图片描述

    保存退出,重启solr服务
    测试结果:
    在这里插入图片描述

    2、IK中文分词器配置

    需要下载IK分词器包,在solr7.7.2安装中已经提供下载地址。

    2.1 将ik分词器的jar包放到我们安装的solr工程中,我的工程地址:/usr/local/solr/tomcat8/webapps/solr/WEB-INF/lib/
    在这里插入图片描述
    在这里插入图片描述
    2.2 将resources目录下的5个配置文件放入/usr/local/solr/tomcat8/webapps/solr/WEB-INF/classes/目录下
    在这里插入图片描述
    在这里插入图片描述
    2.3 配置Solr的managed-schema,添加ik分词器
    输入命令:

    vi /usr/local/solr/solrhome/mySolrCore/conf/managed-schema 
    

    添加配置:

    <!-- ik分词器 -->
    <fieldType name="text_ik" class="solr.TextField">
      <analyzer type="index">
          <tokenizer class="org.wltea.analyzer.lucene.IKTokenizerFactory" useSmart="false" conf="ik.conf"/>
          <filter class="solr.LowerCaseFilterFactory"/>
      </analyzer>
      <analyzer type="query">
          <tokenizer class="org.wltea.analyzer.lucene.IKTokenizerFactory" useSmart="true" conf="ik.conf"/>
          <filter class="solr.LowerCaseFilterFactory"/>
      </analyzer>
    </fieldType>
    

    在这里插入图片描述
    重启tomcat
    再次访问solr服务,如下:IK分词器配置成功
    在这里插入图片描述

    字典 分词 停词

    IK分词器肯定是有字典 分词 和停词,因为词典的收录肯定是有限度,新的词汇词典中肯定还没有录入,这时我们可以自定义设置扩展
    比如:
    在这里插入图片描述
    接下来把“字母哥”自定义到词典中
    在这里插入图片描述
    输入命令:

    vi /usr/local/solr/tomcat8/webapps/solr/WEB-INF/classes/ext.dic
    

    编辑:加上“字母哥” 保存退出
    在这里插入图片描述
    重启Tomcat,再次查看
    在这里插入图片描述
    但是会出现日志警告如下:
    在这里插入图片描述
    日志警告信息处理方法参考:https://www.cnblogs.com/operationhome/p/10253514.html

    展开全文
  • 中文分词器的配置1.7版本之后solr内置了中文分词器所以可以使用solr内置的分词器进行配置1.在解压的目录内找到分词器包2.将包放在solr项目的lib下3.修改配置文件修改他下面的conf目录下的managed-schema文件添加如下...
    • 中文分词器的配置
        • 1.7版本之后solr内置了中文分词器所以可以使用solr内置的分词器进行配置
            • 1.在解压的目录内找到分词器包

    931d28c672c7bc609843a383aa435a4e.png
    • 2.将包放在solr项目的lib下

    630b24372e235ed5e8d91da1bb0c0921.png
    • 3.修改配置文件修改他下面的conf目录下的managed-schema文件

    添加如下配置建立中文分词器

    d109531f561def698705b2575dc5b5ae.png
    <fieldType name="text_ik_zw" class="solr.TextField" positionIncrementGap="100">
           <analyzer type="index">
             <tokenizer class="org.apache.lucene.analysis.cn.smart.HMMChineseTokenizerFactory"/>
            </analyzer>
            <analyzer type="query">
              <tokenizer class="org.apache.lucene.analysis.cn.smart.HMMChineseTokenizerFactory"/>
            </analyzer>
      </fieldType>
    • 4.测试域的分词

    005eecc6b24b3faa824c579ad43275f9.png
    • 5.启动solr进行测试

    e24f169f017944c956338b0604b30cb7.png
    展开全文
  • 1. 概述介绍Solr之前,就不得不提业界大名鼎鼎的Lucene。Lucene是一个完全用Java编写的高性能、跨平台的全文搜索引擎工具包,能满足几乎所有软件项目的搜索需求。Lucene是Apache基金会的顶级开源项目。使用Lucene的...
  • 环境信息 系统:CentOS Linux release 7.6.1810 solrsolr-7.7.2 ...集成IK分词器 solr安装参见博文----Apache solr入门 下载分词器jar包,github地址 将ik-analyzer-solr7-7.x.jar包上传到 $...
  • solr ik分词器

    2018-10-24 09:22:00
    solr安装ik分词器将jar复制到solr\WEB-INF\lib 中 具体使用:https://mp.csdn.net/postedit
  • 文件中包括:1:solr4.4.0安装部署详细文档,solr-4.4.0.tgz 安装包2:ik分词器详细配置,IKAnalyzer2012FF_u1.jar和IKAnalyzer2012_FF.jar包3:solr和数据库实现实时数据同步更新,以及更新索引。solr-...
  • IK-Analyzer 分词器 solr

    2019-06-14 10:03:06
    网上找的IK-Analyzer分词器 方便后来人用和下载https://www.oschina.net/news/11853/ikanalyzer-3-2-5-stable-for-lucene-3-0 上面是下载路径码云上面的下载路径 百度网盘下载:链接:...
  • Solr6.5 IK分词器

    2017-04-17 00:04:00
    Solr6.5 IK分词器
  • ik分词器适配solr详解

    2017-08-25 11:44:24
    1.入口 iktokenizerfactory extentends tokenizerfactory ...1)solr会实例化该工厂类并调用create(AttributeFactory factory) 方法,其中factory参数由solr传入 , 实例化方法IKTokenizerFactory(Map args)中的参数由so
  • solrik分词器安装

    2020-03-16 22:53:09
    文章目录solr--ik分词器安装一、简介二、安装步骤2.1 下载ik分词器2.2 编译ik分词器2.3 添加ik的jar包2.4 修改配置文件2.5 重启solr 一、简介 在solr7中,有自带HMMChineseTokenizerFactory中文分词器,这里另外介绍...
  • 亲测可用
  • solrIK分词器

    2016-10-24 20:06:10
    内有详细的solrIK分词器配置步骤
  • solr7.2.1 + tomcat + ik分词器安装及配置 安装前准备: Jdk 1.8以上 Solr 7.2.1 Tomcat 8.5.30 Ik分词器 Solr使用ik需要的资源 docker 环境 1、 安装docker环境 首先需要保证docker环境安装已经完成,...
  • solr4.3的ik分词器(改了一些smart分词算法。使用maven编译),隔壁有我写的包 支持从solr自己的环境中获取自定义词典(使用solr的ResourceLoader,只需要把字典文件放到对应索引的conf目录里) 增加一个定时更新类...
  • solr7 的 ik分词器

    2017-12-01 14:31:06
    solr7 的 ik分词器 ik-analyzer-solr7.x ,全文检索体验升级,更精确
  • solr ik分词器 6.6.1版本

    2019-03-13 13:41:49
    elasticsearch-analysis-ik-6.6.1为ik分词器最新版本需结合solr使用
  • IKAnalyzer特性a. 算法采用“正向迭代最细粒度切分算法”,支持细粒度和最大词长两种分词方式,... 扩展lucene的扩展实现,采用歧义分析算法优化查询关键字的搜索排列组合,提高lucene检索命中率IK分词算法理解根...
  • solr默认是没有中文分词功能,需要我们自己安装配置插件,这里使用IK分词器 1.下载分词器 ikanalyzer 网上有很多个版本,我用的是 ik-analyzer-8.3.0.jar 2.修改配置文件 2.1 将ik-analyzer-8.3.0.jar放到/home...
  • Solr IK分词器

    2018-02-07 10:51:41
    solr 中文查询分词器,把一串字符分作多个词语进行查询
  • IK分词器,支持solr6.60高版本,支持智能分词和细粒度分词,经本人测试可以使用的,支持高版本,智能分词用IKCrudeAnalyzer
  • IK分词器如果配置成 <fieldType name="text_ik" class="solr.TextField"> <analyzer type="index" isMaxWordLength="false" class="org.wltea.analyzer.lucene.IKAnalyzer"/> ...
  • 参考文献集成环境windows10jdk8solr8.3.1ik-analyzer-8.3.0工具资源下载启动solr.\solr start停止solr.\solr stop -all重启solr.\solr restart -port 8983集成IK分词器将下好的IK分词器jar 复制到\solr-8.3.1\server...
  • Solr——配置IK分词器

    2018-10-24 19:25:00
    首先需要的准备好jdk1.8和tomcat8以及ik分词器ik分词器是5.x的版本,和solr4.10搭配的版本不一样,虽然是5.x的版本但是也是能使用在solr7.2版本上的) 分享链接https://pan.baidu.com/s/1smOxPhF 进行ik分词...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 1,270
精华内容 508
关键字:

ik分词器solr