本文共 5462 字,大约阅读时间需要 18 分钟。
一、安装elasticsearch和kibana
安装elasticsearch和kibana,我现在使用的是windows版本的,安装其实也不难,具体的安装教程可以参照这两篇博客,写的安装步骤也很详细。
我安装的官网最新版的elasticsearch7.3.2本
安装好的elasticsearch,使用浏览器,访问:
可以看到以下界面,就表示安装成功:
按照教程的推荐,安装elasticsearch-head-master,可视化管理elasticsearch索引以及集群
安装好后,启动服务,访问:
最后安装kibana
安装kibana,推荐参照这篇博客文章,写的也非常详细:
---这篇博客可以跳过前边安装elasticsearch的步骤,直接看kibana安装。
安装好后,启动服务,访问:,出现以下界面就安装并访问成功
以后使用elasticsearch和kibana的时候,启动方式:
使用elasticsearch,需要启动elasticsearch服务,进入elasticsearch的bin目录,双击elasticsearch.bat 访问:http://localhost:9200
查看elasticsearch使用了head插件,可视化查看elasticsearch的情况 启动elasticsearch-head-master 需要进入elasticsearch-head-master,启动cmd窗口,输入命令:npm run start或grunt server 我已经将命令写在了start.bat文件中,以后,只需要双击start.bat文件就可以启动服务了 访问:http://localhost:9100
使用kibana,需要启动kibana服务,进入kibana的bin目录,双击kibana.bat即可 访问:http://localhost:5601
注意:安装的kibana版本需要与elasticsearch的版本一致,我安装的都是7.3.2版本,目前是官网最新版本
第一次访问elasticsearch是正常的,但是当我停掉elasticsearch服务时,第二次启动时,却出错了,根据启动的日志查看到错误:
ERROR: [1] bootstrap checks failed
[1]: the default discovery settings are unsuitable for production use; at least one of [discovery.seed_hosts, discovery.seed_providers, cluster.initial_master_nodes] must be configured注意:需要看到启动日志,不能双击bat批处理文件这种方式启动elasticsearch服务,因为窗口出现后,等日志输出完毕之后,窗口自动关闭了,是看不到具体日志的,需要到elasticsearch安装目录,启动cmd窗口,然后手动启动服务,手动输入elasticsearch.bat
查看日志,查看错误提示
具体解决方案,可以参照这篇博客,总结了多种异常情况,我刚才提到的异常情况,就是这篇博客总结的最后一种异常情况,按照方法解决就可以了:
所有安装完成之后,就可以开始愉快的使用elasticsearch强大的功能了!
二、elasticsearch的使用
2.1 创建索引库
ES的索引库是一个逻辑概念,它包括了分词列表及文档列表,同一个索引库中存储了相同类型的文档。它就相当于 MySQL中的表,或相当于Mongodb中的集合。 关于索引这个语: 索引(名词):ES是基于Lucene构建的一个搜索服务,它要从索引库搜索符合条件索引数据。 索引(动词):索引库刚创建起来是空的,将数据添加到索引库的过程称为索引。 下边介绍两种创建索引库的方法,它们的工作原理是相同的,都是客户端向ES服务发送命令。 1)使用postman或curl这样的工具创建:windows版本,我们先使用postman来操作elasticsearch
创建索引库:
格式如下:
put http://localhost:9200/索引库名称
使用put方式请求
创建索引成功,索引库名为:xiaomifeng1010
number_of_shards:设置分片的数量,在集群中通常设置多个分片,表示一个索引库将拆分成多片分别存储不同
的结点,提高了ES的处理能力和高可用性,入门程序使用单机环境,这里设置为1。 number_of_replicas:设置副本的数量,设置副本是为了提高ES的高可靠性,单机环境设置为0.创建xiaomifeng1010索引库,共1个分片,0个副本:
现在到elasticsearch管理界面看一下(刷新一下页面)
可以看到索引库xiaomifeng1010已经创建成功
还有更简单的方法是在head界面创建索引库,切换到索引---新建索引
效果如下:
2.2 创建映射
2.2.1 概念说明
在索引中每个文档都包括了一个或多个field,创建映射就是向索引库中创建field的过程,下边是document和field
与关系数据库的概念的类比: 文档(Document)----------------Row记录 字段(Field)-------------------Columns 列 注意:6.0之前的版本有type(类型)概念,type相当于关系数据库的表,ES官方将在ES8.0版本中彻底删除type。 上边讲的创建索引库相当于关系数据库中的数据库还是表? 1、如果相当于数据库就表示一个索引库可以创建很多不同类型的文档,这在ES中也是允许的。 2、如果相当于表就表示一个索引库只能存储相同类型的文档,ES官方建议 在一个索引库中只存储相同类型的文 档。可以参考官网文档说明:
2.2.2 创建映射
我们要把课程信息存储到ES中,这里我们创建xiaomifeng1010索引库的映射,先来一个简单的映射,如下: 发送:post http://localhost:9200/索引库名称/_mapping (elasticsearch7.3.2弱化了type,所以不能加doc了,加了doc会报错illegal_argument_exception ,6.x版本的需要写成post ) 创建类型为xiaomifeng1010的映射,共包括三个字段:name、age、email (由于elasticsearch 6.x版本还没有将type彻底删除,所以暂时把type起一个没有特殊意义的名字。之前创建的xc_course是使用6.2.1版本创建的,所以创建映射需要写成如下: post 请求:http://localhost:9200/xc_course/doc/_mapping 表示:在xc_course索引库下的doc类型下创建映射。doc是类型名(官方之前类比为关系型数据库中的table),可以自定义,在ES6.0中要弱化类型的概念, 给它起一个没有具体业务意义的名称。)7.3.2版本,创建映射,仍然可以使用postman
put http://localhost:9200/xiaomifeng1010/_mapping
现在到head界面查看xiaomifeng1010索引信息
查看索引信息,可以看到映射的信息(即索引库的约束,相当于定义关系型数据库数据表字段类型)
2.3 创建文档
ES中的文档相当于MySQL数据库表中的记录。 发送:Post http://localhost:9200/xiaomifeng1010/_doc/ (如果不指定id值ES会自动生成ID)现在查看head界面:
可以看到记录已经插入进去了
2.4 搜索文档
1、根据xiaomifeng1010索引库中的记录的id查询文档
发送:get http://localhost:9200/xiaomifeng1010/_doc/i-LbhW0B6mPtB13laPzf使用postman测试:
2、查询所有记录
发送 get http://localhost:9200/xiaomifeng1010/_doc/_search为了可以查到多条记录,现在再插入一条记录
然后再执行查询:
took:本次操作花费的时间,单位为毫秒。
timed_out:请求是否超时 _shards:说明本次操作共搜索了哪些分片 hits:搜索命中的记录 hits.total : 符合条件的文档总数 hits.hits :匹配度较高的前N个文档 hits.max_score:文档匹配得分,这里为最高分 _score:每个文档都有一个匹配度得分,按照降序排列。 _source:显示了文档的原始内容。3、查询名称中包括elite关键字的的记录 发送:get http://localhost:9200/xiaomifeng1010/_doc/_search?q=name:elite 4、查询年龄为10岁的记录 发送 get http://localhost:9200/xiaomifeng1010/_doc/_search?q=age:10三、IK分词器
3.1测试elasticsearch默认的分词器
在添加文档时会进行分词,索引中存放的就是一个一个的词(term),当你去搜索时就是拿关键字去匹配词,最终 找到词关联的文档。 测试当前索引库使用的分词器: post 发送:localhost:9200/_analyze {"text":"测试分词器,后边是测试内容:spring cloud实战"} 结果如下:会发现分词的效果将 “测试” 这个词拆分成两个单字“测”和“试”,这是因为当前索引库使用的分词器对中文就是单字
分词。3.2 安装IK分词器
使用IK分词器可以实现对中文分词的效果。 下载IK分词器:(Github地址:https://github.com/medcl/elasticsearch-analysis-ik) 下载zip:然后下载最新版7.3.2版本
下载之后,解压zip文件,然后将解压后的文件放在ES安装目录的plugins下的目录下
然后重启elasticsearch服务,使ik分词器插件加载并生效
测试分词效果:
发送:post localhost:9200/_analyze {"text":"测试分词器,后边是测试内容:spring cloud实战","analyzer":"ik_max_word" }3.3 两种分词模式
ik分词器有两种分词模式:ik_max_word和ik_smart模式。(这两种模式会在下边的kibana中演示,这里就不用postman演示了)1、ik_max_word 会将文本做最细粒度的拆分,比如会将“中华人民共和国人民大会堂”拆分为“中华人民共和国、中华人民、中华、 华人、人民共和国、人民、共和国、大会堂、大会、会堂等词语。2、ik_smart 会做最粗粒度的拆分,比如会将“中华人民共和国人民大会堂”拆分为中华人民共和国、人民大会堂。 测试两种分词模式:发送:post localhost:9200/_analyze
{"text":"中华人民共和国人民大会堂","analyzer":"ik_smart" }3.4 自定义词库
如果要让分词器支持一些专有词语,可以自定义词库。 iK分词器自带一个main.dic的文件,此文件为词库文件用notepad++打开main.dic
看到里边有很多中文词汇
当然我们自己可以在上边的目录中新建一个my.dic文件(注意文件格式为utf-8(不要选择utf-8 BOM))
可以在其中自定义词汇: 然后在配置文件IKAnalyzer.cfg.xml中配置my.dic的相关信息重启ES,测试分词效果:
发送:post localhost:9200/_analyze {"text":"测试分词器,后边是测试内容:spring cloud实战","analyzer":"ik_max_word" }四、使用kibana可视化界面来操作elasticsearch
kibana界面有个扳手的图标(开发工具),点击进入console控制台,通过命令(官方称为api)操作elasticsearch
按照官方的例子来创建索引,并同时指定确切的映射
下边在kibana中操作
这样也顺利创建了索引和映射
接下来添加field
在kibana中操作:
执行成功
接下来查看一下索引库和映射
当然如果查看head界面,一定增加了一个新的索引库my-index
下边使用kibana演示一下上边用postman演示的常用elasticsearch操作:
使用elasticsearch默认分词器
使用ik中文分词器,模式:ik_max_word
使用ik中文分词器,模式:ik_smart
最后对比一下“中华人民共和国人民大会堂”,在ik分词器的ik_max_word模式的效果
这一篇就先到这里,下一篇会总结一下使用java客户端来操作elasticsearch。
转载地址:http://ryhgi.baihongyu.com/