目录
ElasticSearch
了解ElasticSearch
ELK技术栈
编辑 ElasticSearch与lucene的关系
总结
倒排索引
正向索引
倒排索引
正向和倒排
elasticSearch特定的一些概念
文档和字段
索引和映射
mysql与elasticsearch对比
安装elasticSeacher并部署单例es
创建网络
加载es镜像和kibana镜像
运行es镜像
部署kibana
查看kibana
安装IK分词器
下载压缩包
查询到es-plugins数据卷存在的实际位置
cd到这个实际位置,并把ik文件夹拉到这个目录中
重启es容器
测试:
扩展IK分词器
进入ik的config目录
在IKAnalyzer.cfg.xml配置文件内容添加:ext.dic
这里没有配置ext.dic的文件路径,说明和IKAnalyzer.cfg.xml在同一个目录下
然后重启es
测试,可以发现我勒个豆已经成为一个最小单元的词条
编辑 停用词词典
1)IKAnalyzer.cfg.xml配置文件内容添加:
2)打开stopword.dic(config中已经存在,不用重新创建)
3)重启es
4)测试
编辑 总结:分词器的作用
IK分词器有几种模式
ElasticSearch
了解ElasticSearch
elasticsearch是一款非常强大的开源搜索引擎,具备非常多强大功能,可以帮助我们从海量数据中快速找到需要的内容
ELK技术栈
elasticsearch结合kibana、Logstash、Beats,也就是elastic stack(ELK)。被广泛应用在日志数据分析、实时监控等领域:
而elasticsearch是elastic stack的核心,负责存储、搜索、分析数据。
ElasticSearch与lucene的关系
elasticsearch底层是基于lucene来实现的。
Lucene是一个Java语言的搜索引擎类库,是Apache公司的顶级项目,由DougCutting于1999年研发。
总结
什么是elasticsearch?
- 一个开源的分布式搜索引擎,可以用来实现搜索、日志统计、分析、系统监控等功能
什么是elastic stack(ELK)?
- 是以elasticsearch为核心的技术栈,包括beats、Logstash、kibana、elasticsearch
什么是Lucene?
- 是Apache的开源搜索引擎类库,提供了搜索引擎的核心API
倒排索引
倒排索引的概念是基于MySQL这样的正向索引而言的。
正向索引
什么是正向索引呢
如果根据id值直接查询,那么直接走主键索引,查询速度比较快
如果是根据title进行模糊查询
- 用户进行搜索数据时,条件为%手机%
- 那么就一行一行的获取数据,然后再判断title字段值是否符合条件
- 符合条件就放入结果集,不符合条件就丢弃,继续下一行获取数据进行比对
这就是所谓的逐行扫描,也就是全表扫描,随着数据量的增多,其查询效率会越来越低
倒排索引
倒排索引中有两个非常重要的概念:
- 文档(
Document
):用来搜索的数据,其中的每一条数据就是一个文档。例如一个网页、一个商品信息。也就是数据库中的一行数据 - 词条(
Term
):对文档数据或用户搜索数据,利用某种算法分词,得到的具备含义的词语就是词条。例如:我是中国人,就可以分为:我、是、中国人、中国、国人这样的几个词条。词条就是把文档数据根据某种规则进行拆分成几个词
创建倒排索引是对正向索引的一种特殊处理,流程如下:
- 将每一个文档的数据利用算法分词,得到一个个词条
- 创建表,每行数据包括词条、词条所在文档id、位置等信息
- 因为词条唯一性,可以给词条创建索引,例如hash表结构索引
倒排索引的搜索流程如下(以搜索"华为手机"为例):
当用户输入华为手机时,进行词条分割,得到华为,手机两个词条,然后再倒排索引的表中获得对应的文档id(1,2,3)然后拿着文档id去数据库表中进行查找具体的信息(因为根据的是主键Id,走索引,查询速率比较快)
虽然要先查询倒排索引,再查询正向索引,但是无论是词条、还是文档id都建立了索引(可以建立联合唯一索引),查询速度非常快!无需全表扫描。
正向和倒排
那么为什么一个叫做正向索引,一个叫做倒排索引呢?
-
正向索引是最传统的,根据id索引的方式。但根据词条查询时,必须先逐条获取每个文档,然后判断文档中是否包含所需要的词条,是根据文档找词条的过程。
-
而倒排索引则相反,是先找到用户要搜索的词条,根据词条(再倒排索引表中)先得到词条的文档的id,然后再根据获得的id去数据表中获取对应的文档。是根据词条找文档的过程。
是不是恰好反过来了?
那么两者方式的优缺点是什么呢?
正向索引:
- 优点:
- 可以给多个字段创建索引
- 根据索引字段搜索、排序速度非常快
- 缺点:
- 根据非索引字段,或者索引字段中的部分词条查找时,只能全表扫描。
倒排索引:
- 优点:
- 根据词条搜索、模糊搜索时,速度非常快
- 缺点:
- 只能给词条创建索引,而不是字段
- 无法根据字段做排序
elasticSearch特定的一些概念
文档和字段
elasticsearch是面向**文档(Document)**存储的,可以是数据库中的一条商品数据,一个订单信息。文档数据会被序列化为json格式后存储在elasticsearch中:
可以看见数据库的每一行数据都被序列化成了json数据,每一个json数据对应的key就是字段名
每一个json数据就是叫做文档(document),json数据里面的key值就是字段(Field)
索引和映射
索引(Index),就是相同类型的文档的集合。一个索引就是相当于数据库中的一张数据表
也就是说一个索引包含了很多相同类型的文档
例如:
- 所有用户文档,就可以组织在一起,称为用户的索引;
- 所有商品的文档,可以组织在一起,称为商品的索引;
- 所有订单的文档,可以组织在一起,称为订单的索引;
因此,我们可以把索引当做是数据库中的表。
数据库的表会有约束信息,用来定义表的结构、字段的名称、类型等信息。因此,索引库中就有映射(mapping),是索引中文档的字段约束信息,类似表的结构约束。
mysql与elasticsearch对比
我们统一的把mysql与elasticsearch的概念做一下对比:
MySQL | Elasticsearch | 说明 |
---|---|---|
Table | Index | 索引(index),就是文档的集合,类似数据库的表(table) |
Row | Document | 文档(Document),就是一条条的数据,类似数据库中的行(Row),文档都是JSON格式 |
Column | Field | 字段(Field),就是JSON文档中的字段,类似数据库中的列(Column) |
Schema | Mapping | Mapping(映射)是索引中文档的约束,例如字段类型约束。类似数据库的表结构(Schema) |
SQL | DSL | DSL是elasticsearch提供的JSON风格的请求语句,用来操作elasticsearch,实现CRUD |
-
Mysql:擅长事务类型操作,可以确保数据的安全和一致性
-
Elasticsearch:擅长海量数据的搜索、分析、计算
因此在企业中,往往是两者结合使用:
- 对安全性要求较高的写操作,使用mysql实现
- 对查询性能要求较高的搜索需求,使用elasticsearch实现
- 两者再基于某种方式,实现数据的同步,保证一致性
安装elasticSeacher并部署单例es
创建网络
因为我们还需要部署kibana容器,因此需要让es和kibana容器互联。这里先创建一个网络:
创建网络的原因是在同一网络中的容器(即kibana)可以直接通过容器的名字(es)来获取 es的ip地址
docker network create es-net
创建成功
加载es镜像和kibana镜像
docker pull ...
加载压缩包
docker load -i es.tar
运行es镜像
docker run -d \
--name es \
-e "ES_JAVA_OPTS=-Xms512m -Xmx512m" \
-e "discovery.type=single-node" \
-v es-data:/usr/share/elasticsearch/data \
-v es-plugins:/usr/share/elasticsearch/plugins \
--privileged \
--network es-net \
-p 9200:9200 \
-p 9300:9300 \
elasticsearch:7.12.1
命令解释:
-e "cluster.name=es-docker-cluster"
:设置集群名称-e "http.host=0.0.0.0"
:监听的地址,可以外网访问-e "ES_JAVA_OPTS=-Xms512m -Xmx512m"
:内存大小-e "discovery.type=single-node"
:非集群模式-v es-data:/usr/share/elasticsearch/data
:挂载逻辑卷,绑定es的数据目录(如果没有这个数据卷,可以自动创建)-v es-logs:/usr/share/elasticsearch/logs
:挂载逻辑卷,绑定es的日志目录-v es-plugins:/usr/share/elasticsearch/plugins
:挂载逻辑卷,绑定es的插件目录--privileged
:授予逻辑卷访问权--network es-net
:加入一个名为es-net的网络中-p 9200:9200
:端口映射配置,http访问的入口- -p 9300:9300:tcp协议端口,用于集群模式下节点与节点之间的心跳检查的
在浏览器中输入:http://192.168.230.100:9200 即可看到elasticsearch的响应结果:
部署kibana
kibana可以给我们提供一个elasticsearch的可视化界面,便于我们学习。
docker run -d \
--name kibana \
-e ELASTICSEARCH_HOSTS=http://es:9200 \
--network=es-net \
-p 5601:5601 \
kibana:7.12.1
--network es-net
:加入一个名为es-net的网络中,与elasticsearch在同一个网络中-e ELASTICSEARCH_HOSTS=http://es:9200"
:设置elasticsearch的地址,因为kibana已经与elasticsearch在一个网络,因此可以用容器名直接访问elasticsearch-p 5601:5601
:端口映射配置
kibana启动一般比较慢,需要多等待一会,可以通过命令:
docker logs -f kibana
查看运行日志,当查看到下面的日志,说明成功:
查看kibana
192.168.230.100:5601,里面的dev tools
这个界面中可以编写DSL来操作elasticsearch。并且对DSL语句有自动补全功能。
DSL就是elasticsearch提供的特殊语法,基本格式如下:
[请求方式] /[请求路径]
{
[请求参数key1]: [请求参数value1],
[请求参数key2]: [请求参数value2]
}
例如
GET /_analyze
{
"analyzer": "standard",
"text": "华为手机"
}
运行结果后默认是把文档拆成一个一个字的词条
安装IK分词器
因为默认的行为是把文档拆成一个一个字的词条,不符合我们的习惯,所以需要安装国内的开源的IK分词器
下载压缩包
https://github.com/medcl/elasticsearch-analysis-ik/releases/download/v7.12.1/elasticsearch-analysis-ik-7.12.1.zip
解压这个压缩包得到ik文件夹
查询到es-plugins数据卷存在的实际位置
cd到这个实际位置,并把ik文件夹拉到这个目录中
重启es容器
docker restart es
测试:
IK分词器包含两种模式:
-
ik_smart
:最少切分 -
ik_max_word
:最细切分
使用最少切分的模式可以把华为,手机分割出来,但是对于网络热词无法切分
使用ik_max_word模式进行分词,可以发现分出来的词更加细腻,把"程序员"还分成了"程序"和"员"
扩展IK分词器
随着互联网的发展,“造词运动”也越发的频繁。出现了很多新的词语,在原有的词汇列表中并不存在。比如:“奥力给”,“我了个豆”等。
所以我们的词汇也需要不断的更新,IK分词器提供了扩展词汇的功能。我们可以自己进行配置
进入ik的config目录
cd ik/config
在IKAnalyzer.cfg.xml配置文件内容添加:ext.dic
<?xml version="1.0" encoding="UTF-8"?>
<!DOCTYPE properties SYSTEM "http://java.sun.com/dtd/properties.dtd">
<properties>
<comment>IK Analyzer 扩展配置</comment>
<!--用户可以在这里配置自己的扩展字典 -->
<entry key="ext_dict">ext.dic</entry>
<!--用户可以在这里配置自己的扩展停止词字典-->
<entry key="ext_stopwords"></entry>
<!--用户可以在这里配置远程扩展字典 -->
<!-- <entry key="remote_ext_dict">words_location</entry> -->
<!--用户可以在这里配置远程扩展停止词字典-->
<!-- <entry key="remote_ext_stopwords">words_location</entry> -->
</properties>
这里没有配置ext.dic的文件路径,说明和IKAnalyzer.cfg.xml在同一个目录下
vim ext.dic
在这个文件中添加词汇
然后重启es
docker restart es
测试,可以发现我勒个豆已经成为一个最小单元的词条
停用词词典
在互联网项目中,在网络间传输的速度很快,所以很多语言是不允许在网络上传递的,如:关于宗教、政治等敏感词语,那么我们在搜索时也应该忽略当前词汇。
IK分词器也提供了强大的停用词功能,让我们在索引时就直接忽略当前的停用词汇表中的内容。
1)IKAnalyzer.cfg.xml配置文件内容添加:
<?xml version="1.0" encoding="UTF-8"?>
<!DOCTYPE properties SYSTEM "http://java.sun.com/dtd/properties.dtd">
<properties>
<comment>IK Analyzer 扩展配置</comment>
<!--用户可以在这里配置自己的扩展字典-->
<entry key="ext_dict">ext.dic</entry>
<!--用户可以在这里配置自己的扩展停止词字典 *** 添加停用词词典-->
<entry key="ext_stopwords">stopword.dic</entry>
</properties>
2)打开stopword.dic(config中已经存在,不用重新创建)
添加屏蔽词汇
3)重启es
docker restart es
4)测试
直接把不显示屏蔽词
总结:
分词器的作用
- 创建倒排索引时对文档进行分词
- 用户搜索时,对输入的内容进行分词
IK分词器有几种模式
- ik_smart:智能切片,粗粒度
- ik_max_word:最细分片,细粒度