docker安装es+mac安装Kibana工具+es查询语法笔记

news2024/10/6 2:27:39

一、docker安装es

1、下载镜像

docker pull elasticsearch:7.9.0

下载完后,查看镜像

docker images

在这里插入图片描述​​

2、启动镜像

docker network create esnet
docker run  -d  --name es  -p 9200:9200 -p 9300:9300  --network esnet -e "discovery.type=single-node" e71b9e9d21b6

查看日志

docker logs e71b9e9d21b6

3、访问9200端口。

在这里插入图片描述
看到这个页面代表es安装成功,es安装完毕

4、在docker可视化工具中查看镜像日志和进程信息。

在这里插入图片描述

在这里插入图片描述

5、安装IK分词器。

1、从github下载安装。
注意版本要与ES版本一致。

进入容器。

docker exec -it adaaf2ddfa7b bash

安装对应版本的ik分词器。
在这里插入图片描述

[root@adaaf2ddfa7b bin]# ./elasticsearch-plugin install https://github.com/medcl/elasticsearch-analysis-ik/releases/download/v7.9.0/elasticsearch-analysis-ik-7.9.0.zip

重启es镜像即可。

 docker restart adaaf2ddfa7b

在kibana中测试一下IK分词器。

POST _analyze
{
  "analyzer": "ik_max_word",
  "text": ["张三丰","数据库","手机壳"]
}

POST _analyze
{
  "analyzer": "standard",
  "text": ["张三丰","数据库","手机壳"]
}


POST _analyze
{
  "analyzer": "keyword",
  "text": ["张三丰","数据库","手机壳"]
}

ik_max_word智能分词效果
在这里插入图片描述
standard效果 会拆分成一个个字
在这里插入图片描述
keyword效果
在这里插入图片描述

二、mac中安装Kibana

1、下载跟es版本一样的kibana。

官方地址:https://www.elastic.co/cn/downloads/past-releases/kibana-7-9-0

如其他的版本,只需更改链接中的数值。

在这里插入图片描述
下载完后解压文件。

在这里插入图片描述

2、修改配置文件,添加es的地址。

配置文件路径在config下,kibana.xml。
在这里插入图片描述

添加以下配置:
在这里插入图片描述

3、运行bin目录下的kibana即可。

bin/kibana

在这里插入图片描述

4、访问kibana。

localhost:5601,出现以下页面代表安装成功。
在这里插入图片描述
看到这个页面基本上就是安装成功啦!不得不吐槽,界面越来越丑了,哈哈。

5、测试一下。

可以在dev tools里调用es啦。
在这里插入图片描述

直接发送PUT请求,创建一个索引并插入一个文档,测试成功。
在这里插入图片描述

三、es学习笔记。

1、概述。

ES使用java语言并基于lucene编写的搜索引擎框架,提供了分布式的全文搜索功能,提供了基于restful风格的web接口,只需要发送一个web请求,根据请求方式不同,携带不同的参数执行。

Lucene本身就是一个搜索框架的底层。ES主要是突出他的横向扩展能力,分布式的。
1、Slor在查询死数据的时候更快一些,但是如果数据是实时变化的是咯人效率下降,ES没有影响。
2、solr搭建 集群需要 zookeeper,而es本身就支持集群的搭建 不需要第三方的额外介入。
3、slor社区、文档丰富,出现的早,ES较少。
4、ES对云计算和大数据支持的更好。

ES的数据结构
一个 Elasticsearch 集群可以包含多个索引 ,相应的每个索引可以包含多个类型 。 这些不同的类型存储着多个文档 ,每个文档又有多个属性 。
ES会对数据进行分片,1亿条数据,比如分成两个分片,各5000万条数据。
如前所述,一个索引 类似于传统关系数据库中的一个数据库 ,是一个存储关系型文档的地方。
索引 (index) 的复数词为 indices 或 indexes 。
索引(动词):
索引一个文档 就是存储一个文档到一个 索引 (名词)中以便被检索和查询。这非常类似于 SQL 语句中的 INSERT 关键词,除了文档已存在时,新文档会替换旧文档情况之外。
倒排索引

将一段词语进行分词,并且将分出的词语统一放到一个分词库中,在搜索时根据关键字去分词库中检索,找到匹配的内容。

关系型数据库通过增加一个索引比如一个 B树(B-tree)索引 到指定的列上,以便提升数据检索速度。Elasticsearch 和 Lucene 使用了一个叫做倒排索引的结构来达到相同的目的。
默认的,一个文档中的每一个属性都是 被索引 的(有一个倒排索引)和可搜索的。一个没有倒排索引的属性是不能被搜索到的。
一个类型下可以有多个文档,相当于db中多行数据;一个列多个属性,相当于db中表中行的列字段。
可以理解成如下的对应关系:

  • 数据库-----索引
  • 数据表-----类型
  • 一条记录-----一个文档
  • 字段------属性

在ES中可以创建多个索引,每个索引默认被分成5片存储。每个分片都会存在至少一个备份分片,备份分片默认不会帮助检索数据,当Es检索压力过大时,备份分片才会帮忙检索数据,备份的分片必须放在不同的服务器中。

一个索引下可以有多个类型 版本:

  • ES5.X 一个索引对应多个类型
  • ES6.X 一个索引对应1个类型
  • ES7.X 索引下没有类型 类型被移除了

2、操作ES的restful语法

GET

  • http://ip:port/index 查询索引信息
  • http://ip:port/index/type/doc_id 查询指定的文档信息

POST

  • http://ip:port/index/type/_search 查询文档,可以在请求体中添加json字符串来代表查询条件
  • http://ip:port/index/type/doc_id/_update 修改文档,在请求体中添加json字符串来代表修改的信息

PUT

  • http://ip:port/index 创建一个索引,需要在请求体中指定索引的信息
  • http://ip:port/index/type/_mappings 代表创建索引时,指定索引文档存储属性的信息

DELETE

  • http://ip:port/index 删库跑路

  • http://ip:port/index/type/doc_id 删除指定的文档

3、创建索引和索引的常用操作。

#创建一个索引

PUT /nts_db_index
{
  ""settings"": {
    ""number_of_shards"": 5, 
    ""number_of_replicas"": 1
  }
}
#分片数 默认是5
#备份数量模式1
GET /nts_db_index
# 会直接创建一个索引
PUT /tmp_db_index/au_user_type/1
{
    ""first_name"" : ""wb"",
    ""last_name"" :  ""zhang"",
    ""age"" :        25,
    ""about"" :      ""I love to go rock climbing"",
    ""interests"": [ ""sports"", ""music"" ]
}
PUT /tmp_db_index/au_user_type/2
{
    ""first_name"" :  ""Jane"",
    ""last_name"" :   ""Smith"",
    ""age"" :         32,
    ""about"" :       ""I like to collect rock albums"",
    ""interests"":  [ ""music"" ]
}

PUT /tmp_db_index/au_user_type/3
{
    ""first_name"" :  ""Douglas"",
    ""last_name"" :   ""Fir"",
    ""age"" :         35,
    ""about"":        ""I like to build cabinets"",
    ""interests"":  [ ""forestry"" ]
}
#查询索引信息 分片数 被分数 别名 属性类型等
GET /tmp_db_index
#查询 全部
GET /tmp_db_index/au_user_type/_search 
#根据id=1查询
GET /tmp_db_index/au_user_type/1
#删除索引
DELETE /tmp_db_index"		
{
  ""nts_db_index"" : {
    ""aliases"" : { }, 别名
    ""mappings"" : { }, 数据的结构
    ""settings"" : {
      ""index"" : {
        ""creation_date"" : ""1613207857440"",
        ""number_of_shards"" : ""5"", 分片数
        ""number_of_replicas"" : ""1"", 备份数
        ""uuid"" : ""w_bLH--GQI6EcrJL3THDzw"",
        ""version"" : {
          ""created"" : ""6050499""
        },
        ""provided_name"" : ""nts_db_index""
      }
    }
  }
}

kibana的索引查询页面

在这里插入图片描述

4、属性类型

string类型

  • text:一般用于全文检索 将当前属性进行分词
  • keyword:当前属性不会被分词

数值类型

  • long
  • integer
  • short
  • byte
  • double
  • float
  • half_float 精度比float小一半
  • scaled_float 根据一个long和scaled来表示一个浮点型 long-345 scaled-100 -->3.45

时间类型

  • date类型 针对具体格式的时间 yyyy-mm-dd hh-ms-ss long毫秒数

布尔类型

  • true
  • false

二进制类型

  • binary类型暂时只支持Base6 encoding string

范围类型

  • long_range 存储一个范围 无需指定具体内容 指定 gt lt gte lte
  • integer_range 以下均同上
  • double_range
  • float_range
  • dat_range
  • ip_range

位置类型

  • 经纬度 geo_point

ip类型

  • ipv4
  • ipv6

5、创建索引 指定属性的数据结构

PUT /book
{
  ""settings"": {
    ""number_of_shards"": 5,
    ""number_of_replicas"": 1
  },
  ""mappings"": {
    ""noval"":{
      ""properties"":{
        ""name"":{
          ""type"":""text"",
          ""analyzer"":""ik_max_word"",
          ""index"":true,
          ""store"":false
        },
        ""auther"":{
          ""type"":""keyword""
        },
        ""count"":{
          ""type"":""long""
        },
        ""on-time"":{
          ""type"":""date"",
          ""format"":""yyyy-MM-dd HH:mm:ss||yyyy-MM-dd||epoch_millis""
        },
        ""desc"":{
          ""type"":""text"",
          ""analyzer"":""ik_max_word""
        }
      }
    }
  }
}

注释:

#创建索引,指定数据类型
PUT /book
{
  ""settings"": {
    #分片数
    ""number_of_shards"": 5,
    #备份数
    ""number_of_replicas"": 1
  },
    #指定数据类型
 ""mappings"": {
    #类型 Type
   ""novel"":{
    #文档存储的field
     ""properties"":{
       #field属性名
       ""name"":{
         #类型
         ""type"":""text"",
         #指定分词器
         ""analyzer"":""ik_max_word"",
         #指定当前的field可以被作为查询的条件
         ""index"":true,
         #是否需要额外存储
         ""store"":false
       },
       ""author"":{
         ""type"":""keyword""
       },
       ""count"":{
         ""type"":""long""
       },
       ""on-sale"":{
         ""type"":""date"",
           #指定时间类型的格式化方式
         ""format"": ""yyyy-MM-dd HH:mm:ss||yyyy-MM-dd||epoch_millis""
       },
        ""descr"":{
          ""type"":""text"",
          ""analyzer"":""ik_max_word""
       }
     }
   }
 }
}

6、文档的操作

添加文档 自动生成id

POST /book/noval
{
  ""name"":""我和我的祖国"",
  ""auther"":""张文"",
  ""count"":100000,
  ""on-time"" : ""2021-02-14 14:20:06"",
  ""desc"":""我和我的祖国,一刻也不能分割,无论我走到哪里,都留下一首赞歌!""
}

添加文档 手动指定id

POST /book/noval/1
{
  ""name"":""我和我的家乡"",
  ""auther"":""杜卓"",
  ""count"":2222222,
  ""on-time"" : ""2021-2-14 14:22:55"",
  ""desc"":""我和我的家乡大枣庄,真漂亮啊真漂亮,我爱吃辣子鸡和莲蓬啊!""
}

修改文档 覆盖式修改

POST /book/noval/1
{
  ""name"":""我和我的家乡"",
  ""auther"":""杜卓1"",
  ""count"":22220000,
  ""on-time"" : ""2021-2-14 14:22:55"",
  ""desc"":""我和我的家乡大枣庄,真漂亮啊真漂亮,我爱吃辣子鸡和莲蓬啊!""
}

修改文档 基于doc的方式

POST /book/noval/1/_update
{
  ""doc"": {
    ""count"":6666666
  }
}

根据id删除文档

DELETE /book/noval/DEU1n3cBhRoCqt_4gtk7 	

查询操作,GET 或者 POST(带条件的)都可以

7、ES查询语法

查询 相当于mysql的limit 分页
from size (默认 0 20)

GET /sms-logs-index/sms-logs-type/_search
{
  ""from"": 0,
  ""size"": 4
}

7.1 term查询

代表的是完全匹配,搜索之前不会对搜索关键字进行分词,对你的关键字去分词库中匹配内容

# term查询
GET /sms-logs-index/sms-logs-type/_search
{
  ""from"": 0,
  ""size"": 4,
  ""query"": {
    ""term"": {
      ""province"": {
        ""value"": ""上海""
      }
    }
  }
}
# 如果用"上"匹配则匹配不上
# 相当于 where province = "上海"

7.2 terms查询

与term查询一样 都不对查询的关键字进行分词 直接去分词库里面匹配 找到相应的文档内容
terms是针对一个字段包含多个值的时候使用

GET /sms-logs-index/sms-logs-type/_search
{
  ""query"": {
    ""terms"": {
      ""province"": [
        ""上海"",
        ""北京""
      ]
    }
  }
}
# 相当于where province = "上海" or province = "北京" 

GET /sms-logs-index/sms-logs-type/_search
{
  ""query"": {
    ""term"": {
      ""smsContent"": [
        ""孩子""
      ]
    }
  }
}
# terms也可以  不仅仅是关键字 普通的文本分词以后也可以

7.3 match查询

match查询属于高层查询,会根据查询的字段类型不同采取不同的查询方式
查询的是日期或数值类型,会基于查询字符串内容转为日期或者数值对待 。
如果查询的内容不是一个不能被分词的内容(keyword),match查询不会对指定的内容进行分词。
如果查询的内容是一个不能被分词的内容(text),match查询会对指定的内容进行分词,去分词库中匹配指定的内容。

match查询底层就是多个term查询封装到了一起。

7.3.1 match_all 查询

查询全部内容,不指定任何查询条件 默认只查询出来10条 可以加size限制"

GET /sms-logs-index/sms-logs-type/_search
{
  ""query"": {
    ""match_all"": {}
  }
}
7.3.2 match 查询

指定一个属性作为筛选的条件

GET /sms-logs-index/sms-logs-type/_search
{
  ""query"": {
    ""match"": {
      ""smsContent"": ""一个没有实力的男人""
    }
  }
# ik分词后:一个,一,个,没有,实力,男人
7.3.3 布尔 match 查询

and 或者 or

GET /sms-logs-index/sms-logs-type/_search
{
  ""query"": {
    ""match"": {
      ""smsContent"": {
      ""query"": ""孩子 中年"",
      ""operator"": ""and""
      }
    }
  }
}
# and 内容既包含孩子也包含中年
# or 内容包含孩子或者中年
7.3.4 multi_match查询

针对多个属性进行检索,多个field对应一个内容
match是一个属性

GET /sms-logs-index/sms-logs-type/_search
{
  ""query"": {
    ""multi_match"": {
      ""query"": ""北京"",
      ""fields"": [""province"",""corpName""]
    }
  }
}

7.4、其他查询

7.4.1 id查询

查询id是8的文档

GET /sms-logs-index/sms-logs-type/8	
7.4.2 ids查询

根据多个id查询 类似in

GET /sms-logs-index/sms-logs-type/_search
{
  ""query"": {
    ""ids"": {
      ""values"": [""1"",""2"",""8""]
    }
  }
}
7.4.2 前缀查询prefix

可以通过一个关键字去指定一个属性的前缀,去匹配文档,类似sql中的 like ‘海尔%’

GET /sms-logs-index/sms-logs-type/_search
{
  ""query"": {
    ""prefix"": {
      ""corpName"": {
        ""value"": ""海尔""
      }
    }
  }
}

对比下match查询

#以海尔开头的,而match则匹配不上 
GET /sms-logs-index/sms-logs-type/_search
{
  ""query"": {
    ""match"": {
      ""corpName"": ""海尔""
    }
  }
}
7.4.3 fuzzy查询 模糊查询

根据输入字符的大概去匹配 错别字
不太稳定
数据量大的话不支持 可以加参数,保证前面几个字符是不能出错的

GET /sms-logs-index/sms-logs-type/_search
{
  ""query"": {
    ""fuzzy"": {
      ""corpName"": {
        ""value"": ""海尔电气""
      }
    }
  }
}
GET /sms-logs-index/sms-logs-type/_search
{
  ""query"": {
    ""fuzzy"": {
      ""corpName"": {
        ""value"": ""格力汽扯"",
        ""prefix_length"": 3
      }
    }
  }
}
7.4.4 wildcard查询 通配符 占位符

和like一个套路,使用通配符*和占位符?

POST /sms-logs-index/sms-logs-type/_search
{
  ""query"": {
    ""wildcard"": {
      ""corpName"": {
        ""value"": ""*力*""
      }
    }
  }
}
POST /sms-logs-index/sms-logs-type/_search
{
  ""query"": {
    ""wildcard"": {
      ""corpName"": {
        ""value"": ""海尔????""
      }
    }
  }
}
7.4.5 range查询 只针对数值类型范围查询

对某一个fiId进行大于或小于的范围指定

POST /sms-logs-index/sms-logs-type/_search
{
  ""query"": {
    ""range"": {
      ""replyTotal"": {
        ""gte"": 3,
        ""lte"": 15
      }
    }
  }
}

gte ≥
lte ≤
gt >
lt <

7.4.6 regexp查询 正则匹配

通过编写的正则表达式来匹配文档

POST /sms-logs-index/sms-logs-type/_search
{
  ""query"": {
    ""regexp"": {
      ""mobile"": ""138[0-9]{8}""
    }
  }
}
7.4.7 深分页 scroll

效率高 放到内存中 但使用场景为不是实时的数据
ES对from+size是有限制的,数量不超过1w
from+size原理
1、将查询关键字分词
2、将词汇去分词库中检索,得到多个文档id
3、去各个分片中拉取指定的数据,耗时较长
4、将数据根据score分数排序
5、根据from的值将数据舍弃一部分
6、返回数据
scroll原理
1、将查询关键字分词
2、将词汇去分词库中检索 得到多个文档id
3、将文档id放到ES的一个上下文中
4、将指定的size去es中检索指定的数据 拿完文档的id,会从上下文中移除
5、如果找下一页内容,直接去es的上下文中找
不适合做实时的数据查询

# 指定生存时间为1分钟
# 默认是id排序 也可指定
POST /sms-logs-index/sms-logs-type/_search?scroll=1m
{
  ""query"": {
    ""match_all"": {}
  },
  ""size"": 3
}

#加排序
POST /sms-logs-index/sms-logs-type/_search?scroll=1m
{
  ""query"": {
    ""match_all"": {}
  },
  ""size"": 3,
  ""sort"": [
    {
      ""fee"": {
        ""order"": ""desc""
      }
    }
  ]
}
# 查询下一页数据
POST /_search/scroll
{
  ""scroll_id"":
  ""DnF1ZXJ5VGhlbkZldGNoAwAAAAAAAAX4Fk4yWlZWaFNTUmR1bzB4V1VfU1ZQcFEAAAAAAAAF-RZOMlpWVmhTU1JkdW8weFdVX1NWUHBRAAAAAAAABfoWTjJaVlZoU1NSZHVvMHhXVV9TVlBwUQ=="",
  ""scroll"":""1m""
}
7.4.8 复合查询 bool

bool查询 复合过滤器,将多个查询条件组合在一起

  • must 所有的条件 组合在一起 and
  • must_not 将条件 全部不能匹配 not
  • should 所有的条件 组合一起 or
#bool 省份是北京或者上海 公司不是阿里开头的 内容包含孩子和中年的数据
POST /sms-logs-index/sms-logs-type/_search
{
  ""query"": {
    ""bool"": {
      ""should"": [
        {
          ""term"": {
            ""province"": {
              ""value"": ""北京""
            }
          }
        },{
          ""term"": {
            ""province"": {
              ""value"": ""上海""
            }
          }
        }
      ], 
      ""must_not"": [
        {
          ""wildcard"": {
          ""corpName"": {
          ""value"": ""阿里*""
          }
          }
        }
      ],
      ""must"": [
        {
          ""match"": {
            ""smsContent"": ""孩子""
          }
        },
        {""match"": {
          ""smsContent"": ""中年""
        }}
      ]
    }
  }
}
7.4.9 bootsting查询 score 分数排序

可以帮助我们去影响查询后的score 从而影响排序
score分数:
1、搜索的关键字在文档中出现的频率越高,分数越高
2、文档内容越短 分数越高
3、搜索的关键字分词以后匹配到的内容越多 分数越高

positive 只有匹配上positive的内容才会返回到结果集中
negative 如果匹配上positive和negative,会降低文档的score
negative_boost 指定系数 必须小于1

#boosting 
POST /sms-logs-index/sms-logs-type/_search
{
  ""query"": {
    ""boosting"": {
      ""positive"": {
        ""match"": {
          ""smsContent"": ""有实力的男人""
        }
      },
      ""negative"": {
        ""match"": {
          ""smsContent"": ""中年人""
        }
      },
      ""negative_boost"": 0.5
    }
  }
}
7.4.10 filter查询 数据做缓存

query查询是根据查询条件去计算文档匹配到的分数,并且根据分数进行排序,不会做缓存
filter查询是根据条件去查询文档,不计算分数,而且会对经常被过滤的数据进行缓存,查出来的数据分数都是0

POST /sms-logs-index/sms-logs-type/_search
{
  ""query"": {
    ""bool"": {
      ""filter"": [
        {
          ""term"": {
          ""province"": ""北京""
          }
        },
        {
        ""range"": {
          ""fee"": {
            ""gte"": 30,
            ""lte"": 80
          }
        }
      }
      ]
    }
  }
}
7.4.11 高亮查询 将查询关键字添加样式

高亮展示的数据,本身就是文档中的一个field,单独将field以高亮的形式返回
highlight属性 和query同级

pre_tag 指定前缀标签 如 <font color =““red””>
post_tag 指定后缀标签
fragment_zise 指定高亮数据展示多少个字符回来

POST /sms-logs-index/sms-logs-type/_search
{
  ""query"": {
    ""match"": {
      ""smsContent"": ""蕴气式""
    }
  },
  ""highlight"": {
    ""fields"": {
       ""smsContent"": {}
    },
    ""pre_tags"": ""<font color ='red'>"",
    ""post_tags"": ""</font>"",
    ""fragment_size"" :10
  }
}

在这里插入图片描述

7.4.12 聚合查询

和MySQL的聚合查询类似,ES的聚合查询更加强大,提供的统计方式多种多样

restful语法:

POST /index/type/_search
{
    ""aggs"":{
        ""(名字 随意哦)agg"":{
            ""agg_type"":{
                ""属性"":""值""
            }
        }
    }
}

去重计数
省份去重 province_distinct

POST /sms-logs-index/sms-logs-type/_search
{
  ""aggs"": {
    ""province_distinct"": {
      ""cardinality"": {
        ""field"": ""province""
      }
    }
  }
}
7.4.13 范围统计

统计一个范围内出现的文档个数。
比如一个field的值在0-100,100-200等出现的个数 分别统计
针对数值类型、时间类型、ip类型,对应的语法:range、date_dange、ip_range

数值类型 range

POST /sms-logs-index/sms-logs-type/_search
{
  ""aggs"": {
    ""agg"": {
      ""range"": {
        ""field"": ""fee"",
        ""ranges"": [
          {
            ""to"": 30
          },
          {
            ""from"": 30,
            ""to"": 50
          },{
            ""from"": 50
          }
        ]
      }
    }
  }
}
from是带等号的

时间类型 查询 date_range

POST /sms-logs-index/sms-logs-type/_search
{
  ""aggs"": {
    ""agg"": {
      ""date_range"": {
        ""field"": ""createDate"",
        ""format"": ""yyyy"", 
        ""ranges"": [
          {
            ""from"": ""2020"",
            ""to"": ""2022""
          }
        ]
      }
    }
  }
}

ip类型 ip_range

POST /sms-logs-index/sms-logs-type/_search
{
  ""aggs"": {
    ""agg"": {
      ""ip_range"": {
        ""field"": ""ipAddr"",
        ""ranges"": [
          {
            ""to"": ""127.0.0.4""
          },
          {
            ""from"": ""127.0.0.4"",
            ""to"": ""127.0.0.8""
          },{
            ""from"": ""127.0.0.8""
          }
        ]
      }
    }
  }
}
7.4.14 统计聚合查询 求某一列的聚合函数

求指定field的最大值 最小值 平均数 平方和等

POST /sms-logs-index/sms-logs-type/_search
{
  ""aggs"": {
    ""agg"": {
      ""extended_stats"": {
        ""field"": ""fee""
      }
    }
  }
}

结果:

{
  ""count"" : 13,
  ""min"" : 18.0,
  ""max"" : 90.0,
  ""avg"" : 54.0,
  ""sum"" : 702.0,
  ""sum_of_squares"" : 44460.0,
  ""variance"" : 504.0,
  ""std_deviation"" : 22.44994432064365,
  ""std_deviation_bounds"" : {
    ""upper"" : 98.8998886412873,
    ""lower"" : 9.100111358712702
  }
}
7.4.15 地图经纬度搜索

经纬度 geo_point

#创建地图索引
PUT /map
{
  ""settings"": {
    ""number_of_shards"": 5, 
    ""number_of_replicas"": 1
  },
  ""mappings"": {
    ""bj_map"":{
      ""properties"":{
        ""name"":{
          ""type"":""text""
          },
          ""location"":{
            ""type"":""geo_point""
          }
        }
      }
    }
}
#地图索引插入数据
PUT /map/bj_map/1
{
  ""name"":""北京科技职业学院"",
  ""location"":{
    ""lon"": 116.257172,
    ""lat"": 40.123649
  }
}
PUT /map/bj_map/2
{
  ""name"":""广洋公寓"",
  ""location"":{
    ""lon"": 116.267578,
    ""lat"": 40.132317
  }
}"	"PUT /map/bj_map/3
{
  ""name"":""飞腾家园"",
  ""location"":{
    ""lon"": 116.382617,
    ""lat"": 39.808707
  }
}
PUT /map/bj_map/4
{
  ""name"":""模式口西里"",
  ""location"":{
    ""lon"": 116.156704,
    ""lat"": 39.940053
  }
}
PUT /map/bj_map/5
{
  ""name"":""老山东里"",
  ""location"":{
    ""lon"": 116.231905,
    ""lat"": 39.91603
  }
}"

地图检索方式

  • geo_distance 直线距离检索方式
  • geo_bounding_box 以两个点确定一个矩形 获取矩形内的位置
  • geo_polygon 以多个点 确认一个多边形 获取多边形内的全部位置

geo_distance

POST /map/bj_map/_search
{
  ""query"": {
  ""geo_distance"":{
    ""location"":{ #指定位置
      ""lon"" : 116.372097,
      ""lat"" : 39.818302
     },
     ""distance"": 2000,    #半径
     ""distance_type"":""arc""   #圆形
    }
  }
}

结果:

# 新宫 直径2000米内的
{
  ""took"" : 6,
  ""timed_out"" : false,
  ""_shards"" : {
    ""total"" : 5,
    ""successful"" : 5,
    ""skipped"" : 0,
    ""failed"" : 0
  },
  ""hits"" : {
    ""total"" : 1,
    ""max_score"" : 1.0,
    ""hits"" : [
      {
        ""_index"" : ""map"",
        ""_type"" : ""bj_map"",
        ""_id"" : ""3"",
        ""_score"" : 1.0,
        ""_source"" : {
          ""name"" : ""飞腾家园"",
          ""location"" : {
            ""lon"" : 116.382617,
            ""lat"" : 39.808707"

geo_bounding_box

# 两个点确认一个矩形 指定左上角的坐标和右下角的坐标
POST /map/bj_map/_search
{
  ""query"": {
  ""geo_bounding_box"":{
    ""location"":{
      ""top_left"":{
        ""lon"" : 116.193999,
        ""lat"" : 39.99746
      },
      ""bottom_right"":{
       ""lon"" : 116.421666,
      ""lat"" : 39.518215
      }
     }
    }
  }
}

结果:

{
	{
		""_index"" : ""map"",
        ""_type"" : ""bj_map"",
        ""_id"" : ""5"",
        ""_score"" : 1.0,
        ""_source"" : {
          ""name"" : ""老山东里"",
          ""location"" : {
            ""lon"" : 116.231905,
            ""lat"" : 39.91603
        }
      },
      {
        ""_index"" : ""map"",
        ""_type"" : ""bj_map"",
        ""_id"" : ""3"",
        ""_score"" : 1.0,
        ""_source"" : {
          ""name"" : ""飞腾家园"",
          ""location"" : {
            ""lon"" : 116.382617,
            ""lat"" : 39.808707
       }
}

geo_polygon

POST /map/bj_map/_search
{
  ""query"": {
    ""geo_polygon"":{
      ""location"":{
       ""points"":[
         {
           ""lon"" : 116.218778,
           ""lat"" : 39.930794
         },
         {
           ""lon"" : 116.259525,
            ""lat"" : 9.930628
         },
         {
           ""lon"" : 116.197003,
           ""lat"" : 39.913696
         },
         {
           ""lon"" : 116.242134,
           ""lat"" : 39.913253
         }
        ]
      }
    }
  }
}

结果:

{
        ""_index"" : ""map"",
        ""_type"" : ""bj_map"",
        ""_id"" : ""5"",
        ""_score"" : 1.0,
        ""_source"" : {
          ""name"" : ""老山东里"",
          ""location"" : {
            ""lon"" : 116.231905,
            ""lat"" : 39.91603
          }
}
7.4.16 delete-by-query 删除查询到的结果

根据term/match等查询方式去删除大量的文档
建议备份 大量数据不推荐
底层还是按照id一个一个删除

 POST /sms-logs-index/sms-logs-type/_delete_by_query
{
  ""query"": {
    ""range"": {
      ""replyTotal"": {
        ""gte"": 3,
        ""lte"": 6
      }
    }
  }
}

删除结果:

{
  ""took"" : 26,
  ""timed_out"" : false,
  ""total"" : 2,
  ""deleted"" : 2,
  ""batches"" : 1,
  ""version_conflicts"" : 0,
  ""noops"" : 0,
  ""retries"" : {
    ""bulk"" : 0,
    ""search"" : 0
  },
  ""throttled_millis"" : 0,
  ""requests_per_second"" : -1.0,
  ""throttled_until_millis"" : 0,
  ""failures"" : [ ]
}

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/11852.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

图解CentOS7集群时钟同步chronyd

文章目录概述图步骤1、修改时区2、安装chrony3、选1台机作为时钟服务器4、其他机器同步时间概述 对于物理机集群&#xff0c;需要使用统一的时间&#xff0c;本文使用时钟同步技术来实现 图 图解 默认的 外部网络的 时钟服务器 在国外&#xff0c;速度较慢 0.centos.pool.n…

(表格固定尾列)bower安装的相关问题

遇到需求固定表格尾列&#xff0c;尾列是操作&#xff08;查看&#xff0c;删除&#xff09;这些 尝试了css&#xff0c;js&#xff0c;jquery&#xff0c;插件&#xff0c;layui&#xff0c;elementui各种都没用 freeze-table&#xff08;一个固定表格插件&#xff09; npm i…

【父母必知】呼吸过敏知多少

“吃完鸡蛋后全吐了&#xff0c;是过敏吗&#xff1f;”“湿疹怎么不经意间又出现了&#xff0c;到底吃了什么”“咳嗽总是不好&#xff0c;都说我们是过敏性咳嗽&#xff0c;对什么过敏&#xff1f;”“小时候&#xff0c;湿疹肠绞痛跑到医院&#xff0c;现在鼻炎哮喘还跑到医…

计算机对字节的七种操作

计算机对字节的处理有七种&#xff1a;复制&#xff0c;左移&#xff0c;右移&#xff0c;非&#xff0c;与&#xff0c;或&#xff0c;异或。本篇将回顾一下这几种操作的具体底层实现 四种常见的门结构 到目前为止&#xff0c;我们已经使用了NAND、AND和NOT门。我们需要定义另…

基于soft-RoCE运行OSU Micro Benchmark

之前的文章描述了如何运行Benchmark&#xff0c;但是那个是基于TCP的。现在想要跑一个基于RoCEv2的结果。虚拟机上没有支持infiniband的网卡&#xff0c;那就用Soft RoCE了。 Soft-RoCE的安装和调试 系统版本信息 adminosu-1:~$ uname -a Linux osu-1 5.11.0-44-generic #48~…

1.1 极限的概念

1.1 极限的概念 1.1.1 数列的极限 引言 在物理实验中&#xff0c;如果涉及到测量&#xff0c;那么误差总是存在的。误差是在正确实验的情况下实验测量值与理论值之间的差值。如果理论是正确的并且使用更精密的实验仪器或改进实验方法&#xff0c;那么测量值就会更加接近理论…

sql server卡慢问题定位和排查

一、数据库服务器资源排查 二、数据库sql性能排查 2.1、查询哪些资源被阻塞了 和 堵进程 1&#xff09;、查询哪些资源被阻塞了&#xff08;spid为阻塞进程id&#xff09; select * from sys.sysprocesses where status suspended 2&#xff09;、查询堵进程…

基于springboot的疫情防控管理系统

1、项目介绍 基于springboot的疫情防控管理系统拥有两种角色&#xff1a;管理员和用户 管理员&#xff1a;用户管理、隔离地点管理、隔离人员管理、防护用具管理、消毒管理、生活需求管理、体温上报管理、核酸结果管理、配餐管理、物资配送管理、隔离解除管理等 用户&#x…

linux make和makefile

目录linux make和makefilemake小程序进度条linux make和makefile make 会不会写makefifile&#xff0c;从一个侧面说明了一个人是否具备完成大型工程的能力 一个工程中的源文件不计数&#xff0c;其按类型、功能、模块分别放在若干个目录中&#xff0c;makefifile定义了一系列…

一文快速学会linux shell 编程基础!!!

文章目录前言一、shell脚本执行的方式1.格式要求2.脚本常用执行方式2.1 . 输入脚本的绝对路径或相对路径进行执行2.2 使用 sh 脚本的方式shell 的注释语法二、shell 变量1.shell变量介绍2.shell 变量的定义定义变量定义变量的规则将命令的返回值赋给变量3.设置环境变量3.位置参…

多功能电力仪表在物联网的应用

安科瑞 华楠 有线多功能电力仪表场景 应用场景 功能&#xff1a; 1.支持全电力参数测量&#xff1b;以及2-31次分次谐波测量&#xff1b;支持双向有功电能计量&#xff0c;支持四套时段表、4个时区、14个日时段、4种费率的电能统计&#xff1b;需量及发生时间统计&#xff1…

智慧党务管理源码,竞赛答题+阅读学习一套系统全搞定

智慧党务源码系统是利用互联网技术实现党建信息资源整合、逐步提升现代化党建知识水平的党务学习答题系统平台。今天万岳科技就来讲一讲如果开发一套智慧党务源码需要满足哪些功能&#xff1f;智慧党务学习答题系统主要功能为&#xff1a; 1、党组织管理&#xff1a;对各级党务…

我参加NVIDIA Sky Hackathon 环境安装(基本系统环境)

我的硬件环境 x86的物理机RTX 3060 12G16G 的 U盘 软件环境 Ubuntu 20.04 LTSssh 命令行输入 apt install ssh 即可 第一个坑&#xff1a; 18.04 的 Ubuntu 系统在安装过程中无法显示&#xff0c; 99% 的场景显示器会黑屏所以 3060 最好使用 Ubuntu 20.04 及以上版本 安装…

SpringMVC ---- SpringMVC的视图

SpringMVC ---- SpringMVC的视图1. ThymeleafView2. 转发视图3. 重定向视图4. 视图控制器view-controllerSpringMVC 中的视图是 View 接口&#xff0c;视图的作用是渲染数据&#xff0c;将模型 Model 中的数据展示给用户 SpringMVC 的视图种类很多&#xff0c;默认有转发视图和…

[附源码]SSM计算机毕业设计“云味坊”购物网站JAVA

项目运行 环境配置&#xff1a; Jdk1.8 Tomcat7.0 Mysql HBuilderX&#xff08;Webstorm也行&#xff09; Eclispe&#xff08;IntelliJ IDEA,Eclispe,MyEclispe,Sts都支持&#xff09;。 项目技术&#xff1a; SSM mybatis Maven Vue 等等组成&#xff0c;B/S模式 M…

振弦采集模块的通讯协议( IIC)

振弦采集模块的通讯协议&#xff08; IIC&#xff09; IIC 通讯协议本身即是基于设备地址和寄存器的物理层通讯协议&#xff0c; VMXXX 使用 IIC 接口对传感器的访问&#xff0c;请遵循前述硬件接口时序及协议说明即可。 IIC 访问时使用与 UART 相同的寄存器地址&#xff0c;地…

【云原生-Docker】使用 Docker Compose 管理容器

&#x1f341;博客主页&#xff1a;&#x1f449;不会压弯的小飞侠 ✨欢迎关注&#xff1a;&#x1f449;点赞&#x1f44d;收藏⭐留言✒ ✨系列专栏&#xff1a;&#x1f449;Docker学习专栏 ✨学习社区&#xff1a;&#x1f449;不会压弯的小飞侠 ✨知足上进&#xff0c;不负…

5种方法实现(a==1 a==2 a==3) == true

乍一看&#xff0c;这个咋能相等呢&#xff1f;深入思考就发现不仅可以相等&#xff0c;还有不少方法&#xff0c;下面就来讲讲这些方法都是如何实现的。 一、valueOf && toString 直接上代码&#xff1a; 比较运算分为2种&#xff0c; 一种为严格比较()&#xff0c;…

【设计模式】类图

本文主要介绍类图的概念、类之间的关系以及如何用类图表示类和类之间的关系 类图&#xff1a; 是一种静态结构图&#xff0c;是系统分析和设计阶段的重要产物。 类图画法&#xff1a; 1. 类的表示方式 类的表示中包含类名、属性 和 方法&#xff0c; 其中&#xff0c; 表示…

C++ Reference: Standard C++ Library reference: Containers: deque: deque: empty

C官网参考链接&#xff1a;https://cplusplus.com/reference/deque/deque/empty/ 公有成员函数 <deque> std::deque::empty C98 bool empty() const; C11 bool empty() const noexcept;测试容器是否为空 返回deque容器是否为空&#xff08;即其size是否为0&#xff09;…