极客星球 | Elasticsearch入门与实战技术分享

news2024/10/6 16:29:48

为持续夯实MobTech袤博科技的数智技术创新能力和技术布道能力,本期极客星球邀请了MobTech企业服务研发部工程师勤佳,从Elasticsearch集群安装、DSL语句讲解、深度分页、IK分词器、滚动索引等方面进行了阐述和分享。

一、集群环境安装

elasticsearch 是一个分布式、高扩展、近实时的搜索与数据分析引擎。

1.1 elasticsearch 安装

1.1.1 节点说明

本次安装的版本为8.4.1,因此 jdk 我选择的也是较高版本 jdk-18。

节点名称

节点IP

节点角色

备注

node-1

10.8.104.82

master

候选节点,初始化时为 active master 并安装了kibana

node-2

10.8.104.83

master

候选节点,在node-1挂掉时,可替代并成为 active master

node-3

10.8.104.143

master + data + voting_only

可作为数据节点,虽然为候选节点,但用voting_only 阉割了候选权,仅能进行投票

node-4

10.8.104.144

data

数据节点

node-5

10.8.104.145

data

数据节点

node-6

10.8.104.236

data

数据节点

node-7

10.8.104.154

data

数据节点

1.1.2 安装说明

  • 参考官方

(www.elastic.co/guide/en/el…)

  • 下载安装包

(wget artifacts.elastic.co/downloads/e…)

  • 解压执行

  • tar -xzf elasticsearch-8.4.1-linux-x86_64.tar.gz``cd elasticsearch-8.4.1/

  •  修改配置文件(所有节点)

    vim config/elasticsearch.yml

# 集群名称,同一个集群节点配置要一致``cluster.name: my-application # 节点名称,同一个集群节点配置要不一致,*单点部署需移除*``node.name: node-1 # master data voting_only``node.roles: [master]``network.host: 10.8.104.82``http.port: 9200 #集群配置可被发现列表,*单点部署需移除*``discovery.seed_hosts: discovery.seed_hosts: ["10.8.104.82:9300","10.8.104.83:9300","10.8.104.143:9300"] # cluster.initial_master_nodes: ["node-1", "node-2","node-3"] # 8.4.1 默认开启安全验证,可以设置关闭``xpack.security.enabled: false``xpack.security.enrollment.enabled: false # Enable encryption for HTTP API client connections, such as Kibana, Logstash, and Agents``xpack.security.http.ssl:``enabled: false # Enable encryption and mutual authentication between cluster nodes``xpack.ml.enabled: false

  • 启动(先启动主节点、用普通用户启动)

useradd elastic``cd ..``chown -R elastic:elastic elasticsearch-8.4.1``su elastic ./bin elasticsearch -d

1.2 kibana 安装

kibana 是为 elasticsearch 设计的开源分析和可视化平台

1.2.1 安装说明

  • 参考官方

(www.elastic.co/guide/en/ki…)

  • 下载安装包

(curl -O artifacts.elastic.co/downloads/k…)

  • 解压执行

tar -xzf kibana-8.4.1-linux-x86_64.tar.gz``cd kibana-8.4.1/

  • 修改配置文件 vim config/kibana.yml

    server.port: 5601server.host: "10.8.104.82"server.name: "my-kibana"elasticsearch.hosts: ["http://10.8.104.82:9200","http://10.8.104.83:9200"]

  • 启动(不能用root启动,用普通用户启动)

useradd elastic

cd ..

chown -R elastic:elastic kibana-8.4.1

su elastic

nohup bin/kibana &

  • 可视化页面 (http://10.8.104.82:5601)

1.3 elasticsearch head 插件

  • 谷歌应用商店下载

(chrome.google.com/webstore/se…)

  • 搜索 Multi Elasticsearch Head 进行集成

二、Query DSL(Domain Specific Language)

2.1 query 查询

  • 查询所有

    GET /product/_search

  • 带参数

    GET /product/_search?q=name.keyword:苹果AirPods

  • 分页

    GET /product/_search?from=0&size=5&sort=price:desc

2.2 全文检索-fulltext query

match 匹配包含某个term的子句

 GET /_analyze  {    "analyzer": "ik_max_word",    "text": ["联想电脑"]  }    ## 联想电脑 会分成  "联系" "电脑" 两个词项,子句中 只要存在一个即可  GET /product/_search  {    "query": {      "match": {        "name": "联想电脑"      }    }  }    ## match_phrase 与 match 区别,不仅包含"联想"也要包含"电脑"  GET /product/_search  {    "query": {      "match_phrase": {        "name": "联想电脑"      }    }  }
复制代码
  • match_all 匹配所有

    GET /product/_search
    {
    "query": {
    "match_all": {}
    }
    }

  • multi_match 多字段查询

    GET /product/_search { "query": { "multi_match": { "query": "苹果", "fields": ["desc","name"] } } }

  • match_phrase 短语查询

    联想电脑 分词为 "联系" "电脑", match_phrase 与 match 区别,不仅包含"联想"也要包含"电脑" GET /product/_search { "query": { "match_phrase": { "name": "联想电脑" } } }

match_phrase_prefix 短语前缀查询,与 match_phrase 类似,但是会对最后一个词项在倒排索引列表中进行通配符搜索

 GET /product/_search  {    "query": {      "match_phrase": {        "name": "联"      }    }  }      GET /product/_search  {    "query": {      "match_phrase_prefix": {        "name": "联"      }    }  }
复制代码

2.3 精准查询-Term query

  • term匹配和搜索词项完全相等的结果

  • term和match_phrase区别:

match_phrase 会将检索关键词分词, match_phrase的分词结果必须在被检索字段的分词中都包含,而且顺序必须相同,而且默认必须都是连续的

term搜索不会将搜索词分词

  • term和keyword区别

 term是对于搜索词不分词,

keyword是字段类型,是对于source data中的字段值不分词

GET /product/_search  {    "query": {      "term": {        "name.keyword": {          "value": "联想电脑"        }      }    }  }    GET /product/_search  {    "query": {      "term": {        "name": {          "value": "联想电脑"        }      }    }  }  
复制代码
  • terms 匹配和搜索词项列表中任意项匹配的结果,类似 in

    GET /product/_search { "query": { "terms": { "name.keyword": [ "联想电脑", "华为电脑" ] } } }

  • range 范围查询

    GET /product/_search { "query": { "terms": { "name.keyword": [ "联想电脑", "华为电脑" ] } } }

2.4 过滤器-Filter

filter 与 query的区别:query是计算评分,而filter不会且有相应的缓存机制,可以提升查询效率

GET /product/_search{   "query": {     "constant_score": {       "filter": {         "term": {           "name.keyword": "苹果电脑"         }       },       "boost": 1     }   }}
复制代码

2.5 组合查询-Bool query

  • bool:可以组合多个查询条件

  • must 必须满足子句(查询)必须出现在匹配的文档中,并将有助于得分

  • filter 过滤器 不计算相关度分数,并且子句被考虑用于缓存

  • should 可能满足 or子句(查询)应出现在匹配的文档中

  • minimum_should_match 参数指定should返回的文档必须匹配的子句的数量或百分比。如果bool查询包含至少一个should子句,而没有must或 filter子句,则默认值为1。否则,默认值为0

  • must_not必须不满足 不计算相关度分数,类似 not 子句

    GET /product/_search { "query": { "bool": { "filter": [ { "term": { "type": "电脑" } } ], "must": [ { "term": { "tag.keyword": { "value": "商务办公" } } }, { "range": { "price": { "gte": 10000 } } } ], "should": [ { "term": { "type": { "value": "耳机" } } } ], "minimum_should_match": 0, "must_not": [ { "exists": { "field": "noField" } } ] } } }

  • 查询

     GET product/_search  {    "_source": [      "price"    ],    "script_fields": {      "myprice": {        "script": {          "source": "doc['price'].value*2"        }      }    }  }
    复制代码

更新

GET product/_doc/2    POST product/_update/2  {    "script": {      "source": "ctx._source.price+=1"    }  }
复制代码

_reindex

 POST _reindex  {    "source": {      "index": "product"    },    "dest": {      "index": "product1"    },    "script": {      "source": "ctx._source.price+=2"    }  }  
复制代码

参数化

 GET product/_search  {    "_source": [      "price"    ],    "script_fields": {      "my_price": {        "script": {          "source": "doc['price'].value * params.discount",          "params": {            "discount": 0.9          }        }      },      "multi_my_price": {        "script": {          "source": "[doc['price'].value * params.discount_9,doc['price'].value * params.discount_8,doc['price'].value * params.discount_7,doc['price'].value * params.discount_6,doc['price'].value * params.discount_5]",          "params": {            "discount_9": 0.9,            "discount_8": 0.8,            "discount_7": 0.7,            "discount_6": 0.6,            "discount_5": 0.5          }        }      }    }  }
复制代码

2.7 聚合查询

  • 桶聚合

    GET /product/_search?size=0 { "aggs": { "type_agg": { "terms": { "field": "type", "size": 10 } } } } ## date_histogram GET product/_search?size=0 { "aggs": { "date_range": { "date_histogram": { "field": "create_time", "fixed_interval": "1d", "min_doc_count": 0, "format": "yyyy-MM-dd", "keyed": false, // create_time 空值 赋默认值 "missing": "1990-11-28", "order": { "_key": "desc" }, "extended_bounds": { "min": "2022-09-01", "max": "2022-12-10" } } } } }

  • 指标聚合

    GET /product/_search?size=0 { "aggs": { "price_sum": { "sum": { "field": "price" } }, "price_avg": { "avg": { "field": "price" } }, "price_max": { "max": { "field": "price" } }, "price_min": { "min": { "field": "price" } }, "price_count": { "value_count": { "field": "price" } }, "price_stats": { "stats": { "field": "price" } } } }

  • 管道聚合

    GET product/_search?size=0 { "aggs": { "type_bucket": { "terms": { "field": "type", "size": 10 }, "aggs": { "price_sum": { "sum": { "field": "price" } } } }, "min_sum_bucket": { "min_bucket": { "buckets_path": "type_bucket>price_sum" } }, "max_sum_bucket": { "max_bucket": { "buckets_path": "type_bucket>price_sum" } }, "create_time_bucket": { "date_histogram": { "field": "create_time", "calendar_interval": "month", "format": "yyyy-MM" }, "aggs": { "price_sum": { "sum": { "field": "price" } } } }, "min_sum_create_bucket": { "min_bucket": { "buckets_path": "create_time_bucket>price_sum" } } } }

三、IK分词器

3.1 IK文件描述

  • ik提供两种analyzer

  • ik_smart:会做最粗粒度的拆分,比如会将“中华人民共和国国歌”拆分为“中华人民共和国,国歌”,分词的时候只分一次,句子里面的每个字只会出现一次

  • ik_max_word:句子的字可以反复出现。只要在词库里面出现过的 就拆分出来。如果没有出现的单字且已经在词里面出现过,那么这个就不会以单字的形势出现

  • IKAnalyzer.cfg.xml:IK分词配置文件

  • 主词库:main.dic

  • 英文停用词:stopword.dic,不会建立在倒排索引中

  • 特殊词库:

  • quantifier.dic:特殊词库:计量单位等

  • suffix.dic:特殊词库:行政单位

  • surname.dic:特殊词库:百家姓

  • preposition:特殊词库:语气词

  • 自定义词库:网络词汇、流行词、自造词等

3.2 IK 分词器插件安装

3.2.1 ik-analysis官方仓库

(github.com/medcl/elast…)

  • 每一台节点上都要操作(可以先在一台操作,并把文件scp到其他节点)

cd elasticsearch-8.4.1/``./bin/elasticsearch-plugin install https://github.com/medcl/elasticsearch-analysis-ik/releases/download/v8.4.1/elasticsearch-analysis-ik-8.4.1.zip

  • 如果要扩充扩展分词 需要修改配置

vim config/analysis-ik/IKAnalyzer.cfg.xml

<properties>        <comment>IK Analyzer 扩展配置</comment>        <!--用户可以在这里配置自己的扩展字典-->        <!--<entry key="ext_dict"></entry>-->    <!--自定义追加支持单个词-->        <entry key="ext_dict">extra_single_word.dic</entry>         <!--用户可以在这里配置自己的扩展停止词字典-->        <entry key="ext_stopwords"></entry>        <!--用户可以在这里配置远程扩展字典 -->        <!-- <entry key="remote_ext_dict">words_location</entry> -->        <!--用户可以在这里配置远程扩展停止词字典-->        <!-- <entry key="remote_ext_stopwords">words_location</entry> --></properties>
复制代码
  •  修改配置后 需要重启elastic集群

3.3 IK分词器远程词库支持

3.3.1 基于http远程支持

需要在IK配置文件中修改如下配置

<entry key="remote_ext_dict">http://yoursite.com/getCustomDict?dicType=1</entry><!--用户可以在这里配置远程扩展停止词字典--><entry key="remote_ext_stopwords">http://yoursite.com/getCustomDict?dicType=2</entry>

private static final String HEAD_LAST_MODIFIED = "Last-Modified";private static final String HEAD_ETAG = "ETag";@RequestMapping("extra_dic")public void extraDic(String dicType, HttpServletResponse response) throws IOException {    String pathName = Objects.equals(dicType, "1") ? "extra.dic" : "stop.dic";    ClassPathResource classPathResource = new ClassPathResource(pathName);    final File file = classPathResource.getFile();    final String md5Hex = DigestUtils.md5Hex(new FileInputStream(file));    //region 该 http 请求需要返回两个头部(header),一个是 Last-Modified,一个是 ETag,这两者都是字符串类型,只要有一个发生变化,插件就会去抓取新的分词进而更新词库    //endregion    response.setHeader(HEAD_LAST_MODIFIED, md5Hex);    response.setHeader(HEAD_ETAG, md5Hex);    response.setCharacterEncoding(StandardCharsets.UTF_8.name());    //text/plain 普通文本    response.setContentType("text/plain;charset=UTF-8");    try (InputStream inputStream =new FileInputStream(file); OutputStream outputStream = response.getOutputStream()) {        IOUtils.copy(inputStream, outputStream);        outputStream.flush();    } finally {        response.flushBuffer();    }}
复制代码

3.3.2 基于mysql远程支持

IK插件配置目录,需要新增jdbc.properties 配置文件。

properties``jdbc.url=jdbc:mysql://127.0.0.1:3306/test_elastic?useUnicode=true&characterEncoding=utf8&serverTimezone=Asia/Shanghai``jdbc.username=root``jdbc.password=root``jdbc.driver-class-name=com.mysql.cj.jdbc.Driver``jdbc.extra.dir.sql=select doc from elastic_extra_doc;``jdbc.stop.dir.sql=select doc from elastic_stop_doc;

  • org.wltea.analyzer.dic.Dictionary#initial 入口处新增加载mysql逻辑

  •  执行jdbc连接加载远程词库,实现IK词库热更新。

四、rollIndex 滚动索引

当现有索引太大或者太旧时,滚动索引API会将别名滚动到新的索引上来,一般都与索引模板结合使用。

4.1 滚动索引实战演示

  • 创建索引模板

    PUT _template/log_template{ "index_patterns": ["mylog*","testlog*"], "settings":{ "number_of_shards":5, "number_of_replicas":2 }, "mappings":{ "properties":{ "id":{ "type":"keyword" }, "name":{ "type":"keyword" }, "code":{ "type":"keyword" } } }}

  • 创建索引

因为有索引模板 不需要创建 mapping 与 settings

PUT /testlog-000001
复制代码
  •  创建索引别名 is_write_index 设置为 true,使索引别名只能有一个写索引,其他索引用来读。

    POST /_aliases{ "actions": [ { "add": { "index": "testlog-000001", "alias": "testlog_roll", "is_write_index":true } } ]}

插入数据

## 批量插入POST testlog_roll/_bulk{"create":{}}{"name":"jimas01","code":"test01"}{"create":{}}{"name":"jimas02","code":"test02"}{"create":{}}{"name":"jimas03","code":"test03"}{"create":{}}{"name":"jimas04","code":"test04"}{"create":{}}{"name":"jimas05","code":"test05"}
复制代码

执行滚动条件(只有执行才会触发滚动)

POST /testlog_roll/_rollover{  "conditions": {    "max_age":   "1d",    "max_docs":  10,    "max_size":  "5kb"  }}
复制代码
  • 查询别名信息

GET /_alias/testlog_roll

{  "testlog-000003" : {    "aliases" : {      "testlog_roll" : {        "is_write_index" : true      }    }  },  "testlog-000002" : {    "aliases" : {      "testlog_roll" : {        "is_write_index" : false      }    }  },  "testlog-000001" : {    "aliases" : {      "testlog_roll" : {        "is_write_index" : false      }    }  }}
复制代码

可以编写rollover 脚本 定时执行 进行索引的滚动。

五、深度分页

5.1 from、size 深度分页刨析

ES 分页查询采用from+size,默认from从0开始。如果需要查询的文档从10000 到 10010,

from + size10000 +10, 则需要查询前10010条记录,然后根据排序后取最后10条,

由于ES 是分布式数据库,所以需要在每个分片上分别查询 from+size 条记录再把结果进行合并取最终的10条数据,如果有n个分片就需要查询 n* (from+size)条结果,如果from很大的话就会OOM

GET /fz_chance_visit_record/_search?from=10000&size=10``## 报错信息如下:``Result window is too large, from + size must be less than or equal to: [10000] but was [10010]. See the scroll api for a more efficient way to request large data sets. This limit can be set by changing the [index.max_result_window] index level setting.``## 最直观的方法 直接修改max_result_window,但要考虑到自身集群内存大小,否则会频繁发生FGC``PUT <index>/_settings``{``"index": {``"max_result_window": 500000 }``}

5.2 深度分页解决方案

5.2.1 scroll 滚动查询

官方已不推荐使用滚动查询进行深度分页查询,因为无法保存索引状态。

适用于单次请求中检索大量结果,高并发场景不合适,scroll_id会占用大量的资源(特别是排序的请求)。

GET /fz_chance_visit_record/_search?scroll=1m&size=10{  "query": {    "match_all": {}  }}GET _search/scroll{  "scroll_id":"DnF1ZXJ5VGhlbkZldGNoCwAAAAAdL0Y3FlhlTXJmYXp2UlltMU1ianBPREZITncAAAAAHS9GNhZYZU1yZmF6dlJZbTFNYmpwT0RGSE53AAAAAAEerdMWTTFEWjR6N1dRM2kzaWZhS1hJQ1BHQQAAAAAdL0Y4FlhlTXJmYXp2UlltMU1ianBPREZITncAAAAAHS9GORZYZU1yZmF6dlJZbTFNYmpwT0RGSE53AAAAAAEerdYWTTFEWjR6N1dRM2kzaWZhS1hJQ1BHQQAAAAABHq3UFk0xRFo0ejdXUTNpM2lmYUtYSUNQR0EAAAAAHS9GOhZYZU1yZmF6dlJZbTFNYmpwT0RGSE53AAAAAAEerdUWTTFEWjR6N1dRM2kzaWZhS1hJQ1BHQQAAAAAdL0Y7FlhlTXJmYXp2UlltMU1ianBPREZITncAAAAAHS9GPBZYZU1yZmF6dlJZbTFNYmpwT0RGSE53"}## 切片并发执行,max 最大为索引分片数GET /fz_chance_visit_record/_search?scroll=1m&size=10{  "query": {    "match_all": {}  },  "slice": {    // 0 1 2 3 4    "id": 0,    "max": 5  }}
复制代码

5.2.2 search after

## 修改 max_result_window=5 提升演示效果PUT product1/_settings{  "index": {    "max_result_window": 5  }}## 普通分页查询GET product1/_search?size=5## GET product1/_search?size=5{  "sort": [    {      "price": {        "order": "desc"      }    },     {      "_id": {        "order": "asc"      }    }  ]}GET product1/_search?size=5{  "search_after": [    5012,    "9"  ],  "sort": [    {      "price": {        "order": "desc"      }    },    {      "_id": {        "order": "asc"      }    }  ]}GET product1/_search?size=5{  "search_after": [    991,    "4"  ],  "sort": [    {      "price": {        "order": "desc"      }    },    {      "_id": {        "order": "asc"      }    }  ]}
复制代码

大厂都一致抛弃了跳页,采用search_after 做深度分页,可以预先查询出前后几页,实现简单的、有限制的跳页功能。

5.3.1 百度

5.3.2 谷歌

5.4 分页比较

分页方式

性能

优点

缺点

场景

from+size

灵活性好,实现简单

深度分页问题

数据量比较小,能容忍深度分页问题

scroll

解决了深度分页问题

无法反应数据的实时性(快照版本)维护成本高,需要维护一个 scroll_id,不支持高并发

大量数据的导出功能

search_after

性能最好,不存在深度分页问题能够反映数据的实时变更

实现复杂,需要有一个全局唯一的字段进行排序,因为每一次查询都需要上次查询的结果,不适用于大幅度跳页查询

海量数据的分页,支持高并发

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/194629.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

节后转岗“浪潮”来了!瞅准“趋势向上”的行业!

“跨行跨岗人员&#xff0c;怎么能顺利转行&#xff1f;”的话题一直存在&#xff01;成功人士给出一条转岗转行的原则&#xff1a;迁移到技能相近但趋势向上的岗位。那么&#xff0c;什么叫“技能相近”和“趋势向上”呢&#xff1f;让我们来看看。趋势向上除了技能相近&#…

现阶段元宇宙经常偏离原有的发展轨道,使其失去该有的功能和意义

人们总是会自然地陷入到约定俗成的俗套之中。对于元宇宙&#xff0c;同样未能免俗。即使是那些处于头部的玩家&#xff0c;亦不例外。比如&#xff0c;扎克伯格就仅仅只是将元宇宙看成了一个将脸书带离泥潭的工具&#xff0c;一味地迎合资本&#xff0c;而最终忽略了元宇宙最本…

日常避坑--input输入框type=number仍可以输入“e“,“.“等符号

问题发现在使用ElementUI的input框时候&#xff0c;我们有时候需要只让用户输入数字类型。这个时候你可能就会想到<input type"number">,思路没错&#xff0c;但是踩着坑啦。我定义了一个number类型的input框但是&#xff0c;输入框仍旧可以输入"e",…

hadoop安装(二、hadoop)(备忘)

hadoop安装hadoop更改文件配置配置core-site.xml配置hadoop-env.sh配置hdfs-site.xml配置mapred-site.xml配置yarn-site.xml配置环境hadoop安装安装hadoop 紧接上文&#xff0c;解压过的hadoop內部文件为 再进入etc内部的hadoop 修改hadoop313的权限 在/opt目录下&#xff0…

分享24个网页游戏源代码,总有一个是你想要的

分享24个网页游戏源代码 24个游戏源代码下载链接&#xff1a;https://pan.baidu.com/s/1gYJlj8enJbh5mFS_wMaZBA?pwd4ncb 提取码&#xff1a;4ncb 下面是项目的名字&#xff0c;我放了一些图片&#xff0c;大家下载后可以看到。 Html5JS网页版捕鱼达人游戏 HTML5水果忍者游戏…

杂谈---名言警句记录

我们总喜欢拿顺其自然来敷衍人生道路上的荆棘与坎坷,却很少承认真正的顺其自然其实是竭尽所能之后的不强求,而并非两手一摊的不作为.没有那一次巨大的历史灾难,不是以历史的进步作为补偿.今日长缨在手,何时缚住苍龙?男人遇到真爱时第一反应是胆怯&#xff0c;女人遇到真爱的第…

这份2023软件测试面试技巧,助你拿下满意offer

求职&#xff0c;就像打仗&#xff0c;不仅是一场挑战自己的战斗&#xff0c;也是一场与用人单位的较量。而求职者只有准备足够充分&#xff0c;才能在这场毫无硝烟的“战场”上取得胜利。那么软件测试面试需要做哪些准备以及软件测试面试需要哪些技巧呢&#xff1f;1、熟悉岗位…

JDBC数据库连接池

目录JDBC原理图1. 数据库连接的5种方式2.ResultSet底层3.Statement sql注入3.1 PreparedStatement4. Jdbc工具类4.1 工具类应用5.Jdbc事务6.批处理6.1 批处理原理7.数据库连接池7.1 c3p07.2 德鲁伊7.2.1 德鲁伊工具类8.Apache-DBUtils工具类8.1多条查询&#xff0c;BeanListHan…

Web3中文|火遍全网的去中心化推特「Damus」是什么?(附操作指南)

Damus是一个建立在去中心化网络上的社交软件&#xff0c;被称为“推特杀手”&#xff0c;现已在苹果应用商店上线。 1月31日&#xff0c;Damus团队在推特上证实了这一消息&#xff0c;此前该团队称已经被苹果公司拒绝了至少三次。 不久之后&#xff0c;Twitter联合创始人Jack…

Anaconda3安装

Anaconda3安装 step1 下载Anaconda 网址&#xff1a;https://www.anaconda.com/products/individual 点击红色方框中的Download下载最新版本的Anaconda软件&#xff0c;可选择windows/Linux/Mac系统。 Step2 安装过程 双击.exe文件 2.选择Next>,进行下一步。 3.点击 …

论文投稿指南——中文核心期刊推荐(水产、渔业)

【前言】 &#x1f680; 想发论文怎么办&#xff1f;手把手教你论文如何投稿&#xff01;那么&#xff0c;首先要搞懂投稿目标——论文期刊 &#x1f384; 在期刊论文的分布中&#xff0c;存在一种普遍现象&#xff1a;即对于某一特定的学科或专业来说&#xff0c;少数期刊所含…

蓝海彤翔董事长鲁永泉荣获太湖科学城功能片区2022年度表彰

新春伊始、喜讯传来。昨天&#xff08;1月31日&#xff09;&#xff0c;太湖科学城功能片区推进“敢为、敢闯、敢干、敢首创”动员会在太湖光子科技园举行。会上&#xff0c;78家企业和30名优秀企业家及个人获得表彰&#xff0c;蓝海彤翔董事长、蓝海创意云创始人鲁永泉荣获太湖…

Git最佳实践-Git flow

Git分支管理背景 Git是当下最流行的版本管理系统&#xff0c;阮一峰在自己的博文中提到过&#xff1a;“如果你严肃对待编程&#xff0c;就必定会使用版本管理工具”。Git操作是基于分支的&#xff0c;当下环境衍生出多种优秀的分支管理策略&#xff0c;其目的就是要保证不同分…

【深度学习】docker中安装ssh服务,并使用vscode连接操作其文件夹

文章目录前言1. docker容器安装ssh服务1.1. 安装docker的ssh1.2.在容器终端下依次执行如下命令&#xff1a;1.3.回到宿主机终端后&#xff0c;依次执行如下命令&#xff1a;1.4. 使用 ssh 客户端工具&#xff08;如 MobaXterm&#xff09;连接容器2、vscode连入docker总结前言 …

scrapy-1

1.scrapy Scrapy是一个为了爬取网站数据&#xff0c;提取结构性数据而编写的应用框架。 可以应用在包括数据挖掘&#xff0c;信息处理 或存储历史数据等一系列的程序中。 2.scrapy项目的创建以及运行 1.创建scrapy项目&#xff1a;终端输入 scrapy startproject 项目名称 2.…

OpenMMLab 计算机视觉 # day1: 计算机视觉基础与OpenMMLab开源算法体系

相关资源: github 第一课 计算机视觉与 OpenMMLab 开源算法体系 张子豪 计算机视觉基础 计算机视觉&#xff1a;让计算机理解图像、视频。 计算机视觉的三大基础任务&#xff1a;图像分类(图像识别)、目标检测、图像分割任务。 根据目标数量&#xff0c;计算机视觉任务也分…

Bahdanau 注意力

在预测词元时&#xff0c;如果不是所有输入词元都是相关的&#xff0c;那么具有Bahdanau注意力的循环神经网络编码器-解码器会有选择地统计输入序列的不同部分。这是通过将上下文变量视为加性注意力池化的输出来实现的。 在循环神经网络编码器-解码器中&#xff0c;Bahdanau注…

Centos8中安装配置DVWA靶场环境详细流程

一、准备内容本文在Centos8中安装配置DVWA靶场&#xff0c;该靶场启动需具备【LinuxApacheMysqlPhp】四大环境&#xff1a;所以在后续的安装配置DVWA靶场时遇到问题首先需要排查Apache、Mysql、Php这三大环境是否正常启动&#xff08;若不能正常启动则需逐一排查解决&#xff0…

漏洞深度分析|CVE-2023-24162 hutool XML反序列化漏洞

项目介绍 Hutool是一个小而全的Java工具类库&#xff0c;通过静态方法封装&#xff0c;降低相关API的学习成本&#xff0c;提高工作效率&#xff0c;使Java拥有函数式语言般的优雅&#xff0c;让Java语言也可以“甜甜的”。 Hutool中的工具方法来自每个用户的精雕细琢&#x…

ARP攻击

一、ARP1.1、ARP介绍地址解析协议&#xff0c;即ARP&#xff08;Address Resolution Protocol&#xff09;&#xff0c;是根据IP地址获取物理地址&#xff08;MAC地址&#xff09;的一个TCP/IP协议.每台主机都设有一个ARP高速缓存&#xff0c;里面有本局域网上的主机和路由器的…