Elasticsearch-模糊查询

news2025/1/5 9:55:58

模糊查询

  • 前缀搜索:prefix

    概念:以xx开头的搜索,不计算相关度评分。
    注意:
    • 前缀搜索匹配的是term,而不是field。

    • 前缀搜索的性能很差

    • 前缀搜索没有缓存

    • 前缀搜索尽可能把前缀长度设置的更长

      语法:
      GET <index>/_search
      {
      "query": {
        "prefix": {
          "<field>": {
            "value": "<word_prefix>"
          }
        }
      }
      }
      index_prefixes: 默认   "min_chars" : 2,   "max_chars" : 5 
      
PUT my_index
{
  "mappings": {
    "properties": {
      "text": {
        "analyzer": "ik_max_word",
        "type": "text",
        "index_prefixes":{
          "min_chars":2,
          "max_chars":4
        },
        "fields": {
          "keyword": {
            "type": "keyword",
            "ignore_above": 256
          }
        }
      }
    }
  }
}

PUT my_index的含义是向Elasticsearch发送一个PUT请求来创建一个名为“my_index”的索引。
在Elasticsearch中,索引是用于存储和检索数据的容器。每个索引都有一个或多个映射(mapping),这些映射定义了索引中字段的类型、分析器、字段属性等。在提供的JSON中,“mappings"字段的作用是指定索引的映射定义。它定义了索引中包含的字段及其属性。
在"properties"字段下,定义了一个名为"text"的字段。该字段的配置如下:
“analyzer”: “ik_max_word”:指定使用"ik_max_word"分析器,这是一个用于中文分词的分析器。
“type”: “text”:字段类型设置为"text”,表示这是一个文本字段,可以用于全文搜索。
“index_prefixes”:定义了前缀搜索的参数,其中"min_chars"和"max_chars"分别表示最小和最大前缀长度。
“fields”:定义了多重字段(multi-fields),即一个字段可以有多个不同的表示。在这里,定义了一个名为"keyword"的子字段,其类型为"keyword",表示这是一个不分析的字段,通常用于精确匹配和排序。
"ik_max_word"是IK分词器的一个变种,用于中文分词。它试图将文本尽可能细粒度地分割成单词,以提供更好的全文搜索效果。
"index_prefixes"和"fields"的用途是提供对文本字段的额外索引方式。例如,"index_prefixes"使得可以使用前缀搜索,而"fields"中的"keyword"子字段使得可以进行精确匹配和排序,而不是基于分析器的全文搜索。
综合上述配置,这个映射定义了一个名为"text"的文本字段,该字段使用"ik_max_word"分析器进行中文分词,并提供了前缀搜索和精确匹配的不同索引方式。

GET my_index/_mapping
POST /my_index/_bulk?filter_path=items.*.error
{"index":{"_id":"1"}}
{"text":"城管打电话喊商贩去摆摊摊"}
{"index":{"_id":"2"}}
{"text":"笑果文化回应商贩老农去摆摊"}
{"index":{"_id":"3"}}
{"text":"老农耗时17年种出椅子树"}
{"index":{"_id":"4"}}
{"text":"夫妻结婚30多年AA制,被城管抓"}
{"index":{"_id":"5"}}
{"text":"黑人见义勇为阻止抢劫反被铐住"}
GET my_index/_search
GET my_index/_mapping
GET _analyze
{
  "analyzer": "ik_max_word",
  "text": ["城管打电话喊商贩去摆摊摊"]
}
GET my_index/_search
{
  "query": {
    "prefix": {
      "text": {
        "value": "摊摊"
      }
    }
  }
}
# 通配符
DELETE my_index
POST /my_index/_bulk
{ "index": { "_id": "1"} }
{ "text": "my english" }
{ "index": { "_id": "2"} }
{ "text": "my english is good" }
{ "index": { "_id": "3"} }
{ "text": "my chinese is good" }
{ "index": { "_id": "4"} }
{ "text": "my japanese is nice" }
{ "index": { "_id": "5"} }
{ "text": "my disk is full" }
DELETE product_en
POST /product_en/_bulk
{ "index": { "_id": "1"} }
{ "title": "my english","desc" :  "shouji zhong de zhandouji","price" :  3999, "tags": [ "xingjiabi", "fashao", "buka", "1"]}
{ "index": { "_id": "2"} }
{ "title": "xiaomi nfc phone","desc" :  "zhichi quangongneng nfc,shouji zhong de jianjiji","price" :  4999, "tags": [ "xingjiabi", "fashao", "gongjiaoka" , "asd2fgas"]}
{ "index": { "_id": "3"} }
{ "title": "nfc phone","desc" :  "shouji zhong de hongzhaji","price" :  2999, "tags": [ "xingjiabi", "fashao", "menjinka" , "as345"]}
{ "title": { "_id": "4"} }
{ "text": "xiaomi erji","desc" :  "erji zhong de huangmenji","price" :  999, "tags": [ "low", "bufangshui", "yinzhicha", "4dsg" ]}
{ "index": { "_id": "5"} }
{ "title": "hongmi erji","desc" :  "erji zhong de kendeji","price" :  399, "tags": [ "lowbee", "xuhangduan", "zhiliangx" , "sdg5"]}
GET my_index/_search
GET product_en/_search
GET my_index/_mapping
GET product_en/_mapping
GET my_index/_search
{
  "query": {
    "wildcard": {
      "text.keyword": {
        "value": "my eng*ish"
      }
    }
  }
}

GET my_index/_search 是一个Elasticsearch的HTTP请求,用于查询名为my_index的索引库中的所有文档。其中,_search是Elasticsearch的API端点,用于执行搜索查询。

wildcard查询用于模糊匹配,支持通配符。*代表任意多个字符,?代表单个字符。

在wildcard查询中,text.keyword字段表示要在text字段的keyword子字段中执行通配符查询。value属性是查询模式,用于匹配文档中的字段值。

"value": "my eng*ish"表示查询text.keyword字段中包含"my"开头,以"ish"结尾,中间任意字符的字符串。例如,它会匹配"my english""my english speaking"等。

整个查询请求的含义是:在my_index索引库中,查找text.keyword字段值匹配"my eng*ish"模式的所有文档。

需要注意的是,wildcard查询可能不如其他类型的查询(如match、term)高效,因为它需要对索引进行全扫描,以找到匹配模式的文档。因此,在需要高效查询的场景中,可能需要选择其他类型的查询。

GET product_en/_mapping
#exact value
GET product_en/_search
{
  "query": {
    "wildcard": {
      "tags.keyword": {
        "value": "men*inka"
      }
    }
  }
}
  • 正则:regexp

    概念:regexp查询的性能可以根据提供的正则表达式而有所不同。为了提高性能,应避免使用通配符模式,如.或 .?+未经前缀或后缀
    语法:
    GET <index>/_search
    {
      "query": {
        "regexp": {
          "<field>": {
            "value": "<regex>",
            "flags": "ALL",
          }
        }
      }
    }
    
    flags
    • ALL

      启用所有可选操作符。

    • COMPLEMENT

      启用操作符。可以使用对下面最短的模式进行否定。例如

      a~bc # matches ‘adc’ and ‘aec’ but not ‘abc’

    • INTERVAL

      启用<>操作符。可以使用<>匹配数值范围。例如

      foo<1-100> # matches ‘foo1’, ‘foo2’ … ‘foo99’, ‘foo100’

      foo<01-100> # matches ‘foo01’, ‘foo02’ … ‘foo99’, ‘foo100’

    • INTERSECTION

      启用&操作符,它充当AND操作符。如果左边和右边的模式都匹配,则匹配成功。例如:

      aaa.+&.+bbb # matches ‘aaabbb’

    • ANYSTRING

      启用@操作符。您可以使用@来匹配任何整个字符串。
      您可以将@操作符与&和~操作符组合起来,创建一个“everything except”逻辑。例如:

      @&~(abc.+) # matches everything except terms beginning with ‘abc’

GET product_en/_search
{
  "query": {
    "regexp": {
      "title": "[\\s\\S]*nfc[\\s\\S]*"
    }
  }
}

该查询请求的含义是:在product_en索引中,通过正则表达式搜索title字段,查找包含nfc子串的文档。
解释如下:
GET product_en/_search:这是Elasticsearch的HTTP GET请求的基本结构,用于从product_en索引中检索数据。_search端点用于执行搜索查询。
“query"字段:在Elasticsearch查询中,query字段用于定义搜索条件。在此查询中,使用了regexp查询,它是基于正则表达式的查询。
“regexp"查询:regexp查询允许用户通过正则表达式模式来匹配文档中的字段值。在此查询中,它被用于匹配title字段。
正则表达式”[\s\S]nfc[\s\S]”:这个正则表达式的匹配规则如下:
[\s\S]:匹配任何字符,包括空格和非空格字符。
:匹配前面的字符零次或多次。
nfc:匹配字面字符串"nfc"。
再次使用[\s\S]
,表示"nfc"前后可以有任何字符(包括空格和非空格字符)。
因此,该正则表达式匹配title字段中包含"nfc"的文档,且"nfc"前后可以有任何字符。
综合以上信息,该查询请求在product_en索引中查找title字段中包含"nfc"的文档,且"nfc"前后可以有任何字符。

GET product_en/_search
{
  "query": {
    "regexp": {
      "desc": {
        "value": "zh~dng",
        "flags": "COMPLEMENT"
      }
    }
  }
}

GET product_en/_search 是一个Elasticsearch的HTTP请求,用于查询名为product_en的索引库中的所有文档。_search是Elasticsearch的API端点,用于执行搜索查询。
在这个查询中,使用了正则表达式查询(regexp),用于匹配符合特定正则表达式的字段值。具体来说,它试图匹配desc字段中包含正则表达式zh~dng的文档。
“value”: "zhdng"表示要匹配的正则表达式。在正则表达式中,通常表示匹配一个单词的边界。但在这个例子中,zhdng可能并不是一个有效的正则表达式,因为通常用于单词边界,而zhdng更像是字符z、h、、d和n的序列,并没有明确的单词边界含义。
“flags”: "COMPLEMENT"表示使用的正则表达式标志。COMPLEMENT标志表示取反,即匹配所有不符合正则表达式的文档。
然而,zh~dng可能并不是一个合适的正则表达式,因为它并不符合常见的正则表达式语法和用途。通常,在Elasticsearch中使用正则表达式查询时,我们会期望value参数中的表达式是一个有效的正则表达式,用于匹配特定的字符串模式。
因此,这个查询可能并不会按照预期工作,除非desc字段中的文档确实包含zh~dng这个字符串,或者这个查询是用于测试某种特定的正则表达式行为。
需要注意的是,Elasticsearch的正则表达式查询是基于Apache Lucene的正则表达式引擎,所以正则表达式的语法和标志可能与其他语言或工具中的有所不同。
另外,使用COMPLEMENT标志时,请确保您的查询是清晰的,并且了解它将返回不符合正则表达式的文档。在实际应用中,确保您的正则表达式是有效的,并且与您的查询意图相匹配。

GET product_en/_search
{
  "query": {
    "regexp": {
      "tags.keyword": {
        "value": ".*<2-3>.*",
        "flags": "INTERVAL"
      }
    }
  }
}

查询包含2-3的数据

这是一个Elasticsearch查询语句,用于在product_en索引中搜索数据。这个查询语句使用了正则表达式查询(regexp),它允许用户通过正则表达式模式来匹配文档中的字段值。
GET product_en/_search:
这部分是Elasticsearch的HTTP GET请求的基本结构,用于从product_en索引中检索数据。_search端点用于执行搜索查询。regexp查询:
regexp查询是Elasticsearch中的一种查询类型,它使用正则表达式来匹配文档中的字段值。这种查询类型特别适用于需要基于模式匹配的场景。
“tags.keyword”:
这表示查询的是tags.keyword字段。tags可能是一个包含多个标签的字段,而keyword通常表示该字段的值是精确匹配的,不会被分词。
“value”: “.<2-3>.”:
这是正则表达式的模式。这里的模式尝试匹配任何包含<2-3>字符串的文本。但是,.*<2-3>.*并不是一个有效的正则表达式,因为它没有定义<2-3>应该匹配的具体内容。通常,<2-3>会被当作字面量而不是正则表达式的一部分,这意味着它会尝试匹配包含这个字符串的文档。
“flags”: “INTERVAL”:
flags参数用于指定正则表达式的匹配选项。然而,INTERVAL并不是Elasticsearch中regexp查询的有效标志。标准的regexp标志包括ALL、ANYSTRING、COMPLEMENT、EMPTY、INTERSECTION、INTERVAL、NONE、NOTEMPTY和NOTNONE。其中,INTERVAL标志用于定义重复数量的区间,但它通常与{}一起使用,例如{2,3}表示匹配2到3次重复。在这里,flags的INTERVAL值可能是错误的,或者该查询可能尝试使用一个特定于应用程序或自定义的正则表达式标志。
这个查询整体上试图找到tags.keyword字段中包含<2-3>字符串的文档,但由于正则表达式模式不正确,以及flags参数中可能存在的错误,这个查询可能不会返回预期的结果。正确的正则表达式模式取决于<2-3>应如何解释,以及是否应该使用特定的标志来影响匹配过程。
这个查询可能适用于需要基于标签中的特定模式或特定值进行搜索的场景,例如,如果<2-3>是一个特定的标签值,并且你想找到所有包含这个标签的文档。然而,由于正则表达式和标志的错误,这个查询可能需要进行修正才能正常工作。

  • 模糊查询:fuzzy

    混淆字符 (box → fox) 缺少字符 (black → lack)

    多出字符 (sic → sick) 颠倒次序 (act → cat)

    语法
    GET <index>/_search
    {
      "query": {
        "fuzzy": {
          "<field>": {
            "value": "<keyword>"
          }
        }
      }
    }
    
    参数:
    • value:(必须,关键词)

    • fuzziness:编辑距离,(0,1,2)并非越大越好,召回率高但结果不准确

      1. 两段文本之间的Damerau-Levenshtein距离是使一个字符串与另一个字符串匹配所需的插入、删除、替换和调换的数量

      2. 距离公式:Levenshtein是lucene的,es改进版:Damerau-Levenshtein,

      axe=>aex Levenshtein=2 Damerau-Levenshtein=1

    • transpositions:(可选,布尔值)指示编辑是否包括两个相邻字符的变位(ab→ba)。默认为true。

GET product_en/_search
{
  "query": {
    "fuzzy": {  
      "desc": {
        "value": "zhandou",
        "fuzziness": "2"
      }
    }
  }
}

该查询请求的含义是:在product_en索引中,使用模糊查询(fuzzy query)在desc字段中查找包含与"quangongneng nfc"相似词项的文档。
解释如下:
GET product_en/_search:这是Elasticsearch的HTTP GET请求的基本结构,用于从product_en索引中检索数据。_search端点用于执行搜索查询。
"query"字段:在Elasticsearch查询中,query字段用于定义搜索条件。在此查询中,使用了fuzzy查询,它是基于模糊匹配的查询,用于查找与指定词项相似的词项。
"fuzzy"查询:fuzzy查询在Elasticsearch中允许用户通过编辑距离(fuzziness)来匹配与指定词项相似的词项。它基于Levenshtein距离(也称为编辑距离)来度量两个词项之间的相似性。
“value"字段:value参数定义了要搜索的原始词项,即"quangongneng nfc”。
“fuzziness"字段:fuzziness参数定义了最大的编辑距离,用于确定与原始词项相似的词项。在这里,fuzziness设置为"2”,意味着查询将匹配与"quangongneng nfc"在最多两个字符内相似的词项。
综合以上信息:整个查询请求在product_en索引中查找desc字段中包含与"quangongneng nfc"相似的词项的文档,其中相似度由最多两个字符的编辑距离确定。
此查询将返回与"quangongneng nfc"在最多两个字符内相似的所有词项所在的文档。

GET product_en/_search
{
  "query": {
    "match_phrase_prefix": {
      "desc": {
        "query": "zhong hongzhaji",
        "max_expansions": 50,
        "slop": 3
      }
    }
  }
}

这个查询请求的含义是:在product_en索引中,使用match_phrase_prefix查询在desc字段中查找与"zhong hongzhaji"相似词项的文档。
解释如下:
GET product_en/_search:这是一个Elasticsearch的HTTP GET请求,用于从product_en索引中检索数据。_search端点用于执行搜索查询。
match_phrase_prefix查询:这是一个特定类型的查询,它用于查找与指定词项在特定字段中相似(但不一定完全匹配)的词项。与match_phrase查询相比,match_phrase_prefix允许在最后一个词项上只匹配前缀,从而可以捕获更多与查询词项相似的词项。
“zhong hongzhaji”:这是搜索的查询词项,表示用户想要查找与"zhong hongzhaji"相关的内容。
max_expansions: 50:这个参数定义了最后一个词项可以被重写(扩展)成多少个前缀。这里设置为50,意味着将尝试生成最多50个前缀来匹配文档中的词项。
slop: 3:这个参数用于定义在匹配词项时,允许词项之间的最大位移量。这里的值为3,表示在匹配过程中,词项之间的最大距离为3个词项。
整个查询语句的意图:这个查询请求的目的是在product_en索引中查找与"zhong hongzhaji"相关的文档,通过扩展前缀和允许一定的词项位移量,以捕获更多相似但不完全匹配的文档。
应用场景:这个查询可能用于类似搜索引擎的场景,当用户输入部分搜索词时,系统能够自动补全或推荐与用户输入相似的完整词项,以提供更精确的搜索结果。例如,在电商网站中,用户可能输入"zhong"作为商品名称的一部分,系统可以推荐完整的商品名称,如"zhong xiao mi"或"zhong xing"等。
这个查询使用了Elasticsearch的match_phrase_prefix查询类型,它允许用户输入部分搜索词,并自动补全或推荐与用户输入相似的完整词项,从而提供更精确和相关的搜索结果。

GET _analyze
{
  "tokenizer": "ik_max_word",
  "filter": [ "edge_ngram" ],
  "text": "reba always loves me"
}

PUT my_index
{
  "settings": {
    "analysis": {
      "filter": {
        "2_3_edge_ngram": {
          "type": "edge_ngram",
          "min_gram": 2,
          "max_gram": 3
        }
      },
      "analyzer": {
        "my_edge_ngram": {
          "type":"custom",
          "tokenizer": "standard",
          "filter": [ "2_3_edge_ngram" ]
        }
      }
    }
  },
  "mappings": {
    "properties": {
      "text": {
        "type": "text",
        "analyzer":"my_edge_ngram",
        "search_analyzer": "standard"
      }
    }
  }
}
GET /my_index/_mapping


POST /my_index/_bulk
{ "index": { "_id": "1"} }
{ "text": "my english" }
{ "index": { "_id": "2"} }
{ "text": "my english is good" }
{ "index": { "_id": "3"} }
{ "text": "my chinese is good" }
{ "index": { "_id": "4"} }
{ "text": "my japanese is nice" }
{ "index": { "_id": "5"} }
{ "text": "my disk is full" }


GET /my_index/_search
GET /my_index/_mapping
GET /my_index/_search
{
  "query": {
    "match_phrase": {
      "text": "my eng is goo"
    }
  }
}



PUT my_index2
{
  "settings": {
    "analysis": {
      "filter": {
        "2_3_grams": {
          "type": "edge_ngram",
          "min_gram": 2,
          "max_gram": 3
        }
      },
      "analyzer": {
        "my_edge_ngram": {
          "type":"custom",
          "tokenizer": "standard",
          "filter": [ "2_3_grams" ]
        }
      }
    }
  },
  "mappings": {
    "properties": {
      "text": {
        "type": "text",
        "analyzer":"my_edge_ngram",
        "search_analyzer": "standard"
      }
    }
  }
}
GET /my_index2/_mapping
POST /my_index2/_bulk
{ "index": { "_id": "1"} }
{ "text": "my english" }
{ "index": { "_id": "2"} }
{ "text": "my english is good" }
{ "index": { "_id": "3"} }
{ "text": "my chinese is good" }
{ "index": { "_id": "4"} }
{ "text": "my japanese is nice" }
{ "index": { "_id": "5"} }
{ "text": "my disk is full" }

GET /my_index2/_search
{
  "query": {
    "match_phrase": {
      "text": "my eng is goo"
    }
  }
}

GET _analyze
{
  "tokenizer": "ik_max_word",
  "filter": [ "ngram" ],
  "text": "用心做皮肤,用脚做游戏"
}

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2268915.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

EasyExcel(读取操作和填充操作)

文章目录 1.准备Read.xlsx&#xff08;具有两个sheet&#xff09;2.读取第一个sheet中的数据1.模板2.方法3.结果 3.读取所有sheet中的数据1.模板2.方法3.结果 EasyExcel填充1.简单填充1.准备 Fill01.xlsx2.无模版3.方法4.结果 2.列表填充1.准备 Fill02.xlsx2.模板3.方法4.结果 …

OCR实践-问卷表格统计

前言 书接上文 OCR实践—PaddleOCROCR实践-Table-Transformer 本项目代码已开源 放在 Github上&#xff0c;欢迎参考使用&#xff0c;Star https://github.com/caibucai22/TableAnalysisTool 主要功能说明&#xff1a;对手动拍照的问卷图片进行统计分数&#xff08;对应分数…

BOE(京东方)“向新2025”年终媒体智享会落地深圳

12月27日,BOE(京东方)“向新 2025”年终媒体智享会的收官之站在创新之都深圳圆满举行,为这场为期两周、横跨三地的年度科技盛会画上了完美句号。活动期间,全面回顾了 BOE(京东方)2024年在多个关键领域取得的卓越成绩,深入剖析其在六大维度构建的“向新”发展格局,精彩呈现了以“…

Kinova在开源家庭服务机器人TidyBot++研究里大展身手

在科技日新月异的今天&#xff0c;机器人技术在家庭场景中的应用逐渐成为现实&#xff0c;改变着我们的生活方式。今天&#xff0c;我们将深入探讨一篇关于家用机器人研究的论文&#xff0c;剖析其中的创新成果&#xff0c; 论文引用链接&#xff1a;http://tidybot2.github.i…

LCE软机器人登场!热场光控下的多模态运动传奇?

大家好&#xff01;今天来了解一项液晶弹性体&#xff08;LCE&#xff09;软机器人研究——《Multimodal Autonomous Locomotion of Liquid Crystal Elastomer Soft Robot》发表于《Advanced Science》。在机器人技术不断演进的进程中&#xff0c;软机器人虽有潜力但面临诸多挑…

爆改RagFlow

爆改RagFlow 一、Rag理论概述二、Ragflow解析参数说明三、♥ RagFlow源码解析核心代码流程梳理1、OCR识别2、版面分析3、parser功能3.1 PdfParser3.1.1 首先&#xff0c;初始化3.1.2 **pdf转图片** [来自工业界的知识库 RAG 服务(二)&#xff0c;RagFlow 源码全流程深度解析](h…

centos7 免安装mysql5.7及配置(支持多个mysql)

一&#xff09; 下载免安装包&#xff1a; mysql下载地址: https://dev.mysql.com/downloads/mysql/下载时&#xff0c;选择以前5.7版本&#xff1a; image 下载第一个TAR压缩包&#xff1a; image 二&#xff09; 定义安装路径并解压安装包 1、假设需要把MySQL放到 /usr/local…

潇洒郎:部署Dify, 安装Ollama,Ollama下载模型,Dify配置模型

Ollama 1、安装ollama Windows版本下载&#xff1a;2024WindowsOllama最新0.5.4版本资源-CSDN文库, 下载速度超快&#xff0c;官网太慢了 双击安装&#xff0c;安装成功后&#xff0c;托盘区有Ollama图标 右键View logs打开目录 C:\Users\Administrator\AppData\Local\Oll…

Axure10

如果还是不行就将字体图标安装在控制面板–字体下 打开原型了之后&#xff0c;icon没有 一定要将字体库放到–》控制面板\外观和个性化\字体 里面

一维、线性卡尔曼滤波的例程(MATLAB)

这段 MATLAB 代码实现了一维线性卡尔曼滤波器的基本功能,用于估计在存在噪声的情况下目标状态的真实值 文章目录 一维线性卡尔曼滤波代码运行代码介绍1. **初始化部分**2. **数据生成**3. **卡尔曼滤波器实现**4. **结果可视化**5. **统计输出**源代码总结一维线性卡尔曼滤波 …

虚拟化 | Proxmox VE 8.x 开源的虚拟化平台快速上手指南

[ 知识是人生的灯塔,只有不断学习,才能照亮前行的道路 ] 0x00 简介说明 前言简述 描述:作为一个爱折腾的IT打工佬,时刻以学习各类新技术新知识为目标,这不正好有一台部署了VMware vSphere ESXi 虚拟化环境的服务器,由于正好安装其系统的磁盘有坏道,经常导致使用 ESXi 异…

在 Windows 11 下的 WSL - Ubuntu 24.04 中安装 CUDA 的记录

#记录工作 以下是基于CUDA官网给定命令在 Windows 11 下的 WSL - Ubuntu 24.04 中安装 CUDA 的记录&#xff1a; 一、准备工作 确保你的 Windows 11 系统已经成功启用 WSL 功能&#xff0c;并且已经安装了 Ubuntu 24.04 操作系统。同时&#xff0c;确保系统处于联网状态&#…

《机器学习》——KNN算法

文章目录 KNN算法简介KNN算法——sklearnsklearn是什么&#xff1f;sklearn 安装sklearn 用法 KNN算法 ——距离公式KNN算法——实例分类问题完整代码——分类问题 回归问题完整代码 ——回归问题 KNN算法简介 一、KNN介绍 全称是k-nearest neighbors&#xff0c;通过寻找k个距…

《向量数据库指南》——Milvus Cloud 2.5:Sparse-BM25引领全文检索新时代

Milvus Cloud BM25:重塑全文检索的未来 在最新的Milvus Cloud 2.5版本中,我们自豪地引入了“全新”的全文检索能力,这一创新不仅巩固了Milvus Cloud在向量数据库领域的领先地位,更为用户提供了前所未有的灵活性和效率。作为大禹智库的向量数据库高级研究员,以及《向量数据…

HTML——23. 锚点和空链接二

<!DOCTYPE html> <html><head><meta charset"UTF-8"><title>其它页面锚链接</title></head><body><!--跳转到其它页面具体位置锚链接--><!--1.目标页面具体位置要设置锚点--><!--2.用a标签中的href属…

【Devops】什么是Devops?(Development+Operations)和运维的区别?

DevOps&#xff08;Development Operations&#xff09;是一种将开发&#xff08;Development&#xff09;和运维&#xff08;Operations&#xff09;团队结合在一起的文化和实践&#xff0c;目的是通过自动化、协作和持续反馈来加快软件的开发、部署和运维的周期&#xff0c;…

kubernetes Gateway API-1-部署和基础配置

文章目录 1 部署2 最简单的 Gateway3 基于主机名和请求头4 重定向 Redirects4.1 HTTP-to-HTTPS 重定向4.2 路径重定向4.2.1 ReplaceFullPath 替换完整路径4.2.2 ReplacePrefixMatch 替换路径前缀5 重写 Rewrites5.1 重写 主机名5.2 重写 路径5.2.1 重新完整路径5.2.1 重新部分路…

VUE echarts 教程二 折线堆叠图

VUE echarts 教程一 折线图 import * as echarts from echarts;var chartDom document.getElementById(main); var myChart echarts.init(chartDom); var option {title: {text: Stacked Line},tooltip: {trigger: axis},legend: {data: [Email, Union Ads, Video Ads, Dir…

linux安装nginxs报错:openssl not found

系统&#xff1a; linux 版本&#xff1a;centOS7 nginx版本&#xff1a;nginx-1.20.2 linux安装nginx时 执行下面命令时报错&#xff1a; ./configure --with-http_stub_status_module --with-http_ssl_module --prefix/usr/local/nginxchecking for OpenSSL library ... not …

项目基本配置

总说 本节主要记录修改配置文件、连接mysql数据库、git连接 一、配置文件的修改 1.1 配置pom.xml 由于我们要连接mysql数据库&#xff0c;需要在pom.xml中添加相关依赖 这里给出一个网站&#xff0c;可以找到各种依赖Maven Repository: Search/Browse/Explore 添加一个my…