大模型系列——解读RAG

news2024/11/25 12:36:37

上篇大概说了几个优化方向,包括提示词,RAG等。那么RAG到底是什么呢?RAG 是2023年最流行的基于 LLM 的应用系统架构。有许多产品几乎完全建立在 RAG 之上,覆盖了结合网络搜索引擎和 LLM 的问答服务,到成千上万个数据聊天的应用程序。很多人将RAG和Agent 作为大模型应用的两种主流架构,但什么是RAG呢?RAG又涉及了哪些具体的技术呢?我们一起来看看。

1. 什么是RAG

RAG即检索增强生成,为 LLM 提供了从某些数据源检索到的信息,并基于此修正生成的答案。RAG 基本上是 Search + LLM 提示,可以通过大模型回答查询,并将搜索算法所找到的信息作为大模型的上下文。查询和检索到的上下文都会被注入到发送到 LLM 的提示语中。

嵌入式搜索引擎可以通过 Faiss 来实现,向量搜索领域成为了RAG的一个助力。像pinecone 这样的向量数据库可以构建开源搜索索引,为输入文本增加了额外的存储空间,还增加了一些其他工具。关于向量数据库,可以参考解读向量数据库。

面向RAG的开发框架,对于基于 LLM 的流水线和应用程序,有两个最著名的开源工具—— LangChain 和 LlamaIndex,分别是在2022年10月和11月创建的,随着 ChatGPT 爆发,也在2023年获得了大量采用。LlamaIndex 和 LangChain 都是令人惊叹的开源项目,它们的发展速度非常快。

2. 基础的 RAG 技术

RAG 系统的起点一般是一个文本文档的语料库,简单看起来是这样的: 把文本分割成块,然后把这些分块嵌入到向量与transformer编码器模型,把所有这些向量建立索引,最后创建一个 LLM 提示语,告诉模型回答用户的查询,给出在搜索步骤中找到的上下文。在运行时,我们用相同的编码器模型完成用户查询的向量化,然后执行这个查询向量的索引搜索,找到top-k 的结果,从数据库中检索到相应的文本块,并提供给 LLM 提示语Prompt作为上下文。

在OpenAI 平台上,提示词Prompt可以是这样的:

def question_answering(context, query):
    prompt = f""" my query text...                
                """

    response = get_completion(instruction, prompt, model="gpt-3.5-turbo")
    answer = response.choices[0].message["content"]
    return answer

关于提示词和提示词工程的更多介绍可以参考OpenAI 的提示词工程手册以及解读提示工程(Prompt Engineering)。

显然,尽管 OpenAI 在LLM 市场上处于领先地位,但还是有很多替代方案,比如 Anthroic 的 Claude,还有最近流行的更小但功能强大的模型,比如 Mistral,微软的 Phi-2 以及许多开源选项,比如 Llama2,OpenLLaMA,Falcon等都可以用来开发面向RAG的大模型产品。

3. RAG中的高级技术

尽管并不是所有RAG系统中的高级技术都可以轻松地在一张图中可视化,但给出一个描述核心步骤和算法的方案还是有意义的。

3.1. 分块和矢量化

首先,要创建一个向量索引表示我们的文档内容,然后在运行时搜索所有这些向量和查询向量之间最小距离对应的最接近语义。

由于transformer模型有固定的输入序列长度,即使输入上下文的窗口很大,一个或几个句子的向量也比一个在几页文本上取平均值的向量更能代表它们的语义意义 ,所以数据分块是一个有意义的技术。把初始文档分成一定大小的块,同时又不失去它们的意义,也就是把文本分成句子或段落,而不是把一个句子分成两部分。而且,已经有了各种能够执行此任务的文本分割器实现。例如,在 LlamaIndex 中,NodeParser 就提供了一些高级选项,如定义自己的文本分割器、元数据、节点/块关系等。

数据块的大小是一个需要考虑的参数,它取决于使用的嵌入模型及其token容量,标准的transformer编码模型,如BERT 的句子转换器,最多只能使用512个token,OpenAI ada-002能够处理更长的序列,如8191个token,但这里的折衷是足够的上下文,让 LLM 能够推理以及特定的足够文本嵌入,以便有效地执行搜索。

下一步是选择一个模型来生产所选块的嵌入,同样有很多方法,例如搜索优化的模型( bge-large 或者E5 系列),MTEB 排行榜可以得到最新的一些方法信息。关于文档分块和向量化步骤的端到端实现,可以具体地参考https://docs.llamaindex.ai/en/latest/moduleguides/loading/ingestionpipeline/root.html#。

3.2. 搜索的索引

面向RAG的大模型应用的关键部分是用于搜索的索引,它存储前面得到的向量化内容。当然,查询总是首先向量化,对于 top k 分块也是一样的。最简单的实现使用一个平铺的索引,在查询向量和所有块向量之间进行距离计算并遍历。

一个合适的搜索索引,为了在一万多个元素的尺度上有效地检索而优化,需要一个向量索引, faiss,nmslib 或 annoy等使用一些近似最近邻方式实现,如聚类,树或 HNSW 算法。还有一些受管理的解决方案,比如 ElasticSearch以及向量数据库,它们负责处理数据摄取的流水线。

根据索引的选择,数据和搜索需求还可以将元数据与向量一起存储,然后使用元数据过滤器在某些日期或数据源中搜索信息。LlamaIndex 支持许多向量存储索引,也支持其他更简单的索引实现,如列表索引、树索引和关键字表索引。

如果有许多文档,就需要能够有效地在其中进行搜索,找到相关信息,并将其聚合在一个带有源引用的答案中。对于大型数据库,一个有效的方法是创建两个索引,一个由摘要组成,另一个由文档块组成,然后分两个步骤进行搜索,首先通过摘要过滤掉相关文档,然后再通过相关组进行搜索。

具体做法可参考如下:

在Elasticsearch中实现您所描述的策略,即创建两个索引(一个包含摘要,另一个包含完整文档),并分两步进行搜索,可以通过以下步骤实现:

  1. 创建两个索引: 首先,为摘要和文档分别创建两个索引。假设我们为摘要创建索引summary_index,为完整文档创建索引document_index。这两个索引中的文档应该有一个共享的唯一标识符(如document_id),以便在后续步骤中关联它们。

    示例索引结构(简化版):

    summary_index:
{
  "document_id": "unique_id_1",
  "summary": "This is a summary of the document content..."
}

   document_index:

{
  "document_id": "unique_id_1",
  "content": "The complete text of the document goes here..."
}

   2.配置跨索引查询: 在Elasticsearch中,没有直接的“联合索引”概念,但可以通过以下方式实现跨索引查询:

  • Application-side Join: 在应用程序端,您可以先针对summary_index执行一个查询,筛选出符合摘要条件的文档ID。接着,使用这些ID作为条件,再对document_index执行一个查询,获取完整的文档内容。

# Python示例,使用Elasticsearch库
from elasticsearch import Elasticsearch

es = Elasticsearch()

# Step 1: Search summaries
summary_query = {
    "query": {
        "match": {
            "summary": "search terms"
        }
    },
    "_source": ["document_id"]  # Only retrieve document IDs
}
summary_results = es.search(index="summary_index", body=summary_query)

# Step 2: Retrieve full documents using IDs from step 1
document_ids = [hit["_id"] for hit in summary_results["hits"]["hits"]]
document_query = {
    "query": {
        "ids": {
            "values": document_ids
        }
    }
}
document_results = es.search(index="document_index", body=document_query)

Term Terms Query with Terms Lookup: 如果您已经知道具体的文档ID(比如用户点击了某个摘要链接),可以直接使用terms查询结合terms_lookup参数,从document_index中检索完整文档。但请注意,这种方法并不适用于批量查询多个文档的情况。

GET /document_index/_search
{
  "query": {
    "terms": {
      "document_id": {
        "index": "summary_index",
        "id": "summary_doc_id",
        "path": "document_id"
      }
    }
  }
}
  1. 优化查询性能

    • 缓存摘要索引结果: 如果摘要索引查询的结果经常被重复使用,可以考虑在应用程序端缓存这些结果,减少对Elasticsearch的重复查询。

    • 使用Elasticsearch的Filter Context: 对于摘要索引的查询,如果条件较为固定(如关键词过滤),可以将其置于filter上下文中,利用Elasticsearch的缓存机制提高查询效率。

    • 分页与滚动搜索: 对于大量结果,使用分页或滚动搜索(Scroll API)来管理结果集,避免一次性加载过多数据。

通过以上步骤,您可以在Elasticsearch中实现对两个独立索引(一个包含摘要,另一个包含完整文档)的分步查询和关联。尽管Elasticsearch不直接支持SQL式的JOIN操作,但通过应用程序逻辑和适当的查询技巧,可以有效地模拟这一过程,并针对大型数据库进行高效搜索。

 

另一种方法是要求 LLM 为每个块生成一个问题,并将这些问题嵌入到向量中,在运行时对这个问题的向量索引执行查询搜索(在索引中用问题向量替换块向量) ,然后路由到原始文本块并将它们作为 LLM 获得答案的上下文发送。这种方法提高了搜索质量,因为与实际块相比,查询和假设问题之间具有更高的语义相似性。还有一种被称为 HyDE 的反向逻辑方法, 要求一个 LLM 生成一个假设的给定查询的响应,然后使用它的向量和查询向量来提高搜索质量。

为了获得更好的搜索质量而检索更小的块,就要为 LLM 添加周围的上下文。有两种选择,一个是句子窗口检索,即在检索到的较小块周围按句子展开上下文,另一个是父文档检索,即递归地将文档分割成若干较大的父块,其中包含较小的子块。

在句子窗口检索方案中,文档中的每个句子都是单独嵌入,这为上下文余弦距离搜索提供了很高的准确性。在获取最相关的单个句子之后,为了更好地推理找到的上下文,在检索到的句子之前和之后将上下文窗口扩展为k个句子,然后将这个扩展的上下文发送给 LLM。

父文档检索与句子窗口检索非常相似,都是搜索更细粒度的信息,然后在将上下文提供给 LLM 进行推理之前扩展过的上下文窗口。文档被拆分成引用较大父块中的较小子块。具体而言,文档被分割成块的层次结构,然后最小的叶子块被发送到索引。在检索期间,获取较小的块,然后如果在top-k 检索的块中有超过 n 个块链接到同一个父节点(较大的块) ,就用这个父节点替换提供给 LLM 的上下文。需要注意的是,搜索仅在子节点索引中执行。

还有一个相对较老的思路,可以像 tf-idf 或BM25这样的稀疏检索算法那样从现代语义或向量搜索中获取最佳结果,并将其结合在一个检索结果中。这里唯一的技巧是将检索到的结果与不同的相似度得分恰当地结合起来,这个问题通常借助于Reciprocal Rank 融合算法(RRF)来解决,对检索到的结果重新排序以得到最终的输出。

在 LangChain中,这是在集成检索器类中实现的,例如,一个 Faiss 矢量索引和一个基于 BM25的检索器,并使用 RRF 进行重新排序。在 LlamaIndex 中,也是以一种非常类似的方式完成的。

混合或融合搜索通常在考虑查询和存储文档之间有语义相似性和关键字匹配的情况下,将两种互补的搜索算法结合起来,提供更好的检索结果。

3.3. Rerank和过滤

在得到了检索结果后,需要通过过滤来重新排序。LlamaIndex 提供了多种可用的后处理程序,根据相似度评分、关键词、元数据过滤掉结果,或者用其他模型对结果进行重新排序,比如基于句子transformer的交叉编码器、 根据元数据(比如日期最近性)内聚重新排序等等。这是将检索到的上下文提供给 LLM 以获得结果答案之前的最后一步。

3.4. query变换

查询转换是一系列使用 LLM 作为推理引擎来修改用户输入以提高检索质量的技术,有很多不同的技术选择。

如果查询很复杂,LLM 可以将其分解为几个子查询。例如,如果问“ 在Github上Langchain 或 LlamaIndex 上哪个有更多颗星?”,不太可能在语料库中找到直接的对比,将这个问题分解为两个子查询是有意义的,前提是要有更简单和更具体的信息检索,例如 “ Langchain 在 Github 上有多少颗星?”“Llamaindex 在 Github 上有多少颗星?”它们将并行执行,然后将检索到的上下文组合在一个提示语中,以便 LLM 合成对初始查询的最终答案。在 Langchain 作为多查询检索器,在 Llamaindex 作为子问题查询引擎。

后退提示(Step-back prompting)使用 LLM 生成一个更一般的查询,为此检索获得一个更一般或更高级别的上下文,以便将原始查询的答案建立在这个上下文上。此外,还将执行对原始查询的检索,并在最后的应答生成步骤中将两个上下文提供给 LLM。LangChain 有一个参考实现https://github.com/langchain-ai/langchain/blob/master/cookbook/stepback-qa.ipynb。query重写使用 LLM 重新制定初始查询,以提高检索效率。LangChain 和 LlamaIndex 都有实现,但 LlamaIndex 参考实现更强大https://llamahub.ai/l/llamapacks-fusionretriever-query_rewrite。

如果使用多个来源来生成一个答案,要么是由于初始查询的复杂性,需要必须执行多个子查询,然后将检索到的上下文合并到一个答案中,要么是在多个文档中发现了单个查询的相关上下文,能够准确地反向引用。可以将这个引用任务插入到提示语中,并要求 LLM 提供所使用源的 id,然后将生成的响应部分与索引中的原始文本块匹配,Llamaindex 为这种情况提供了一种有效的基于模糊匹配的解决方案。

3.5. 聊天引擎

构建一个可以在单个查询中多次运行RAG系统的一个重要特性是聊天逻辑,考虑到对话上下文,就像在 LLM 时代之前的经典聊天机器人一样。这是支持后续问题,重复指代,或任意用户命令相关的以前对话上下文所必需的。查询压缩技术可以同时考虑聊天上下文和用户查询。有几种方法可以实现上下文压缩,一种流行且相对简单的 ContextChatEngine,首先检索与用户查询相关的上下文,然后将其连同聊天历史从存缓发送给 LLM,让 LLM 在生成下一个答案时能够意识到前一个上下文。

更复杂的实现是 CondensePlusContextMode,在每次交互中,聊天历史记录和最后一条消息被压缩成一个新的查询,然后这个查询进入索引,检索到的上下文被传递给 LLM连同原始用户消息来生成一个答案。

3.6. query 路由

Query路由是由 LLM 驱动的决策步骤,在给定用户查询的情况下,决定接下来做什么。这些选项通常是总结、针对某些数据索引执行搜索或尝试多种不同的路由,然后在一个答案中综合它们的输出。

Query路由还可以用于选择索引,或者更广泛的数据存储,将用户查询发送到何处,例如,经典的向量存储和图形数据库或关系数据库。对于多文档存储来说,一个非常经典的情况是一个摘要索引和另一个文档块向量索引。

定义Query路由包括设置它可以做出的选择。路由选择是通过一个 LLM 调用来执行的,它以预定义的格式返回结果,用于将查询路由到给定的索引。如果采用了代理的方式,则将查询路由到子链甚至其他代理,如下面的多文档代理方案所示。LlamaIndex 和 LangChain 都支持Query路由。

3.7. RAG中的智能体Agent

智能体Agent几乎自第一个 LLM API 发布以来就一直存在,其想法是为一个能够推理的 LLM 提供一套工具以及需要完成的任务。这些工具可能包括一些确定性函数,比如任何代码函数或外部 API,甚至包括其他代理,这种 LLM 链接思想就是 LangChain 来源。

代理本身就是一个巨大的话题,OpenAI 助手基本上已经实现了很多围绕 LLM 所需的工具,也许最重要的是函数调用 API。后者提供了将自然语言转换为对外部工具或数据库查询的 API 调用的功能。在 LlamaIndex 中,有一个 OpenAIAgent 类将这种高级逻辑与 ChatEngine 和 QueryEngine 结合在一起,提供基于知识和上下文感知的聊天功能,以及一次性调用多个 OpenAI 函数的能力,这确实带来了智能代理的使用方式。

以多文档代理为例,在每个文档上会初始化一个代理(OpenAIAgent) ,能够进行文档摘要和经典的 QA 机制,以及一个顶级总代理,负责将查询路由到文档代理和最终答案合成。每个文档代理都有两个工具ーー向量存储索引和摘要索引,并根据路由查询决定使用哪个工具。该体系结构由每个相关代理做出大量的路由决策。这种方法的好处是能够比较不同的解决方案或实体,这些解决方案或实体在不同的文档及其摘要以及经典的单一文档摘要和QA 机制中进行了描述,这基本上涵盖了最常见的与文档集聊天的使用场景。

该方案由于在内部使用 LLM 进行了多次来回迭代,因此速度有点慢。为了防万一,LLM 调用通过 RAG 流水线中最长的搜索操作来优化速度。因此,对于大型多文档存储,可以对该方案进行一些简化,使其具有可伸缩性。

3.8. 响应合成

响应合成是任何 RAG 流水线的最后一步,根据检索的所有上下文和初始用户查询生成一个答案。最简单的方法是将所有获取的上下文(高于某个相关性阈值)与查询一起连接并提供给 LLM。但是,还有其他更复杂的选项涉及多个 LLM 调用,以细化检索到的上下文并生成更好的答案。响应合成的主要方法有:

  1. 通过逐块向LLM发送检索到的上下文来迭代地细化答案;

  2. 总结检索到的上下文以适应提示;

  3. 根据不同的上下文块生成多个答案,然后将其连接或总结。

有关响应合成的更多信息,可以参考文档中的示例https://docs.llamaindex.ai/en/stable/moduleguides/querying/responsesynthesizers/root.html。

4. 面向RAG的编码器和大模型微调

对 RAG 流水线中涉及的深度学习模型进行一些微调,一个是负责嵌入质量从而提高上下文检索质量的 Transformer Encoder,另一个负责利用提供的上下文来回答用户查询的 LLM。可以使用 GPT-4这样的高端 LLM 来生成高质量的合成数据集。但是应该始终注意到,采用一个大型数据集进行训练的开源模型,并使用小型合成数据集进行快速调优,可能会削弱模型的总体能力。

较新版本的transformer编码器优化搜索是相当有效的,bge-large-en-v1.5即便在笔记本电脑环境中仍能够有较大的检索质量提升。

4.1编码器微调

一个很好的老选择是有一个交叉编码器。如果不完全信任基本编码器,交叉编码器可以对检索到的结果重新排序。它的工作原理是把查询和每个最高k个检索到的文本块传递给交叉编码器,用一个标记分隔,然后对它进行微调,相关的块输出为1,不相关的块输出为0。这种调整过程可以参考https://docs.llamaindex.ai/en/latest/examples/finetuning/crossencoderfinetuning/crossencoderfinetuning.html#。

4.2 大模型微调

最近 OpenAI 开始提供 LLM 微调 API,LlamaIndex 有一个关于在 RAG 设置中微调 GPT-3.5-turbo 以“提取”一些 GPT-4知识的教程。基本思路是获取一个文档,使用 GPT-3.5-turbo 生成一系列问题,然后使用 GPT-4根据文档内容生成这些问题的答案即构建一个基于 GPT4的 RAG 流水线 ,然后在问答对的数据集上对 GPT-3.5-turbo 进行微调。通过对 RAG 流水线的评估,可以初步确定经过微调的 GPT 3.5-turbo 模型比原始模型能够更好地利用所提供的上下文来生成其答案。

在论文 RA-DIT: Meta AI Research 的检索增强双指令优化中,有一种更为复杂的方法,提出了一种在查询、上下文和答案这个三元组上同时优化 LLM 和检索器(原论文中的双重编码器)的技术。这种技术被用于通过微调 API 和 Llama2开源模型来微调 OpenAI LLM (在原论文中) ,导致知识密集型任务指标增加约5% (与使用 RAG 的 Llama265B 相比) ,并且常识推理任务增加了几个百分点。有关实施细节,可以参考https://docs.llamaindex.ai/en/stable/examples/finetuning/knowledge/finetuneretrievalaug.html#fine-tuning-with-retrieval-augmentation。

5. 面向RAG的性能评估

有几个框架都可以应用于RAG 系统的性能评估,指标包括总体答案相关性、答案溯源性、可信度和检索到的上下文相关性等等。

Ragas框架,使用可信度和答案相关性作为 RAG 检索部分生成答案的质量指标和经典的上下文准召率。评估框架 Truelens 建议采用检索与查询的上下文相关性、答案溯源性以及与查询的答案相关性,将这三个指标作为 RAG 系统的性能评估三元组。其中,关键且最可控的指标是检索到的上下文相关性,其次是答案相关性和溯源性。

LangChain 有一个非常先进的评估框架 LangSmith,可以实现自定义的评估器,还可以跟踪 RAG 流水线的运行状态,以使系统更加透明。而在LlamaIndex 中有一个rag_evaluator的包,提供了一个简便工具使用公共数据集来评估RAG系统。

6. 小结

RAG 系统的主要挑战除了答案的相关性和可信度之外,还有就是速度。然而,还有很多其他事情需要考虑,比如基于网络搜索的 RAG,与Agent架构的深度融合,以及关于 LLM 长期记忆的一些方式方法。即便如此,RAG 仍然有着广泛的应用范围,我们在使用RAG落地应用的时候, 希望本文中提到的这些技术能够对大家有所帮助。

大模型系列——解读RAG

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1575481.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

JSP课设:学校招生系统(附源码+调试)

Java web学校招生系统 Java web学校招生系统功能概述 (1)登录模块:学校招生系统提供管理员和考生两者登录角色,分别对应不同的功能,登录信息存储在数据库中。 (2)前台浏览:学校招生…

让智能体像Excel易用还要多久?

2023年,国内AI产业迎来狂飙时代。大模型热潮推动AI智能体(AI Agent)发展,继ChatGPT成功后,OpenAI目标直指AI Agents。上半年,行业竞相扩大模型规模、提升参数和计算能力,抢占AI浪潮先机。然而&a…

【Easy云盘 | 第二篇】后端统一设计思想

文章目录 4.1后端统一设计思想4.1.1后端统一返回格式对象4.1.2后端统一响应状态码4.1.3后端统一异常处理类4.1.4StringUtils类4.1.5 RedisUtils类 4.1后端统一设计思想 4.1.1后端统一返回格式对象 com.easypan.entity.vo.ResponseVO Data public class ResponseVO<T> …

AFCI 应用笔记三、使用 mlflow 管理模型

1. 简介 由于 AI 神经网络涉及多种参数&#xff0c;需要频繁修改各种超参数&#xff0c;比如&#xff1a;learning rate&#xff0c;batchsize&#xff0c;filter numbers&#xff0c;alpha 等等&#xff0c;每个参数都有可能影响到模型最终的准确率&#xff0c;所以比较这些参…

C语言——顺序表

文章目录 一、线性表二、顺序表顺序表和数组的区别顺序表的分类1.静态顺序表2.动态顺序表 三、动态顺序表的实现1.动态顺序表头文件2.动态顺序表源文件3.测试源文件 一、线性表 线性表&#xff08;linear list&#xff09;是n个具有相同特性的数据元素的有限序列。线性表是⼀种…

软考——数据库系统工程师

时间周期 流水线 IO功能 基本出现的选项中是必考而且基本都是全选 系统总线 后缀表达式 必考2分 答案&#xff1a;B 、 A 用栈来进行计算的。 第一个题先进行36-34的运算&#xff0c;所以是数字后面的第一个符号是减号呀&#xff01;&#xff01;&#xff01; 很重要的知识点…

C语言整数和小数的存储

1.整数在内存中的存储 计算机使用二进制进行存储、运算&#xff0c;整数在内存中存储使用的是二进制补码 1.1原码、反码、补码 整数的2进制表⽰⽅法有三种&#xff0c;即 原码、反码和补码 三种表⽰⽅法均有符号位和数值位两部分&#xff0c;符号位都是⽤0表⽰“正”&am…

27.WEB渗透测试-数据传输与加解密(1)

免责声明&#xff1a;内容仅供学习参考&#xff0c;请合法利用知识&#xff0c;禁止进行违法犯罪活动&#xff01; 内容参考于&#xff1a; 易锦网校会员专享课 上一个内容&#xff1a;26.WEB渗透测试-BurpSuite&#xff08;五&#xff09; BP抓包网站网址&#xff1a;http:…

二分答案 蓝桥杯 2022 省A 青蛙过河

有些地方需要解释&#xff1a; 1.从学校到家和从家到学校&#xff0c;跳跃都是一样的&#xff0c;直接看作2*x次过河就可以。 2.对于一个跳跃能力 y&#xff0c;青蛙能跳过河 2x 次&#xff0c;当且仅当对于每个长度为 y 的区间&#xff0c;这个区间内 h 的和都大于等于…

卷积神经网络-批量归一化

卷积神经网络-批量归一化 批量归一化的原理批量归一化的优点批量归一化的应用批量归一化的实现TensorFlow实现&#xff1a;PyTorch实现&#xff1a; 总结 批量归一化&#xff08;Batch Normalization&#xff0c;简称BN&#xff09;是一种用于提高深度神经网络训练速度和稳定性…

隐私计算实训营第七讲-隐语SCQL的开发实践

隐私计算实训营第七讲-隐语SCQL的开发实践 文章目录 隐私计算实训营第七讲-隐语SCQL的开发实践1.如何使用SCQL&#xff1f;2.使用流程3.SCQL部署4.SCQL使用示例4.1创建用户4.2创建项目&用户授权4.3创建表4.4设置CCL4.5发起联合分析查询 1.如何使用SCQL&#xff1f; 2.使用流…

Mysql的物理文件

1.Windows下面的配置文件是&#xff1a;my.ini [mysql] default-character-setutf8[mysqld] port3306 default_authentication_pluginmysql_native_password basedirE:/phpStudy/phpstudy_pro/Extensions/MySQL8.0.12/ datadirE:/phpStudy/phpstudy_pro/Extensions/MySQL8.0.1…

【刷题】代码随想录算法训练营第二天| 977. 有序数组的平方、209.长度最小的子数组、59.螺旋矩阵II

目录 977、有序数组的平方双指针法 209、长度最小的子数组滑动窗口 59、螺旋矩阵II 977、有序数组的平方 文档讲解&#xff1a;https://programmercarl.com/0209.%E9%95%BF%E5%BA%A6%E6%9C%80%E5%B0%8F%E7%9A%84%E5%AD%90%E6%95%B0%E7%BB%84.html 视频讲解&#xff1a;https://…

揭秘AI幻觉:GPT-4V存在视觉编码漏洞,清华联合NUS提出LLaVA-UHD

ChatGPT狂飙160天&#xff0c;世界已经不是之前的样子。 新建了免费的人工智能中文站https://ai.weoknow.com 新建了收费的人工智能中文站https://ai.hzytsoft.cn/ 更多资源欢迎关注 GPT-4V 的推出引爆了多模态大模型的研究。GPT-4V 在包括多模态问答、推理、交互在内的多个领…

PCL 点到三角形的距离(3D)

文章目录 一、简介二、实现代码三、实现效果参考资料一、简介 给定三角形ABC和点P,设Q为描述ABC上离P最近的点。求Q的一个方法:如果P在ABC内,那么P的正交投影点就是离P最近的点Q。如果P投影在ABC之外,最近的点则必须位于它的一条边上。在这种情况下,Q可以通过计算线段AB、…

串口和 蓝牙模块HC08

串口基本认知 串行接口简称串口&#xff0c;也称 串行通信 接口或 串行通讯接口 &#xff08;通常指 COM 接口 &#xff09;&#xff0c;是采用串行通信方 式的 扩展接口 。串行 接口&#xff08;Serial Interface &#xff09;是指数据一位一位地顺序传送。其特点是 通信线路…

Successive Convex Approximation算法的学习笔记

文章目录 一、代码debug二、原理 本文主要参考了CSDN上的 另一篇文章&#xff0c;但规范了公式的推导过程和修缮了部分代码 一、代码debug 首先&#xff0c;我们将所有的代码放到MATLAB中&#xff0c;很快在命令行中出现了错误信息 很显然有问题&#xff0c;但是我不知道发生…

剪映国际版 v3.7 来了,全功能纯净,附400套离线模板下载

剪映国际版 v3.7 来了&#xff0c;全功能纯净&#xff0c;附400套离线模板下载 相比国内版 国际版不仅没有广告&#xff0c;所有素材和功能都是免费使用的。 CapCut是剪映的国际版本,操作和各种功能几乎和剪映一模一样&#xff0c; 是一款免费无限制使用的视频剪辑软件,软件…

极客时间: 用 Word2Vec, LangChain, Gemma 模拟全本地检索增强生成(RAG)

每周跟踪AI热点新闻动向和震撼发展 想要探索生成式人工智能的前沿进展吗&#xff1f;订阅我们的简报&#xff0c;深入解析最新的技术突破、实际应用案例和未来的趋势。与全球数同行一同&#xff0c;从行业内部的深度分析和实用指南中受益。不要错过这个机会&#xff0c;成为AI领…

Linux中安装nacos

Linux中安装nacos 一、前言二、准备1、下载2、上传到服务器3、解压 三、配置1、备份配置文件2、导入sql3、修改前4、修改后 四、使用1、启动2、关闭 一、前言 最近国外的docker似乎是出什么问题&#xff0c;试过很多手段都拉不下 nacos 镜像&#xff0c;就打算在服务器装一下 …