大型语言模型与知识图谱融合方法概述

news2024/10/6 4:06:54

背景意义

大型语言模型(LLM)已经很强了,但还可以更强。通过结合知识图谱,LLM 有望解决缺乏事实知识、幻觉和可解释性等诸多问题;而反过来 LLM 也能助益知识图谱,让其具备强大的文本和语言理解能力。而如果能将两者充分融合,我们也许还能得到更加全能的人工智能。

今天我们将介绍一篇综述 LLM 与知识图谱联合相关研究的论文,其中既包含用知识图谱增强 LLM 的研究进展,也有用 LLM 增强知识图谱的研究成果,还有 LLM 与知识图谱协同的最近成果。文中概括性的框架展示非常方便读者参考。

image

论文:https://arxiv.org/abs/2306.08302v1

BERT、RoBERTA 和 T5 等在大规模语料库上预训练的大型语言模型(LLM)已经能非常优秀地应对多种自然语言处理(NLP)任务,比如问答、机器翻译和文本生成。近段时间,随着模型规模的急剧增长,LLM 还进一步获得了涌现能力,开拓了将 LLM 用作通用人工智能(AGI)的道路。ChatGPT 和 PaLM2 等先进的 LLM 具有数百上千亿个参数,它们已有潜力解决许多复杂的实际任务,比如教育、代码生成和推荐。

尽管 LLM 已有许多成功应用,但由于缺乏事实知识,它们还是备受诟病。具体来说,LLM 会记忆训练语料库中包含的事实和知识。但是,进一步的研究表明,LLM 无法回忆出事实,而且往往还会出现幻觉问题,即生成具有错误事实的表述。举个例子,如果向 LLM 提问:「爱因斯坦在什么时候发现了引力?」它可能会说:「爱因斯坦在 1687 年发现了引力。」但事实上,提出引力理论的人是艾萨克・牛顿。这种问题会严重损害 LLM 的可信度。

LLM 是黑箱模型,缺乏可解释性,因此备受批评。LLM 通过参数隐含地表示知识。因此,我们难以解释和验证 LLM 获得的知识。此外,LLM 是通过概率模型执行推理,而这是一个非决断性的过程。对于 LLM 用以得出预测结果和决策的具体模式和功能,人类难以直接获得详情和解释。尽管通过使用思维链(chain-of-thought),某些 LLM 具备解释自身预测结果的功能,但它们推理出的解释依然存在幻觉问题。这会严重影响 LLM 在事关重大的场景中的应用,比如医疗诊断和法律评判。举个例子,在医疗诊断场景中,LLM 可能误诊并提供与医疗常识相悖的解释。这就引出了另一个问题:在一般语料库上训练的 LLM 由于缺乏特定领域的知识或新训练数据,可能无法很好地泛化到特定领域或新知识上。

为了解决上述问题,一个潜在的解决方案是将知识图谱(KG)整合进 LLM 中。知识图谱能以三元组的形式存储巨量事实,即 (头实体、关系、尾实体),因此知识图谱是一种结构化和决断性的知识表征形式,例子包括 Wikidata、YAGO 和 NELL。知识图谱对多种应用而言都至关重要,因为其能提供准确、明确的知识。此外众所周知,它们还具有很棒的符号推理能力,这能生成可解释的结果。知识图谱还能随着新知识的持续输入而积极演进。此外,通过让专家来构建特定领域的知识图谱,就能具备提供精确可靠的特定领域知识的能力。

然而,知识图谱很难构建,并且由于真实世界知识图谱往往是不完备的,还会动态变化,因此当前的知识图谱方法难以应对。这些方法无法有效建模未见过的实体以及表征新知识。此外,知识图谱中丰富的文本信息往往会被忽视。不仅如此,知识图谱的现有方法往往是针对特定知识图谱或任务定制的,泛化能力不足。因此,有必要使用 LLM 来解决知识图谱面临的挑战。图 1 总结了 LLM 和知识图谱的优缺点。

 

图 1:LLM 和知识图谱的优缺点总结。 

如图所示,

LLM 的优点:一般知识、语言处理、泛化能力。

LLM 的缺点:隐含知识、幻觉问题、无法决断问题、黑箱、缺乏特定领域的知识和新知识。

知识图谱的优点:结构化的知识、准确度、决断能力、可解释性、特定领域的知识、知识演进。

知识图谱的缺点:不完备性、缺乏语言理解、未见过的知识。

近段时间,将 LLM 和知识图谱联合起来的可能性受到了越来越多研究者和实践者关注。LLM 和知识图谱本质上是互相关联的,并且能彼此互相强化。如果用知识图谱增强 LLM,那么知识图谱不仅能被集成到 LLM 的预训练和推理阶段,从而用来提供外部知识,还能被用来分析 LLM 以提供可解释性。而在用 LLM 来增强知识图谱方面,LLM 已被用于多种与知识图谱相关的应用,比如知识图谱嵌入、知识图谱补全、知识图谱构建、知识图谱到文本的生成、知识图谱问答。LLM 能够提升知识图谱的性能并助益其应用。在 LLM 与知识图谱协同的相关研究中,研究者将 LLM 和知识图谱的优点融合,让它们在知识表征和推理方面的能力得以互相促进。

这篇论文将在联合 LLM 与知识图谱方面提供一个前瞻性的路线图,帮助读者了解如何针对不同的下游任务,利用它们各自的优势,克服各自的局限。其中包含详细的分类和全面的总结,并指出了这些快速发展的领域的新兴方向。本文的主要贡献包括:

1, 路线图:文中提供了一份 LLM 和知识图谱整合方面的前瞻性路线图。这份路线图包含联合 LLM 与知识图谱的三个概括性框架:用知识图谱增强 LLM、用 LLM 增强知识图谱、LLM 与知识图谱协同。可为联合这两种截然不同但互补的技术提供指导方针。

2, 分类和总结评估:对于该路线图中的每种整合模式,文中都提供了详细的分类和全新的分类法。对于每种类别,文中都从不同整合策略和任务角度总结评估了相关研究工作,从而能为每种框架提供更多见解。

3, 涵盖了新进展:文中覆盖了 LLM 和知识图谱的先进技术。其中讨论了 ChatGPT 和 GPT-4 等当前最先进的 LLM 以及多模态知识图谱等知识图谱新技术。

4, 挑战和未来方向:文中也会给出当前研究面临的挑战并给出一些有潜力的未来研究方向。

LLM 和知识图谱基础知识

大型语言模型(LLM)

在大规模语料库上预训练的 LLM 可以解决多种 NLP 任务,拥有巨大潜力。如图 3 所示,大多数 LLM 都源自 Transformer 设计,其中包含编码器和解码器模块,并采用了自注意力机制。LLM 可以根据架构不同而分为三大类别:仅编码器 LLM、编码器 - 解码器 LLM、仅解码器 LLM。图 2 总结了一些代表性 LLM,涉及不同架构、模型大小和是否开源。

图 2:近些年有代表性的 LLM。实心方框表示

图 3:基于 Transformer 并使用了自注意力机

prompt 工程设计 

prompt 工程设计是一个全新领域,其关注的是创建和优化 prompt,从而让 LLM 能最有效地应对各种不同应用和研究领域。如图 4 所示,prompt 是 LLM 的自然语言输入序列,需要针对具体任务(如情绪分类)创建。prompt 可包含多个元素,即:指示、背景信息、输入文本。指示是告知模型执行某特定任务的短句。背景信息为输入文本或少样本学习提供相关的信息。输入文本是需要模型处理的文本。

图 4:一个情绪分类 prompt 的示例。

 prompt 工程设计的目标是提升 LLM 应对多样化复杂任务的能力,如问答、情绪分类和常识推理。思维链(CoT)prompt 是通过中间推理步骤来实现复杂推理。另一种方法则是通过整合外部知识来设计更好的知识增强型 prompt。自动化 prompt 工程(APE)则是一种可以提升 LLM 性能的 prompt 自动生成方法。prompt 让人无需对 LLM 进行微调就能利用 LLM 的潜力。掌握 prompt 工程设计能让人更好地理解 LLM 的优劣之处。

知识图谱(KG)

知识图谱则是以 (实体、关系、实体) 三元组集合的方式来存储结构化知识。根据所存储信息的不同,现有的知识图谱可分为四大类:百科知识型知识图谱、常识型知识图谱、特定领域型知识图谱、多模态知识图谱。图 5 展示了不同类别知识图谱的例子。

图 5:不同类别知识图谱示例。

LLM 和知识图谱的应用 

LLM 和知识图谱都有着广泛的应用。表 1 总结了 LLM 和知识图谱的一些代表性应用。

image

表 1:LLM 和知识图谱的代表性应用。

下面会先给出一份路线图,展现将 LLM 和知识图谱联合起来的框架,然后将对相关研究进行分类。

LLM 和知识图谱的路线图

图 6 展示了将 LLM 和知识图谱联合起来的路线图。这份路线图包含联合 LLM 与知识图谱的三个框架:用知识图谱增强 LLM、用 LLM 增强知识图谱、LLM 与知识图谱协同。

image

图 6:联合知识图谱和 LLM 的一般路线图。

image

图 7:LLM 与知识图谱协同的一般框架,其中包含四层:数据、协同模型、技术、应用。

LLM 和知识图谱的研究分类

为了更好地理解联合 LLM 和知识图谱的研究,论文进一步提供了每种框架的细粒度分类。具体来说,这里关注的是整合 LLM 与知识图谱的不同方法,即:用知识图谱增强 LLM、用 LLM 增强知识图谱、LLM 与知识图谱协同。图 8 细粒度地展示了相关研究的分类情况。

image

图 8:联合 LLM 与知识图谱的相关研究分类。

 统一LLM和知识图谱

用知识图谱增强 LLM

大型语言模型在许多自然语言处理任务上都表现出色。但是,由于 LLM 缺乏实际知识而且常在推理时生成事实性错误,因此也饱受批评。解决该问题的一种方法是用知识图谱增强 LLM。

具体的方式有几种,一是使用知识图谱增强 LLM 预训练,其目的是在预训练阶段将知识注入到 LLM 中。二是使用知识图谱增强 LLM 推理,这能让 LLM 在生成句子时考虑到最新知识。三是使用知识图谱增强 LLM 可解释性,从而让我们更好地理解 LLM 的行为。表 2 总结了用知识图谱增强 LLM 的典型方法。

表 2:用知识图谱增强 LLM 的方法

 用知识图谱增强 LLM 预训练

现有的 LLM 主要依靠在大规模语料库上执行无监督训练。尽管这些模型在下游任务上表现卓越,它们却缺少与现实世界相关的实际知识。在将知识图谱整合进 LLM 方面,之前的研究可以分为三类:将知识图谱整合进训练目标、将知识图谱整合进 LLM 的输入、将知识图谱整合进附加的融合模块。

图 9:通过文本 - 知识对齐损失将知识图谱信息注入到 LLM 的训练目标中,其中 h 表示 LLM 生成的隐含表征。

 

图 10:使用图结构将知识图谱信息注入到 LLM 的输入中

图 11:通过附加的融合模块将知识图谱整合到 LLM 中 

 用知识图谱增强 LLM 推理

以上方法可以有效地将知识与 LLM 的文本表征融合到一起。但是,真实世界的知识会变化,这些方法的局限是它们不允许更新已整合的知识,除非对模型重新训练。因此在推理时,它们可能无法很好地泛化用于未见过的知识。

一些研究关注的正是分离知识空间与文本空间以及在推理时注入知识。这些方法主要关注的是问答(QA)任务,因为问答既需要模型捕获文本语义,还需要捕获最新的现实世界知识


 图 12:用于 LLM 推理的动态知识图谱融合



图 13:通过检索外部知识来增强 LLM 生成

用知识图谱增强 LLM 可解释性 

尽管 LLM 在许多 NLP 任务上都表现不凡,但由于缺乏可解释性,依然备受诟病。LLM 可解释性是指理解和解释大型语言模型的内部工作方式和决策过程。这能提升 LLM 的可信度并促进 LLM 在事关重大的场景中的应用,比如医疗诊断和法律评判。由于知识图谱是以结构化的方式表示知识,因此可为推理结果提供优良的可解释性。因此,研究者必然会尝试用知识图谱来提升 LLM 的可解释性;相关研究大致可分为两类:用于语言模型探测的知识图谱、用于语言模型分析的知识图谱。 


图 14:使用知识图谱进行语言模型探测的一般框架


 图 15:使用知识图谱进行语言模型分析的一般框架


用 LLM 增强知识图谱

知识图谱的显著特点就是结构化的知识表示。它们适用于许多下游任务,比如问答、推荐和网络搜索。但是,传统知识图谱往往不完备,并且已有方法往往不会考虑文本信息。

为了解决这些问题,已有研究者考虑使用 LLM 来增强知识图谱,使其能考虑文本信息,从而提升在下游任务上的表现。表 3 总结了代表性的研究工作。这里会涉及到使用 LLM 对知识图谱进行不同增强的方法,包括知识图谱嵌入、知识图谱补全、知识图谱到文本生成、知识图谱问答


表 3:用 LLM 增强知识图谱的代表性方法


用 LLM 增强知识图谱嵌入 

知识图谱嵌入(KGE)的目标是将每个实体和关系映射到低维的向量(嵌入)空间。这些嵌入包含知识图谱的语义和结构信息,可用于多种不同的任务,如问答、推理和推荐。传统的知识图谱嵌入方法主要依靠知识图谱的结构信息来优化一个定义在嵌入上的评分函数(如 TransE 和 DisMult)。但是,这些方法由于结构连接性有限,因此难以表示未曾见过的实体和长尾的关系。

图 16 展示了近期的一项研究:为了解决这一问题,该方法使用 LLM 来编码实体和关系的文本描述,从而丰富知识图谱的表征。


图 16:将 LLM 用作知识图谱嵌入的文本编码器


 用 LLM 增强知识图谱补全

知识图谱补全(KGC)任务的目标是推断给定知识图谱中缺失的事实。类似于 KGE,传统 KGC 方法主要关注的是知识图谱的结构,而不会考虑广泛的文本信息。

但是,近期有研究将 LLM 整合到了 KGC 方法中来编码文本或生成事实,取得了更好的 KGC 表现。根据使用方式,这些方法分为两类:将 LLM 用作编码器(PaE)、将 LLM 用作生成器(PaG)。


图 18:将 LLM 用作编码器(PaE)来补全知识图谱的一般框架 


图 19:将 LLM 用作生成器(PaG)来补全知识图谱的一般框架 En. 和 De. 分别表示编码器和解码器。 


 图 20:使用基于 prompt 的 PaG 来补全知识图谱的框架。


用 LLM 增强知识图谱构建 

知识图谱构建涉及到为特定领域内的知识创建结构化的表示。这包括识别实体以及实体之间的关系。知识图谱构建过程通常涉及多个阶段,包括:实体发现、共指消解和关系提取。图 21 展示了将 LLM 用于知识图谱构建各个阶段的一般框架。近期还有研究探索了端到端知识图谱构建(一步构建出完整的知识图谱)以及直接从 LLM 中蒸馏出知识图谱。


 图 21:基于 LLM 的知识图谱构建的一般框架


 

 图 22:从 LLM 中蒸馏出知识图谱的一般框架


用 LLM 增强知识图谱到文本生成

知识图谱到文本(KG-to-text)生成的目标是生成能准确一致地描述输入知识图谱信息的高质量文本。知识图谱到文本生成连接了知识图谱与文本,能显著提升知识图谱在更现实的自然语言生成场景中的可用性,包括故事创作和基于知识的对话。但是,收集大量知识图谱 - 文本平行数据难度很大,成本很高,这会导致训练不充分和生成质量差。

因此,有许多研究致力于解决这些问题:如何利用 LLM 的知识?如何构建大规模的弱监督知识图谱 - 文本语料库来解决这个问题?

图 23:知识图谱到文本生成的一般框架


用 LLM 增强知识图谱问答 

知识图谱问答(KGQA)的目标是根据知识图谱存储的结构化事实来寻找自然语言问题的答案。KGQA 有一个无可避免的挑战:检索相关事实并将知识图谱的推理优势扩展到问答任务上。因此,近期有研究采用 LLM 来填补自然语言问题与结构化知识图谱之间的空白。

图 24 给出了将 LLM 用于 KGQA 的一般框架,其中 LLM 可用作实体 / 关系提取器和答案推理器

 

图 24:将 LLM 用于知识图谱问答的一般框


LLM 与知识图谱协同 

LLM 与知识图谱协同近年来赢得了不少关注,该方法能将 LLM 和知识图谱的优点融合,从而更好地应对各种下游任务。举个例子,LLM 可用于理解自然语言,同时知识图谱可作为提供事实知识的知识库。将 LLM 和知识图谱联合起来可以造就执行知识表征和推理的强大模型

这里从两个方面关注了 LLM 与知识图谱协同:知识表征、推理。表 4 总结了代表性的研究工作。

 表 4:LLM 与知识图谱协同方法汇总

知识表征 

文本语料库和知识图谱都包含大量知识。但是,文本语料库中的知识通常是隐式的和非结构化的,而知识图谱中的知识是显式的和结构化的。因此,想要以统一方式来表示这些知识,就必须对齐文本语料库和知识图谱中的知识。图 25 给出了针对知识表征任务统一 LLM 和知识图谱的一般框架。

图 25:针对知识表征任务统一 LLM 和知识图谱的一般框架 

KEPLER 是一种用于知识嵌入和预训练语言表征的统一模型。KEPLER 会使用 LLM 将文本实体描述编码成它们的嵌入,然后对知识嵌入和语言建模目标进行联合优化。JointGT 提出了一种知识图谱 - 文本联合表征学习模型,其中提出了三个预训练任务来对齐知识图谱和文本的表征。DRAGON 则给出了一种自监督方法,可以基于文本和知识图谱来预训练一个语言 - 知识的联合基础模型。其输入是文本片段和相关的知识图谱子图,并会双向融合来自这两种模式的信息。然后,DRAGON 会利用两个自监督推理任务(掩码语言建模和知识图谱链接预测)来优化该模型的参数。HKLM 则引入了一种联合 LLM,其整合了知识图谱来学习特定领域知识的表征。 

推理 

为了同时利用 LLM 和知识图谱的优势,研究者也通过 LLM 和知识图谱协同来执行多种应用的推理任务。在问答任务中,QA-GNN 首先会利用 LLM 来处理文本问题,再引导知识图谱的推理步骤。这样一来就构建了文本和结构化信息之间的桥梁,从而能为推理过程提供解释。

在知识图谱推理任务中,LARK 提出了一种由 LLM 引导的逻辑推理方法。其首先会将传统的逻辑规则转换成语言序列,然后要求 LLM 推理出最终输出。此外,Siyuan et al. 通过一个统一框架统一了结构推理和语言模型预训练。给定一个文本输入,他们采用 LLM 来生成逻辑查询,其可在知识图谱上执行以获取结构化的上下文信息。最后,这个结构化的上下文会与文本信息融合以生成最终输出。

RecInDial 则将知识图谱与 LLM 组合起来在对话系统中提供个性化推荐。KnowledgeDA 提出了一种统一的领域语言模型开发流程,可使用领域知识图谱增强针对特定任务的训练过程。

未来方向

在联合知识图谱和大型语言模型方面还有诸多挑战有待解决,下面简单给出了这一研究领域的一些未来研究方向:

  • 将知识图谱用于检测 LLM 的幻觉;
  • 将知识图谱用于编辑 LLM 中的知识;
  • 将知识图谱用于黑箱 LLM 知识注入;
  • 将多模态 LLM 用于知识图谱;
  • 将 LLM 用于理解知识图谱的结构;
  • 将 LLM 和知识图谱协同用于双向推理。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1214358.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

一加手机全球摄影展深圳开展 历年获奖作品齐登场

11 月 18 日至 12 月 3 日,一加手机将携手国际摄影奖(International Photography Awards,以下简称IPA),在深圳市南山区海岸城购物中心举办一加手机全球摄影展(OnePlus Global Photography Exhibition&#…

【Vue】内置指令真的很常用!

内置指令 v-text v-text用于将一个变量的值渲染为元素的文本内容 注意v-text只能接受字符串类型的值,对于对象类型,会调用toString()方法 与插值表达式区别就是它会替换标签中的值&#xff0c;只显示它绑定的&#xff08;还是插值语法用的多~&#xff09; 语法 <元素 …

荧光量子效率积分球检测薄膜需要注意什么

荧光量子效率积分球是一种特殊的积分球&#xff0c;它可以用于测量荧光材料在特定波长下的荧光量子效率。它由一个具有高朗伯特性的漫反射材料制成&#xff0c;具有高达99%的反射率和朗伯特性。荧光量子效率积分球的使用方法包括将样品放置在积分球的样品口中&#xff0c;调整激…

Postman的Cookie鉴权

近期在复习Postman的基础知识&#xff0c;在小破站上跟着百里老师系统复习了一遍&#xff0c;也做了一些笔记&#xff0c;希望可以给大家一点点启发。 一&#xff09;什么是Cookie 定义&#xff1a;存储在客户端的一小段文本信息&#xff0c;格式为键值对的形式. 二&#xff09…

Adobe Illustrator——原创设计的宝藏软件

今天&#xff0c;我们来谈谈一款在Adobe系列中曾经多次给大家都提到的原创性极强的设计理念丰富的矢量图形编辑软件——Adobe Illustrator。 Adobe Illustrator&#xff0c;其定位是一款与Photoshop相类似对矢量图形进行编辑的软件。 Adobe Illustrator&#xff0c;作为全球最著…

postman导入请求到jmeter进行简单压测,开发同学一学就会

背景# 这个事情也是最近做的&#xff0c;因为线上nginx被我换成了openresty&#xff0c;然后接入层服务也做了较大改动&#xff0c;虽然我们这个app&#xff08;内部办公类&#xff09;并发不算高&#xff0c;但好歹还是压测一下&#xff0c;上线时心里也稳一点。 于是用jmet…

js添加dom到指定div之后,并给添加的dom类名,然后设置其样式,以及el-popover层级z-index过高问题解决。

遇到一个需求,Vue项目做一个表格,要求表头与表格内容分开,如下效果所示,表头与表格有个高度间隔边距(箭头所示),因为默认我们的el-table的表头与内容是一起的: 思路:通过querySelector获取el-table__header-wrapper元素,通过createElement创建一个div,通过 newElem…

pg_bouncer在使用中的坑勿踩

目录 简介 环境信息 问题配置 问题配置 启动pgbouncer 链接逻辑图 测试存在问题 pgadmin4 Idea JAVA调用 ​编辑 dbeaver 建议&#xff1a; 简介 前面文章说过关于pg_bouncer的安装讲解&#xff0c;这里讲一下在使用中的坑&#xff0c;在进行配置的时候需要注意。 …

YOLOv7独家原创改进:最新原创WIoU_NMS改进点,改进有效可以直接当做自己的原创改进点来写,提升网络模型性能精度

💡该教程为属于《芒果书》📚系列,包含大量的原创首发改进方式, 所有文章都是全网首发原创改进内容🚀 💡本篇文章为YOLOv7独家原创改进:独家首发最新原创WIoU_NMS改进点,改进有效可以直接当做自己的原创改进点来写,提升网络模型性能精度。 💡对自己数据集改进有效…

Android Glide照片宫格RecyclerView,点击SharedElement共享元素动画查看大图,Kotlin(1)

Android Glide照片宫格RecyclerView&#xff0c;点击SharedElement共享元素动画查看大图&#xff0c;Kotlin&#xff08;1&#xff09; <uses-permission android:name"android.permission.READ_EXTERNAL_STORAGE" /><uses-permission android:name"an…

Axure9 基本操作(二)

1. 文本框、文本域 文本框&#xff1a;快速实现提示文字与不同类型文字显示的效果。 2. 下拉列表、列表框 下拉列表&#xff1a;快速实现下拉框及默认显示项的效果。 3. 复选框、单选按钮 4.

module pandas has no attribute Int64Index

pandas报错 pandas 报错解决 pandas 报错 module pandas has no attribute Int64Index 解决 将pandas将为1.1.3版本即可pip uninstall pandas pip install pandas1.1.3 -i https://pypi.tuna.tsinghua.edu.cn/simple/

Python数据容器通用操作

通用操作 1.数据容器可以从以下视角进行简单的分类2.数据容器特点对比3.数据容器的通用操作4.功能总览5.字符串大小比较 1.数据容器可以从以下视角进行简单的分类 是否支持下标索引 支持&#xff1a;列表、元组、字符串 --序列类型不支持&#xff1a;集合、字典 --非序列类型 …

一周65多篇文章,SEER的热度又回来了|SEER数据库周报(11.2)

欢迎参加郑老师2023年孟德尔随机化课程 发表文章后退款&#xff01;孟德尔随机化方法快速撰写SCI论文” &#xff0c;11.18-11.19 SEER&#xff08;The Surveillance, Epidemiology, and End Results&#xff09;数据库是由美国国立癌症研究所于 1973 年建立&#xff0c;是美国…

CCF CSP认证历年题目自练Day46

兄弟们记得去官网报名CSP认证。 题目 试题编号&#xff1a; 201709-3 试题名称&#xff1a; JSON查询 时间限制&#xff1a; 1.0s 内存限制&#xff1a; 256.0MB 问题描述&#xff1a; 问题描述   JSON (JavaScript Object Notation) 是一种轻量级的数据交换格式&#xff…

大数据Hadoop之——部署hadoop+hive+Mysql环境(Linux)

目录 一、JDK的安装 1、安装jdk 2、配置Java环境变量 3、加载环境变量 4、进行校验 二、hadoop的集群搭建 1、hadoop的下载安装 2、配置文件设置 2.1. 配置 hadoop-env.sh 2.2. 配置 core-site.xml 2.3. 配置hdfs-site.xml 2.4. 配置 yarn-site.xml 2.5. 配置 ma…

11-15 周三 softmax 回归学习

11-15 周三 softmax 回归学习 时间版本修改人描述2023年11月15日11:17:27V0.1宋全恒新建文档 简介 softmax分享可以参考什么是softmax 回归估计一个连续值&#xff0c;分类预测一个离散类别。 恶意软件的判断 回归和分类 分类可以认为从回归的单输出变成多输出 B站学习 softm…

RT-DETR优化改进:IoU系列篇 | Inner-IoU融合MPDIoU,创新十足,2023年11月最新IoU改进

🚀🚀🚀本文改进: Inner-IoU(基于辅助边框的IoU损失)结合MPDIoU进行创新,创新十足,全网首发 🚀🚀🚀RT-DETR改进创新专栏:http://t.csdnimg.cn/vuQTz 学姐带你学习YOLOv8,从入门到创新,轻轻松松搞定科研; RT-DETR模型创新优化,涨点技巧分享,科研小助手…

轻量封装WebGPU渲染系统示例<33>- 单精度浮点纹理(源码)

在WebGPU中创建纹理使用纹理很方便&#xff0c;只是js中只有Float32Array而默认不支持Float16Array&#xff0c;所以略微费点事。不过网上的大神多的是&#xff0c;摇摇小手就能获得解决方案。 废话多了容易挨胖揍&#xff0c;看代码。 js中float16单精度float数值转换: // …

【vue2绘制echarts环状图】vue2使用echarts绘制环状图

效果图&#xff1a; 鼠标悬浮的效果图&#xff1a; 1&#xff1a;安装echarts yarn add echarts5.3.2 或 npm install echarts5.3.2 --save2.局部引入使用 在vue页面引入 <template><div><divref"myChart"style"{width: 400px;height: 350…