在私有化过程中不要忽视LLMs的双重逻辑能力:医学领域的数据密集型分析

news2024/9/20 9:41:30

链接:https://arxiv.org/abs/2309.04198

原标题:Don’t Ignore Dual Logic Ability of LLMs while Privatizing: A Data-Intensive Analysis in Medical Domain

日期:Submitted on 8 Sep 2023

图片

摘要

大量的研究致力于通过喂养特定领域的数据,将通用领域的 Large Language Models (LLMs) 私有化为特定领域的 LLMs。然而,这些私有化努力常常忽略了一个关键方面:双重逻辑能力,这是 LLMs 的核心推理能力。LLMs 的双重逻辑能力确保了当面对关于同一事实的正反两种陈述时,它们能够保持一致的态度。我们的研究专注于在医学领域私有化过程中 LLMs 的双重逻辑能力如何受到影响。我们进行了几项实验,通过检查对关于同一事实的成对问题的回答中态度的一致性来分析 LLMs 的双重逻辑能力。在我们的实验中,有趣的是,我们观察到现有 LLMs 在私有化后双重逻辑能力显著下降。此外,我们的结果表明,将通用领域的双重逻辑数据整合到 LLMs 中不仅增强了 LLMs 的双重逻辑能力,还进一步提高了它们的准确性。这些发现强调了在私有化过程中优先考虑 LLMs 双重逻辑能力的重要性。我们的研究为未来旨在探索私有化过程中 LLMs 双重逻辑能力的研究建立了基准,并为现实世界应用中的私有化努力提供了宝贵的指导。

1 引言

大型语言模型(Large Language Models,LLMs)(OpenAI,2023;Touvron等人,2023;百川,2023;Du等人,2022)因其与人类互动的显著能力而受到广泛关注。尽管LLMs在通用领域表现出色,但它们在特定领域(如医学)的表现尚不成熟。因此,人们对私有化LLMs以增强其特定领域专业知识的兴趣日益增长(Wang等人,2023a)。

图片

图 1:LLM在面临Q和¬Q时保持一致立场的示例。反义词替换表示将Q转换为¬Q的操作。

最近的工作(Chen等人,2023;Ming Wang,2023;Wang等人,2023a)旨在基于权威医学资源构建高质量的医学领域指令微调数据,从而私有化LLMs。尽管许多私有化的LLMs声称它们在医学领域优于其基础LLMs,但被忽略的一个方面是LLMs的双重逻辑能力。双重逻辑的概念已经在数学领域被正式定义,如下所示:

在逻辑学中,如果函数或关系A和B满足 A(¬x) = ¬B(x),其中¬表示逻辑否定,那么A和B被认为是双重逻辑的。

基于这个概念,我们引入了LLMs的双重逻辑能力的概念,这突出了它们在面对包含事实陈述的问题Q和包含相应反事实陈述的问题¬Q时保持一致立场的能力。正式地,它可以被定义为 ¬f(Q) = f(¬Q),其中f代表LLMs的函数。《图1》提供了一个示例,展示了LLMs在面对Q和¬Q时如何保持一致的立场。

鉴于先前研究中对私有化LLMs的双重逻辑能力的关注有限,可用于分析的高质量数据存在显著的缺口。为了解决这个缺陷,我们构建了一个全面的医学数据集。我们的工作涉及收集文献摘要,并利用ChatGPT根据这些摘要自动生成多轮对话。考虑到文献内容的冗余将对ChatGPT的精确理解提出挑战,我们开发了一个多步骤过程,旨在增强ChatGPT对内容的理解,从而确保高质量对话的生成。随后,我们手动标注了三个具体操作的双逻辑测试样本对Q和¬Q。此外,为了增强私有化LLMs的双重逻辑能力,我们开发了一个自动过程来构建通用领域的双逻辑数据。总的来说,我们的数据集包括用于预训练(PT)阶段的医学文献摘要,用于指令微调(IFT)阶段的医学多轮对话和通用领域双逻辑数据,以及医学双逻辑测试数据。

在我们的实验中,我们进行了数据密集型分析。首先,在我们标注的双重逻辑测试数据上,我们评估了现有LLMs及其私有化变体的双重逻辑能力。我们的发现揭示,LLMs的双重逻辑能力在私有化后都显著下降,表明在现有的努力中双重逻辑能力总是被忽略。为了进一步探索LLMs在私有化过程中双重逻辑能力如何受到影响,我们在构建的数据上对LLMs进行了私有化。我们的实验结果表明,只在IFT阶段使用医学多轮对话通常会减少LLMs的双重逻辑能力。相反,在IFT阶段引入通用领域的双重逻辑数据将显著提高LLMs的双重逻辑能力,并且它们的准确性也会相应地进一步提高。这些结果强调了在私有化过程中LLMs的双重逻辑能力的重要性,并证明了LLMs可以从通用领域的双重逻辑数据中泛化这种能力。此外,我们观察到预训练数据可以作为提高LLMs双重逻辑能力的增强因素。通过定量分析,我们还检查了基础LLM本身的影响,并验证了通用领域双重逻辑数据的可迁移性。值得注意的是,我们手动评估了所有10,908个测试样本,以确保我们结果的可靠性。

我们的贡献可以总结如下:

• 我们的研究引入了双重逻辑能力的概念,这是LLMs的核心推理能力。我们的分析揭示,在先前的私有化努力中LLMs的双重逻辑能力一直被忽视。

• 我们的研究揭示了在私有化过程中LLMs的双重逻辑能力的重要性,并证明了通用领域双重逻辑数据在提高私有化LLMs的双重逻辑能力方面发挥着关键作用。

• 我们的研究提供了一个全面的私有数据集,可以作为未来探索LLMs在私有化过程中双重逻辑能力的工作的基准。

2 背景研究

LLMs在通用领域表现出了显著的能力,然而它们在特定领域的表现揭示了相当大的提升空间。在医学领域,当个人转向LLMs进行医疗咨询或收集与健康相关的信息时,LLMs知识的深度和专业性变得至关重要。因此,许多研究专注于私有化LLMs以增强其专业知识。这些努力主要采用统一的技术方法,即基于高质量医学领域数据的LLMs的参数高效微调。为了收集高质量的数据,当前的研究采用了以下不同的策略:

• Med-PaLM (Singhal等人,2023) 合成了高质量的医学NLP数据集,如PubMedQA (Jin等人,2019),MedMCQA (Pal等人,2022) 和MedQA (Jin等人,2021)。通过指令微调PaLM,Med-PaLM在医学多项选择题上实现了前所未有的性能。

• HuatuoGPT (Zhang等人,2023) 和ChatDoctor (Li等人,2023) 专注于收集真实世界的问答数据,并通过从ChatGPT中提取来创建医学数据。

• Bentsao (Wang等人,2023a) 和Shennong (Zhu和Wang,2023) 利用ChatGPT基于现有的结构化医学知识图谱构建问答数据。

• MedicalGPT-zh (Liu等人,2023) 参考了BELLE (Ji等人,2023) 方法,利用ChatGPT基于临床指南文本构建各种场景下的对话数据。

• ChatMed (Zhu和Wang,2023) 收集在线咨询的真实问题,然后利用ChatGPT回应,从而获得问答数据。

尽管在医学领域私有化数据方面做出了重大努力,但重点主要在于收集多样化和高质量的医学领域数据。目前,对私有化LLMs的双重逻辑能力缺乏关注。因此,我们的工作提供了一个更全面的私有化数据集,专门用于探索LLMs的双重逻辑能力,这使得我们的工作与当前实践有所区别。

3 数据构建

在我们的数据构建过程中,我们从两个角度入手。首先,我们开发了一个医学数据集,包括医学文献摘要、基于这些摘要自动生成的多轮对话,以及手动标注的双重逻辑测试数据。其次,为了提高LLMs的双重逻辑能力,我们系统地构建了通用领域的双重逻辑数据。

3.1 医学数据集
文献摘要

我们从中国知网收集了医学文献摘要,重点关注一个宝贵领域“肝胆胰腺疾病”。如图2所示,这些摘要通常包含研究目的、方法、实验和结论的详细信息,提供了一个全面的概述。我们收集了10,313篇文献摘要,每篇摘要平均有16.22个句子和712.21个标记。

多轮对话

在IFT阶段,对话数据在训练LLMs时发挥着关键作用。随着越来越多的关注利用ChatGPT创建对话数据,确保ChatGPT的精确理解以帮助构建高质量对话变得很重要。因此,我们提出了一个基于文献摘要生成对话数据的分步过程,分为以下步骤:

• 信息拆解:将非结构化的医学文献摘要转换成半结构化格式。我们采用正则表达式技术进行关键信息提取,包括研究目的、方法、实验和结论。当正则表达式技术失败时,可以进一步使用ChatGPT进行信息提取。

• 提示焦点:最近的研究(Shi等人,2023)表明,当处理过长的文本时,LLMs总是容易分心。为了缓解这个问题,可以战略性地设计提示,将LLMs的注意力引导到需要融入对话的特定信息上。例如,提示可以设计为“请将[结论]融入对话中。其他细节,如[目的]、[方法]、[结果]等,可以根据需要参考。”。

• 反向验证:实证观察表明,生成的对话总是包含了医学文献中的原始文本内容。因此,我们采用最长公共子串匹配算法来评估文献信息融入的程度,使我们能够选择性地保留高质量对话。

• 数据清洗:生成的对话中经常包含大量的主观表达,例如“这项研究表明…”。当这类数据在训练阶段被使用时,LLMs自然会复制类似的主观表达。在与人类互动时,会导致出现令人困惑的主观陈述。为了缓解这个问题,我们使用ChatGPT将这种主观表达改写为客观表达。例如,将“这项研究表明…”改写为“相关研究表明…”。

我们构建了1,212个多轮对话,每个对话平均有3.53轮。如图2所示,遵循上述步骤,我们构建了一个三轮对话数据,其中第一轮的信息由ChatGPT补充,第二轮和第三轮的信息来自文献摘要。

双重逻辑测试数据

为了评估LLMs的双重逻辑能力,我们精心标注了双重逻辑测试数据。这个过程包括只向标注者提供文献摘要,确保我们构建的对话保持封闭,以防止训练数据泄露的风险。标注者首先被分配从摘要中提炼事实陈述的任务。随后,他们通过特定操作(反义词替换、添加否定词或交换实体位置)将这些事实陈述转换为反事实陈述。最后,标注者将事实陈述及其对应的反事实陈述转化为一般问题,以获得双重逻辑测试数据的对。总的来说,我们为反义词替换操作标注了100对,为添加否定词操作标注了58对,为交换实体位置操作标注了44对。图3展示了我们标注的双重逻辑测试数据的案例。

图片

图2:构建对话的一个案例。左侧展示的是文献摘要,右侧展示的是构建的对话。绿色覆盖的文本代表来自文献摘要的信息。

图片

图3:我们标注的双重逻辑测试数据的案例。AS、ANW和SEP分别代表反义词替换、添加否定词和交换实体位置操作。

3.2 通用领域双重逻辑数据

为了增强LLMs的双重逻辑能力,我们使用ChatGPT来自动生成通用领域的双重逻辑数据。这个过程在图4中概述。最初,我们通过两种方式收集事实陈述:一种是从维基百科获取,另一种是通过提示ChatGPT生成。随后,我们利用ChatGPT通过诸如反义词替换、添加否定词和交换实体位置等操作来生成反事实陈述。在此步骤之后,我们提示ChatGPT将事实和反事实陈述转换成相应的一般问题。最后,我们指导ChatGPT创建基于原始事实陈述的回应。总的来说,我们为反义词替换操作构建了130对,为添加否定词操作构建了150对,为交换实体位置操作构建了100对。

图片

图4:构建通用领域双重逻辑数据的过程。

图片

图5:人类评估标准。在我们的评估中,LLMs的回复将被分为五个类别。

4 实验

4.1 初步

在呈现实验结果之前,我们介绍了我们的评估指标、选定的LLMs以及实验设置。

评估指标

在我们的研究中,我们根据图5所示的标准手动标注所有评估结果。在评估双重逻辑能力时,我们将包含事实陈述的问题和包含相应反事实陈述的问题视为一对测试样本。如果满足以下条件,则一对测试样本将被计数:

• 对于包含事实陈述的问题,LLM保持一致的立场;而对于包含相应反事实陈述的问题,LLM保持不一致的立场。

• 对于包含事实陈述的问题和包含反事实陈述的问题,LLM都保持中立立场。

• 对于包含事实陈述的问题,LLM保持不一致的立场;而对于包含相应反事实陈述的问题,LLM保持一致的立场。

通过计算符合上述条件的配对样本占总数比例,我们计算出双重逻辑指数(DLIndex)。

准确度是我们在研究中使用的另一个评估指标。值得注意的是,与双重逻辑指数不同,准确度是基于单个测试样本而不是配对样本计算的。具体来说,我们计算以下测试样本的比例:

• 对于包含事实陈述的问题,LLM保持一致的立场。

• 对于包含反事实陈述的问题,LLM保持不一致的立场。

此外,为了同时评估双重逻辑能力和准确度,我们借鉴了机器学习中常用的F1指数。我们将计算DLAcc F1指数如下:

图片

图片

表1:LLMs更新的参数百分比。PT和IFT分别代表预训练阶段和指令微调阶段。

实验设置

在我们的研究中,一方面,我们利用我们标注的双重逻辑测试数据来评估现有LLMs的双重逻辑能力。在基于各自私有医疗数据将通用领域LLMs转化为医学领域LLMs方面取得了显著进展。其中,我们选择了基于Qwen14B(Bai等人,2023)的CareQwen14B(Wang等人,2023b),基于Huozi7B的Bentsao7B(Wang等人,2023a),以及基于ChatGLM6B(Du等人,2022)的Bianque26B(Chen等人,2023)作为我们的分析对象。

另一方面,考虑到现有LLMs的训练过程是黑盒的,很难进行公平和全面的分析。为了解决这个问题,我们在我们的私有数据上进行通用领域LLMs到医学领域LLMs的转换。在这个过程中,我们评估了不同类型数据对LLMs性能的影响。我们选择了Qwen7B、Huozi27B和ChatGLM26B作为训练的基础LLMs。在训练过程中,我们采用了参数高效微调的LoRA(Mangrulkar等人,2022;Hu等人,2021)策略。表1展示了LLMs更新参数的百分比,包括预训练(PT)阶段和指令微调(IFT)阶段。参数大小的经验来自开源研究4。

4.2 主要实验
现有LLMs的评估

如图6所示,我们分别对基础LLMs及其相应的私有化变体进行了双重逻辑能力的评估。实验结果表明,在每种精细操作和总体上,使用它们的私有化数据训练LLMs会导致双重逻辑能力稳定且显著下降。这一现象凸显了当前工作中的普遍忽视,即在私有化过程中忽略了LLMs的双重逻辑能力。

图片

图6:评估现有LLMs的双重逻辑能力。我们报告了三种操作(AS、ANW和SEP)以及总体评估的DL-Index。

对我们LLMs的评估

如第3节所述,我们的私有数据集包括医学文献摘要、多轮医学对话和通用领域的双重逻辑数据。在此基础上,我们在我们LLMs的训练过程中实施了四种设置:

• IFT♠:仅基于多轮医学对话进行IFT(指令微调)。

• IFT♣:基于多轮医学对话和通用领域的双重逻辑数据进行IFT。

• PT&IFT♠:在医学文献摘要上进行预训练后,执行IFT♠设置。

• PT&IFT♣:在医学文献摘要上进行预训练后,执行IFT♣设置。

图片

表2:在我们私有数据上的实验结果。PT和IFT分别代表预训练阶段和指令微调阶段。与♠相比,♣表示加入了通用领域的双重逻辑数据。

根据表2中显示的实验结果,我们观察到了以下现象:

• 准确度不能反映LLMs的双重逻辑能力。例如,在IFT♠设置中,尽管Qwen和ChatGLM的准确度有所提高,但它们的双重逻辑能力却下降了。这一观察结果凸显了对LLMs双重逻辑能力进行评估的必要性。

• 在IFT♠设置中,仅在IFT阶段依赖多轮对话数据通常会导致LLMs的双重逻辑能力下降。相反,在IFT♣设置中,将通用领域的双重逻辑数据纳入IFT阶段不仅显著提高了LLMs的双重逻辑能力水平,而且进一步提高了它们的准确度。这些发现表明LLMs可以从通用领域的双重逻辑数据中有效地泛化双重逻辑能力,并强调了LLMs双重逻辑能力的重要性。

• 预训练(PT)数据作为一个增强因素而不是一个关键因素来提高双重逻辑能力。基于Huozi2的结果表明,尽管PT&IFT♠设置的双重逻辑能力比IFT♠设置有所提高,但甚至没有超过基础LLM本身。此外,在ChatGLM2上,PT&IFT♠设置甚至与IFT♠设置相比性能下降。这些观察结果表明,仅包含预训练阶段并不能稳定地提高双重逻辑能力。然而,在IFT♣设置下,如果包含预训练阶段,我们观察到所有三种LLMs都出现了稳定和显著的提高(PT&IFT♣设置)。这一现象表明通用领域的双重逻辑数据是一个关键因素,而预训练数据可以作为一个增强因素。

图片

图7:将通用领域的双重逻辑数据混合到另一个私有数据集上的实验结果。

总的来说,我们的评估首先强调了评估LLMs双重逻辑能力的重要性。然后,通过对我们私有数据的详细分析,我们观察到了不同类型数据对双重逻辑能力的影响。我们的发现表明,仅依赖医学领域对话往往会影响LLMs的双重逻辑能力。在改善LLMs双重逻辑能力的过程中,通用领域的双重逻辑可以作为一个关键因素,而预训练数据可以作为一个增强因素。

图片

图8:分析基础LLM的影响。与Base相比,Adaption表示基础LLM本身的双重逻辑能力已经得到改善。

5 探索

5.1 通用领域双重逻辑数据的可迁移性

我们探索我们构建的通用领域双重逻辑数据是否可以转移到其他私有数据上,而不仅仅是我们的私有数据。为了验证这一点,我们收集了另一个开源的私有数据集。在4.2节中介绍的IFT♣设置下,我们训练了三种LLMs。如图7所示的实验结果表明,在混合了我们构建的通用领域双重逻辑数据后,LLMs的双重逻辑能力显著提高。这一现象表明,我们构建的通用领域双重逻辑数据可以作为任何私有数据的宝贵资源。

5.2 基础LLM的影响

我们进行了一项定量实验,以分析基础LLM本身对双重逻辑能力的影响。根据4.2节,我们得出结论,LLMs可以从通用领域的双重逻辑数据中泛化出双重逻辑能力。因此,我们进行了一个实验设置(称为Adaption),即首先在通用领域双重逻辑数据上训练LLMs以提高其双重逻辑能力,然后在其上训练以将它们转化为医学领域的LLMs。如图8所示的结果表明,在基础LLM的双重逻辑能力得到提高后,私有化LLMs的双重逻辑能力也显著提高。这一现象表明,提高基础LLM本身的双重逻辑能力是非常重要和有价值的。

5.3 案例研究

如图App A所示,我们提供了一个基于Huozi2的真实案例研究。在基础和IFT♠设置下,LLMs在面对Q和¬Q时都无法保持一致的立场。相比之下,在包含通用领域双重逻辑数据的IFT♣设置下,LLM能够保持一致的立场,即它同意Q并不同意¬Q。

6 结论与未来工作

在我们的研究中,我们引入了LLMs的双重逻辑能力这一概念。我们的分析强调了在私有化过程中评估它们的双重逻辑能力的重要性,这一方面在先前的研究中经常被忽视。通过我们在医学领域的数据密集型分析,我们证明LLMs可以从通用领域的双重逻辑数据中泛化出双重逻辑能力。此外,我们构建的数据集可以为未来研究探索私有化过程中LLMs的双重逻辑能力提供一个基准,我们的工作为现实世界应用中的私有化努力提供了宝贵的指导。在未来工作中,我们建议基于我们的数据集,进一步研究其他因素,如训练策略和参数空间,对LLMs在私有化过程中双重逻辑能力的影响。

7 局限性

• 我们的医学数据集的预训练语料库规模较小,受多种因素影响。首先,由于权限限制,我们无法访问HowNet上的全文文献,因此只能使用文献摘要作为我们的训练语料库。此外,私有化过程总是追求高效率和资源节约,使得构建大规模预训练语料库与这些目标相悖。然而,重要的是要认识到,扩大预训练语料库的大小可能会产生不同的实验结果。

• 在探索LLMs的双重逻辑能力时,我们只应用了三种操作,并且专门关注立场检测的任务形式。这为未来的研究提出了两个重要考虑因素。首先,可以考虑将更多操作整合到构建双重逻辑数据中。其次,探索基于其他任务形式的双重逻辑数据构建也是非常有价值的。

8 伦理声明

对于我们的工作,我们确保构建的数据集不包含任何可能侵犯个人隐私或造成伤害的内容。我们的标注团队不仅接受专业培训,还严格遵守声明,以维护ACL标准。此外,在我们的工作中,我们使用了从2023年11月15日到2023年11月30日的ChatGPT API接口。我们的实验是在开源LLMs上进行的,我们已从负责维护它们的作者那里获得了明确的授权。

图片

图9:基于Huozi2的真实案例研究。

如何学习大模型

现在社会上大模型越来越普及了,已经有很多人都想往这里面扎,但是却找不到适合的方法去学习。

作为一名资深码农,初入大模型时也吃了很多亏,踩了无数坑。现在我想把我的经验和知识分享给你们,帮助你们学习AI大模型,能够解决你们学习中的困难。

我已将重要的AI大模型资料包括市面上AI大模型各大白皮书、AGI大模型系统学习路线、AI大模型视频教程、实战学习,等录播视频免费分享出来,需要的小伙伴可以扫取。

一、AGI大模型系统学习路线

很多人学习大模型的时候没有方向,东学一点西学一点,像只无头苍蝇乱撞,我下面分享的这个学习路线希望能够帮助到你们学习AI大模型。

在这里插入图片描述

二、AI大模型视频教程

在这里插入图片描述

三、AI大模型各大学习书籍

在这里插入图片描述

四、AI大模型各大场景实战案例

在这里插入图片描述

五、结束语

学习AI大模型是当前科技发展的趋势,它不仅能够为我们提供更多的机会和挑战,还能够让我们更好地理解和应用人工智能技术。通过学习AI大模型,我们可以深入了解深度学习、神经网络等核心概念,并将其应用于自然语言处理、计算机视觉、语音识别等领域。同时,掌握AI大模型还能够为我们的职业发展增添竞争力,成为未来技术领域的领导者。

再者,学习AI大模型也能为我们自己创造更多的价值,提供更多的岗位以及副业创收,让自己的生活更上一层楼。

因此,学习AI大模型是一项有前景且值得投入的时间和精力的重要选择。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2044675.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

智能楼宇控制系统的革新——M31系列分布式IO模块

随着物联网技术的飞速发展,智能楼宇控制系统正逐渐成为现代建筑的标配。它不仅能够提高建筑的能源效率,还能提升用户的生活品质和舒适度。在这样的背景下,分布式IO模块作为智能楼宇控制系统的核心组成部分,发挥着至关重要的作用。…

深度学习9--目标检测

1.概念介绍 目标检测不仅可以检测数字,而且可以检测动物的种类、汽车的种类等。例如,自动驾驶车辆需要自动识别前方物体是车辆还是行人,需要自动识别道路两 旁的指示牌和前方的红绿灯颜色。对于自动检测的算法,有两个要求&#xf…

聊聊场景及场景测试

在我们进行测试过程中,有一种黑盒测试叫场景测试,我们完全是从用户的角度去理解系统,从而可以挖掘用户的隐含需求。 场景是指用户会使用这个系统来完成预定目标的所有情况的集合。 场景本身也代表了用户的需求,所以我们可以认为…

项目管理工具的秘密:如何选出最佳系统

国内外主流的 10 款project项目管理系统对比:PingCode、Worktile、用友、泛微、蓝凌、Zoho Projects、Asana、Trello、Basecamp、Jira。 在寻找合适的项目管理系统时,你是否感到选择众多、功能复杂让人难以抉择?这正是许多项目经理面临的痛点…

计算机毕业设计选题推荐-个性化智能学习系统-Java/Python项目实战

✨作者主页:IT研究室✨ 个人简介:曾从事计算机专业培训教学,擅长Java、Python、微信小程序、Golang、安卓Android等项目实战。接项目定制开发、代码讲解、答辩教学、文档编写、降重等。 ☑文末获取源码☑ 精彩专栏推荐⬇⬇⬇ Java项目 Python…

MySQL架构与数据库基础

文章目录 一、数据库概念二、数据库的简单概念三、SQL四、MySQL架构 一、数据库概念 数据库是一个以某种由组织的方式存储的数据集合。我们可以把数据库想象称为一个文件柜。此文件柜是一个存放数据的物理位置,不管数据是什么以及如何组织的。数据库本质也需要像文…

C++-类与对象(上篇)

一、目标: 1. 面向过程和面向对象初步认识 2. 类的引入 3. 类的定义 4. 类的访问限定符及封装 5. 类的作用域 6. 类的实例化 7. 类的对象大小的计算 8. 类成员函数的 this 指针 二、对类与对象的介绍: 1.面向过程和面向对象初步认识 &#xff1a…

调用FluentUI中的折线图散点图等

文章目录 0.文章介绍1.源码位置2.线性图:基础版本2.1效果图2.2代码 3.线形图:封装版本3.1 效果图3.2 代码 0.文章介绍 调用项目FluentUI中的散点图、折线图组件,做定制化改进。 项目FluentUI源码位置:https://github.com/zhuzich…

手把手教你SpringBoot项目将Swagger升级3.0详解

SpringBoot项目将Swagger升级3.0 前言 这阵子观察到Swagger官方已经升级到了3.0的版本,想着升级体验一下最新的版本 新特性 移除了2.x版本的冲突版本,移除了guava等移除了EnableSwagger2新增了springfox-boot-starter… 引入依赖 新版本中&#xf…

三十八、【人工智能】【机器学习】【监督贝叶斯网络(Bayesian Networks)学习】- 算法模型

系列文章目录 第一章 【机器学习】初识机器学习 第二章 【机器学习】【监督学习】- 逻辑回归算法 (Logistic Regression) 第三章 【机器学习】【监督学习】- 支持向量机 (SVM) 第四章【机器学习】【监督学习】- K-近邻算法 (K-NN) 第五章【机器学习】【监督学习】- 决策树…

数据库-DML语言-数据操作语言

定义 DML是对表中数据进行操作的语言,涉及的关键字:INSERT UPDATE DELETE INSERT:向表中插入新数据的语句UPDATE:修改表中数据的语句DELETE:删除表中数据的语句 准备工作 USE mydb; 使用mydb库 CREATE TABLE person( 创建表personname VARCHAR(30),age INT…

AAAI‘25 今日截稿!SD 核心成员开源比 Midjourney 还强的文生图模型,现已提供一键启动

Midjourney 真的不香了!继 Stable Diffusion 3 于 6 月开源后,Stability AI 前核心成员 Robin Rombach 带领着新团队在本月初推出了 FLUX.1 图像生成模型家族。官方声称 FLUX.1 在多个关键指标上超越了 Midjourney v6.0 和 DALLE 3 等文生图的头部模型&a…

VMware Workstation Pro 安装 Ubuntu Server

这里写目录标题 VMware Workstation Pro 安装 Ubuntu Server1. 启动选项2. 系统语言3. 安装程序升级4. 键盘配置5. 安装类型6. 网卡配置7. 代理配置8. 系统镜像配置9. 硬盘配置10. 账户配置11. Ubuntu Pro 版本12. SSH 服务13. 推荐软件14. 安装成功15. 第一次重启报错16. 登录…

JavaScript调试:console 命令的使用

1、console 命令介绍 console 对象用于 JavaScript 调试。JavaScript 原生中默认是没有 console 对象,这是宿主对象(也就是浏览器)提供的内置对象。 用于访问调试控制台,在不同的浏览器里效果可能不同。 console 对象常见的两个用途&#x…

【计算机操作系统】覆盖与交换

覆盖与交换 覆盖与交换是实现内存空间扩充的技术,虚拟存储技术后续会详细讲解 覆盖技术 为了解决程序大小超过物理内存总和的问题引入了覆盖技术 覆盖技术的思想: 将程序分为多个段(多个模块),常用的段常驻内存&…

Go Kafka 操作详解

Go Kafka 操作详解 引言 Apache Kafka 是一个分布式流处理平台,广泛应用于构建实时数据管道和流应用程序。在 Go 语言中,使用 github.com/IBM/sarama 库可以方便地与 Kafka 进行交互。本文将详细介绍如何使用 Sarama 库在 Go 中实现 Kafka 的生产者和消…

等保测评中的安全需求分析:构建精准的信息安全防护体系

在数字化转型的时代背景下,信息安全成为企业发展的关键因素之一。等保测评,作为我国信息安全等级保护制度的重要组成部分,要求企业进行详细的安全需求分析,以构建精准、有效的信息安全防护体系。本文旨在探讨等保测评中的安全需求…

基于SpringBoot+VUE的在线视频教育平台(源码+文档+部署

主要内容:Java项目、Python项目、前端项目、PHP、ASP.NET、人工智能与大数据、单片机开发、物联网设计与开发设计、简历模板、学习资料、面试题库、技术互助、就业指导等 业务范围:免费功能设计、开题报告、任务书、中期检查PPT、系统功能实现、代码编写…

TQX310光口自环检测

本历程实现X310的光口自环测试,以及查看眼图。需要准备板卡以及好烧写的文件,文件在文档末尾的连接中提供。 X310连接好JTAG与电源线,在MGT x4口插入光口自环模块,并开机。 打开vivado,打开硬件管理器,会识…

Kubernetes—k8s集群存储卷(pvc存储卷)

目录 一、PVC 和 PV 1.PV 2.PVC 3.StorageClass 4.PV和PVC的生命周期 二、实操 1.创建静态pv 1.配置nfs 2.创建pv 3.创建pvc 4.结合pod,将pv、pvc一起运行 2.创建动态pv 1.上传 2.创建 Service Account,用来管理 NFS Provisioner 在 k8s …