G-EVAL: NLG Evaluation using GPT-4 with Better Human Alignment

news2024/9/24 11:23:45

文章目录

    • 题目
    • 摘要
    • 方法
    • 实验
    • 分析
    • 相关工作
    • 结论

题目

G-EVAL:使用GPT-4进行NLG评估,具有更好的人类一致

在这里插入图片描述

论文地址:https://arxiv.org/abs/2303.16634
项目地址:https://github.com/nlpyang/geval

摘要

    自然语言生成(NLG)系统生成的文本质量难以自动测量。传统的参考指标,如BLEU和ROUGE,已被证明与人类判断的相关性相对较低,特别是对于需要创造力和多样性的任务。最近的研究建议使用大型语言模型(llm)作为NLG评估的无参考指标,其优点是适用于缺乏人类参考的新任务。然而,这些基于LLM的评估器仍然比中等大小的神经评估器具有更低的人类对应性。在这项工作中,我们提出了G-EVAL,这是一个使用具有思维链(CoT)和表单填充范式的大型语言模型的框架,用于评估NLG输出的质量。我们实验了两个生成任务,文本摘要和对话生成。我们发现,以GPT-4为骨干模型的G-EVAL与人类总结任务的Spearman相关性为0.514,大大优于之前的所有方法。我们还建议对基于LLM的评估者的行为进行分析,并强调基于LL,的评估者对LLM生成的文本有偏见的潜在担忧。

    评估自然语言生成系统的质量是一个具有挑战性的问题,大型语言模型可以生成高质量的语言,不同的文本往往难以区分来自人类书写的文本。传统的自动指标,如BLEU、ROUGE 和METEOR被广泛使用但它们与人类判断的相关性相对较低,特别是对于开放式生成任务。此外,这些指标需要相关的参考输出,为新任务收集这些输出的成本很高。最近的研究建议直接使用llm作为无参考NLG评估器。我们的想法是使用LLM在没有任何参考目标的情况下,根据候选输出的生成概率对其进行评分,假设LLM已经学会了为高质量和流畅的文本分配更高的概率。然而,使用llm作为NLG评估器的效度和信度尚未得到系统的研究。此外,元评价表明,这些基于LLM的评估器与中等规模的神经评估器相比,人类的对应程度仍然较低。因此,需要一个更有效和可靠的框架来使用llm进行NLG评估。

    在本文中,我们提出了G-EVAL,这是一个使用具有思维链(CoT)的LLM的框架,用于评估表单填充范式中生成文本的质量。通过只提供任务介绍和评估标准作为提示,我们要求LLM生成详细评估步骤的CoT。然后,我们使用提示符和生成的CoT来评估NLG输出。计算器输出被格式化为表单。此外,输出评级令牌的概率可用于改进最终指标。我们在两个NLG任务:文本摘要和对话生成的三个元评价基准上进行了广泛的实验。结果表明,在与人类评价的相关性方面,G-EVAL可以大大优于现有的NLG评价器。最后,我们对基于LLM的评估者的行为进行了分析,并强调了基于LLM的评估者对LLM生成的文本存在偏见的潜在问题。

在这里插入图片描述

    G-EVAL的总体框架。我们首先向LLM输入任务介绍和评估标准,并要求它生成详细评估步骤的CoT。然后,我们使用提示和生成的CoT来评估表单填充范式中的NLG输出。最后,我们使用输出分数的概率加权和作为最终分数。

    综上所述,本文的主要贡献有:

  1. 在与人类质量判断的相关性方面,基于LLM的度量标准通常优于基于参考和无参考的基线度量标准,特别是对于开放式和创造性的NLG任务,例如对话响应生成。
  2. 基于llm的度量对指令和提示很敏感,并且思维链可以通过提供更多的上下文和指导来提高基于llm的评估者的性能。
  3. 基于llm的度量可以通过各自的令牌概率重新加权离散分数来提供更细粒度的连续分数。
  4. 基于LLM的指标有一个潜在的问题,即更喜欢LLM生成的文本而不是人类编写的文本,如果基于LLM的指标被用作自我改进的奖励信号,这可能会导致LLM的自我强化

方法

    G-EVAL 是一个基于提示的评估器,包含三个主要组件:

  1. 包含评估任务定义和所需评估标准的提示
  2. 思路链 (CoT),即 LLM 生成的一组中间指令,描述详细的评估步骤
  3. 评分函数,调用 LLM 并根据返回标记的概率计算分数。

NLG 评估提示提示是一种自然语言指令,用于定义评估任务和所需的评估标准。例如,对于文本摘要,提示可以是:您将获得一份为新闻文章撰写的摘要。您的任务是根据一个指标对摘要进行评分。请确保您仔细阅读并理解这些说明。请在审阅时保持此文档打开,并在需要时参考。

    提示还应包含针对不同 NLG 任务的定制评估标准,例如连贯性、简洁性或语法。例如,为了评估文本摘要中的连贯性,我们在提示中添加了以下内容:评估标准:连贯性(1-5)- 所有句子的总体质量。我们将此维度与 DUC 的结构和连贯性质量问题保持一致,即“摘要应该结构良好且组织良好。摘要不应该只是一堆相关信息,而应该从一个句子构建到另一个句子,形成关于某个主题的连贯信息。”用于 NLG 评估的自动思路链思路链 (CoT) 是 LLM 在文本生成过程中生成的一系列中间表示。对于评估任务,有些标准需要比简单定义更详细的评估说明,而为每个任务手动设计这样的评估步骤非常耗时。我们发现 LLM 可以自行生成这样的评估步骤。 CoT 可以为 LLM 评估生成的文本提供更多的上下文和指导,也可以帮助解释评估过程和结果。例如,为了评估文本摘要中的连贯性,我们在提示中添加一行“评估步骤:”,让 LLM 自动生成以下 CoT:

  1. 仔细阅读新闻文章,找出主要话题和关键点。
  2. 阅读摘要并将其与新闻文章进行比较。检查摘要是否涵盖了新闻文章的主要话题和关键点,以及是否以清晰和合乎逻辑的顺序呈现它们。
  3. 根据评估标准,按 1 到 5 的等级为连贯性分配分数,其中 1 为最低,5 为最高。

    评分函数评分函数使用设计的提示、自动 CoT、输入上下文和需要评估的目标文本调用 LLM。与使用生成目标文本的条件概率作为评估指标的 GPTScore (Fu et al, 2023) 不同,G-EVAL 直接使用填表范式执行评估任务。例如,为了评估文本摘要中的连贯性,我们将提示、CoT、新闻文章和摘要连接起来,然后调用 LLM 根据定义的标准为每个评估方面输出 1 到 5 的分数。但是,我们注意到这种直接评分函数有两个问题:对于某些评估任务,一个数字通常主导分数的分布,例如 1 - 5 范围内的 3。这可能导致分数的方差小,与人类判断的相关性低。LLM 通常只输出整数分数,即使提示明确要求小数值。这导致评估分数中出现许多平局,无法捕捉到生成的文本之间的细微差别。

    为了解决这些问题,我们建议使用 LLM 输出标记的概率来规范化分数,并将它们加权求和作为最终结果。形式化地,给定提示中预先定义的一组分数(比如从 1 到 5)S = {s1, s2, …, sn},每个分数的概率 p(si) 由 LLM 计算,最终分数为: 在这里插入图片描述该方法获得更细粒度、连续的分数,可以更好地反映生成文本的质量和多样性。

实验

    我们在三个基准 SummEval、Topical-Chat 和 QAGS 上对我们的评估器进行了元评估,这三个基准分别针对两个 NLG 任务,即摘要和对话响应生成。我们使用 OpenAI 的 GPT 系列作为我们的 LLM,包括 GPT-3.5 (text-davinci-003) 和 GPT-4。对于 GPT-3.5,我们将解码温度设置为 0 以增加模型的确定性。对于 GPT-4,由于它不支持输出 token 概率,我们设置“n = 20、temperature = 1、top p = 1”以采样 20 次来估计 token 概率。我们使用 G-EVAL-4 来表示 G-EVAL 与 GPT-4作为骨干模型,G-EVAL-3.5 表示以 GPT-3.5 为骨干模型的 G-EVAL。
在这里插入图片描述

    表 1:SummEval 基准上不同指标的汇总级 Spearman (ρ) 和 Kendall-Tau (τ) 相关性。不带概率的 G-EVAL(斜体)不应被视为与 τ 上的其他指标的公平比较,因为它会导致得分出现许多平局。这会导致更高的 Kendall-Tau 相关性,但不能公平地反映真实的评估能力。

    我们采用三个元评估基准来衡量 G-EVAL 与人类判断之间的相关性。 SummEval 是一个比较不同摘要评估方法的基准。它对每个摘要的四个方面给出人工评分:流畅性、连贯性、一致性和相关性。 它建立在 CNN/DailyMail 数据集上。Topical-Chat是一个试验台,用于对使用知识的对话响应生成系统的不同评估者进行元评估。我们遵循在四个方面使用其人工评分:自然性、连贯性、参与度和扎实性。 QAGS 是评估摘要任务中幻觉的基准。旨在测量两个不同摘要数据集上摘要的一致性维度。

    我们将 G-EVAL 与各种取得最佳性能的评估器进行比较。BERTScore 根据 BERT的上下文嵌入来测量两个文本之间的相似性。MoverScore 通过添加软对齐和新聚合方法来改进 BERTScore,以获得更稳健的相似度度量。BARTScore是一个统一的评估器,它使用预训练的编码器-解码器模型 BART 的平均似然进行评估。它可以根据源和目标的格式预测不同的分数。FactCC 和 QAGS 是两个用于衡量生成摘要的事实一致性的评估器。FactCC 是一个基于 BERT 的分类器,可预测摘要是否与源文档一致。QAGS 是一个基于问答的评估器,它从摘要中生成问题并检查是否可以在源文档中找到答案。USR 是一种从不同角度评估对话响应生成的评估器。它有多个版本,为每个目标响应分配不同的分数。UniEval是一个统一的评估器,可以评估文本生成的不同方面评估任务作为问答任务。它使用预训练的 T5 模型将评估任务、源文本和目标文本编码为问题和答案,然后计算 QA 分数作为评估分数。它还可以通过更改问题格式来处理不同的评估任务。

    GPTScore 是一个使用 GPT-3 等生成式预训练模型评估文本的新框架。它假设生成式预训练模型将根据给定的指令和上下文分配更高的高质量生成文本概率。与 G-EVAL 不同,GPTScore 将评估任务表述为条件生成问题而不是填表问题。使用摘要级 Spearman 和 Kendall-Tau 相关性评估不同的摘要指标。表 1 的第一部分显示了比较模型输出和参考文本之间的语义相似度的指标结果。这些指标在大多数维度上表现不佳。第二部分显示了使用神经网络从人类对摘要质量的评分中学习的指标结果。这些指标的相关性比基于相似度的指标高得多,表明它们对于摘要评估更可靠。在表 1 的最后一部分对应于基于 GPT 的评估器,GPTScore 也使用 GPT 来评估摘要文本,但依赖于 GPT 对给定目标的条件概率。G-EVAL 在 SummEval 基准上大大超越了所有以前最先进的评估器。与 G-EVAL-3.5 相比,G-EVAL-4 在 Spearman 和 Kendall-Tau 相关性上实现了更高的人类对应性,这表明 GPT-4 的较大模型尺寸有利于摘要评估。 G-EVAL 在多个维度上也优于 GPTScore,证明了简单填表范式的有效性。我们使用Topical-chat 基准来衡量不同评估者对对话响应质量的评分与人类评分的一致性。我们计算对话每一轮的 Pearson 和 Spearman 相关性。表 2 显示基于相似度的指标与人类具有良好的一致性在回答的吸引力和扎实程度上,UniEval 的预测结果在各个方面都与人类判断最为一致。

    如上一节所示,G-EVAL 在 Topical-Chat 基准上也大幅超越了之前所有最先进的评估器。值得注意的是,G-EVAL-3.5 可以取得与 G-EVAL-4 相似的结果。这表明这个基准对 G-EVAL 模型来说相对容易。高级 NLG 模型经常会产生与上下文输入不匹配的文本,最近的研究发现,即使是强大的 LLM 也存在幻觉问题。这促使最近的研究设计评估器来衡量摘要中的一致性方面。我们测试了 QAGS 元评估基准,其中包括两个不同的摘要数据集:CNN/DailyMail 和 XSum,BARTScore 在更具提取性的子集(QAGS-CNN)上表现良好,但在更具抽象性的子集(QAGS-Xsum)上的相关性较低。UniEval 在两个数据子集上都具有良好的相关性。平均而言,G-EVAL-4 在 QAGS 上的表现优于所有最先进的评估器,在 QAGS-Xsum 上的优势较大。另一方面,G-EVAL-3.5 在这个基准上表现不佳,这表明一致性方面对 LLM 的容量很敏感。这个结果与表 1 一致。

分析

    G-EVAL 会更喜欢基于 LLM 的输出吗?使用 LLM 作为评估器的一个担忧是,它可能更喜欢 LLM 本身生成的输出,而不是高质量的人工编写的文本。为了研究这个问题,我们对摘要任务进行了一项实验,我们比较了 LLM 生成的摘要和人工编写的摘要的评估分数。他们首先要求自由撰稿人为新闻文章撰写高质量的摘要,然后要求注释者比较人工编写的摘要和 LLM 生成的摘要(使用 GPT-3.5、text-davinci-003) 。

在这里插入图片描述

    数据集可分为三类:1)人类评委评分高于 GPT-3.5 摘要的人类编写摘要,2)人类评委评分低于 GPT-3.5 摘要的人类编写摘要,3)人类评委对人类编写摘要和 GPT-3.5 摘要的评分同样好。我们使用 GEVAL-4 评估每个类别中的摘要,并比较平均分数。2 结果如图 2 所示。我们可以看到,当人类评委也更喜欢人类编写的摘要时,G-EVAL-4 会给人类编写的摘要更高的分数,而当人类评委更喜欢 GPT-3.5 摘要时,它会给出较低的分数。然而,即使人类评委更喜欢人类编写的摘要,G-EVAL-4 总是给 GPT-3.5 摘要比人类编写的摘要更高的分数。我们提出了造成这种现象的两个潜在原因:1. 高质量系统的 NLG 输出本质上很难评估。原始论文的作者发现,在判断人工编写和 LLM 生成的摘要时,注释者之间的一致性非常低,Krippendorff 的 alpha 为 0.07。

    G-EVAL 可能对 LLM 生成的摘要有偏见,因为该模型在生成和评估过程中可以共享相同的评估标准概念。我们的工作应该被视为对这个问题的初步研究,需要更多的研究来充分理解基于 LLM 的行为评估者减少其对 LLM 生成文本的固有偏见。我们强调这种担忧,因为如果评估分数被用作进一步调整的奖励信号,基于 LLM 的评估器可能会导致 LLM 的自我强化。这可能会导致 LLM 过度拟合它们自己的评估标准,而不是 NLG 任务的真正评估标准。思路链的影响我们比较了有和没有思路链 (CoT) 的 G-EVAL 在 SummEval 基准上的性能。表 1 显示,在所有维度上,带有 CoT 的 G-EVAL-4 都比没有 CoT 的 G-EVAL-4 具有更高的相关性,尤其是在流畅性方面。这表明 CoT 可以为 LLM 评估生成的文本提供更多的背景和指导,也可以帮助解释评估过程和结果。概率归一化的影响我们比较了有和没有概率归一化的 G-EVAL 在 SummEval 基准上的性能。表 1 显示,在 KendallTau 相关性上,G-EVAL-4 的概率为在SummEval上不如没有概率的G-EVAL-4。我们认为这与Kendall-Tau相关性的计算有关,该相关性基于一致和不一致对的数量。没有概率的直接评分会导致许多平局,这些平局既不被视为一致也不被视为不一致。这可能会导致更高的Kendall-Tau相关性,但不能反映模型评估生成文本的真实能力。另一方面,概率归一化可以获得更细粒度、连续的分数,更好地捕捉生成文本之间的细微差别。这反映在有概率的G-EVAL-4具有更高的Spearman相关性,该相关性基于分数的排序。 我们比较了不同模型大小的G-EVAL在SummEval和QAGS基准上的性能。表 1 和表 3 显示,除了 Topical-Chat 基准上的参与度和接地气性之外,G-EVAL-4 在大多数维度和数据集上的相关性都高于 G-EVAL-3.5。 这表明,更大的模型尺寸可以提高 G-EVAL 的性能,特别是对于更具挑战性和更复杂的评估任务,例如一致性和相关性。
在这里插入图片描述

相关工作

    基于 Ngram 的指标基于 Ngram 的指标是指通过测量生成文本和参考文本之间的词汇重叠来评估 NLG 模型的分数。BLEU是机器翻译评估中最广泛使用的指标,它计算修改后的 n-gram 精度和简洁性的几何平均值惩罚。ROUGE 是一种面向召回率的摘要评估指标,它测量生成的摘要和一组参考摘要之间的 n-gram 重叠度。研究表明,最近 60% 以上的 NLG 论文仅依靠 ROUGE 或 BLEU 来评估他们的系统。然而,这些指标无法衡量内容质量或捕获句法错误,因此不能准确反映 NLG 系统的可靠性。基于嵌入的指标基于嵌入的指标是指通过基于单词或句子嵌入测量生成的文本和参考文本之间的语义相似性来评估 NLG 模型的分数。WMD是一种基于词嵌入测量两个文本之间距离的指标。

    BERTScore基于 BERT的上下文嵌入来测量两个文本之间的相似性。MoverScore 通过添加软对齐和新的聚合方法来改进BERTScore,以获得更稳健的相似度度量。提出了一种指标,通过基于句子嵌入计算生成的文本和参考文本之间的相似度来评估多句文本。任务特定的评估器任务特定的指标是指通过根据特定任务要求衡量生成文本的质量来评估 NLG 模型的分数。例如,摘要任务需要评估生成的摘要的一致性,maries和对话响应生成任务需要评估生成的响应的连贯性。但是,这些指标不能推广到其他 NLG 任务,并且它们无法衡量生成文本的整体质量。

    统一评估器最近,已经开发了一些评估器,通过改变输入和输出内容或它们使用的模型变体从多个维度评估文本质量。UniEval 是一个统一的评估器,可以将文本生成的不同方面作为 QA 任务进行评估。通过改变问题格式,它可以处理不同的评估任务。基于LLM的评估器提出了GPTScore,这是一个使用生成式预训练模型(如GPT-3)评估文本的新框架。它假设生成式预训练模型将按照给定的指令和上下文分配更高的高质量生成文本概率。对使用ChatGPT作为NLG评估器进行了初步调查。提出使用GPT模型来评估机器翻译任务。

结论

    在本文中,我们提出了G-EVAL,这是一个使用带有思路链(CoT)的LLM来评估生成文本质量的框架。我们对两个NLG任务,文本摘要和对话生成进行了广泛的实验,并表明G-EVAL可以胜过最先进的评估器并实现更高的人机对应性。我们还提出了对 LLM 评估者行为的初步分析,并强调了 LLM 评估者对 LLM 生成的文本存在偏见的潜在问题。我们希望我们的工作能够激发更多关于使用 LLM 进行 NLG 评估的研究,并提高人们对使用 LLM 作为评估者的潜在风险和挑战的认识。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1971619.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

网站开发涉及到的技术内容介绍——前端

一、网站开发涉及前后端交互模式 一般来说网站项目分为两种【前后端不分离、前后端分离】,其中前后端不分离的项目是(后端语言可以直接与前端的html等内容糅合在一起,后端语言可以操作数据进行动态渲染前端的html文件进行展示)。后端分离的项目是(后端语言不会直接对前端的…

c++| c++11左右值引用,完美转发,可变参数模板

c| c11的新特性 左,右值引用什么是左值,右值左值引用和右值引用右值引用解决什么问题呢?移动构造万能引用形式 完美转发格式 lambada表达式格式 可变参数模板可变参数模板实现打印不同类型emplace_push以list的emplace_back的实现举例 左&…

掌握 HTTP 请求的艺术:理解 cURL GET 语法

在 Web 开发和服务器通信领域,掌握 HTTP 请求对于寻求有效与 Web 服务和 API 交互的开发人员至关重要。在众多可用于发出 HTTP 请求的工具中,cURL 脱颖而出,成为全球开发人员信赖的强大且多功能的命令行工具。在这篇博文中,我们将…

MySQL分组查询有关知识总结

目录 4. 分组查询(group by) 4.1 概述 4.2 分组函数 4.2.1 单个使用 4.2.2 组合使用 4.2.3 注意! 4.3 group by 4.3.1 单个字段 4.3.2 多个字段 4.3.3 提醒! 4.4 having 4.5 分组查询演示 4. 分组查询(…

海外仓怎么入局?货代还有发展的空间吗?

很多货代小伙伴可能都有一个疑惑:海外仓虽然火爆,但是怎么入局呢?显然,自建海外仓的试错代价太高了,成本高、选址难、管理起来更是一地鸡毛。既然无法自建,那转换赛道,管理别人的仓库&#xff0…

iOS面试之属性关键字(二):常见面试题

Q:ARC下,不显式指定任何属性关键字时,默认的关键字都有哪些? 对应基本数据类型默认关键字是:atomic,readwrite,assign 对于普通的 Objective-C 对象:atomic,readwrite,strong Q:atomic 修饰的属性是怎么样保存线程安全的&#x…

如何将本地下载的切片电影进行合成一个视频

合成后的时长1:41 没有合成前是50个电影切片 注明:电影切片不是真实的切片名称而是自定义从0-50的数字 import requests # with open("电影.m3u8","r") as f: # n0 # for line in f: # if line.startswith("#"): …

SpringBoot项目如何安装Selenium自动化(详解)

目录 一、打开intellij idea,创建Maven项目 二、添加依赖 三、在Test路径下创建自动化文件 3.1 项目结构 3.2 代码 四、运行自动化 前言: java版本最低要求为8。电脑至少已安装一种浏览器,如:Chrome(推荐)、…

十日Python项目——第五日(商品数据)

#前言: 在最近十天我会用Python做一个购物类项目,会用到DjangoMysqlRedisVue等。 今天是第五天,主要负责撰写响应具体的商品数据。若是有不懂大家可以先阅读我的前四篇博客以能够顺承。 若是大家基础有不懂的,小编前面已经关于…

RJ45空包弹网口描述与应用

RJ45空包弹网口,通常指的是RJ45接口的空芯线缆(通常称为“空包”)和相应的连接器。这种线缆和连接器组合常用于网络布线中,特别是在需要将网络信号从一端传输到另一端,同时保持信号完整性和隔离性的场合。 描述&#…

C++初阶:list的使用和模拟实现

关于list可以先看一下这个文档:list文档 一.list的介绍和使用 1.1 list的介绍 list实际上就是链表,是带头双向循环链表。 1.2 list的使用 list的使用跟我们以前用C语言实现时的一样。push,pop,insert等等。 1.2.1list的构造 …

【从零开始一步步学习VSOA开发】开发环境搭建

开发环境搭建 开发 VSOA 首先需要搭建开发环境,这里讲解 Windows 下 C/C 开发环境搭建方法。 下载 IDE 并申请授权码 SylixOS 的开发和部署需要 RealEvo-IDE 的支持,因此您需要先获取 RealEvo-IDE 的安装包和注册码。 RealEvo-IDE 分为体验版和商业版…

简单的 微服务netflix 学习

简单的 微服务netflix 学习 一.Eureka 学习 1. 服务简单搭建 1.1 首先确定pom文件 <?xml version"1.0" encoding"UTF-8"?> <project xmlns"http://maven.apache.org/POM/4.0.0"xmlns:xsi"http://www.w3.org/2001/XMLSchema-…

FPGA入门系列:计数器

目录 微信公众号获取更多FPGA相关源码&#xff0c;且微信公众号为首发&#xff0c;第一时间获取最新文章&#xff1a; 计数器是一种典型的时序器件&#xff0c;常用于对时钟脉冲的个数进行计数&#xff0c;还用于定时、分频、产生同步脉冲等 按触发方式分&#xff1a;同步计数…

国内SSL证书颁发机构哪家服务更优质?

SSL证书作为保障网站数据传输安全的关键工具&#xff0c;其重要性不言而喻。选择一个可靠的SSL证书代理商&#xff0c;不仅能够提供多样化的证书类型&#xff0c;而且能在众多品牌中进行比较&#xff0c;选择最适合自己的、性价比更高的产品。此外&#xff0c;优质的代理商还能…

JAVA项目基于Spring Boot的多媒体素材库

目录 一、前言 二、技术介绍 三、项目实现流程 四、论文流程参考 五、核心代码截图 专注于大学生实战开发、讲解和毕业答疑等辅导&#xff0c;获取源码后台 一、前言 信息化管理时代已至&#xff0c;计算机与互联网技术深度融合于生活点滴。本系统源于对用户需求的深刻洞…

Spark学习之SaprkCore

FlinkCore 1、JavaAPI 1、创建一个Topic并写入数据 向Kafka写数据 如果topic不存在则会自动创建一个副本和分区数都是1的topic package com.shujia.kafka;import org.apache.kafka.clients.producer.KafkaProducer; import org.apache.kafka.clients.producer.ProducerRecord…

JAVASpring学习Day2

面向切面编程 (AOP) 面向切面编程是一种编程范式&#xff0c;用于在程序中分离关注点&#xff0c;例如日志记录、事务管理和安全性。它主要由以下几个关键组成部分构成&#xff1a; 连接点 (Join Point)&#xff1a;在程序执行过程中可以插入切面的点&#xff0c;通常是方法的…

I2C 设备驱动编写流程

提示&#xff1a;文章写完后&#xff0c;目录可以自动生成&#xff0c;如何生成可参考右边的帮助文档 文章目录 前言一、修改设备树1、 IO 修改或添加2、在 i2c1 节点追加 ap3216c 子节点3、查看设备树节点创建是否成功 二、AP3216C 驱动编写 前言 提示&#xff1a;这里可以添…

9.11 与 9.9 哪个大? 大模型幻觉从何而来?用最通俗的例子讲清楚大模型原理。

​如下图&#xff0c;我们使用用 gpt-4-turbo 模型为例&#xff0c;问9.11 与 9.9 哪个大&#xff0c;并让他一步一步给出分析步骤。你会发现&#xff0c;它开始了胡说八道&#xff0c;这就是“大模型幻觉” 。 那么问题来了&#xff0c;为什么会出现这种结果&#xff1f;幻觉从…