奖励建模(Reward Modeling)实现人类对智能体的反馈

news2024/10/24 22:18:58

       奖励建模(Reward Modeling)是强化学习中的一个重要概念和技术,它主要用于训练智能体(如AI机器人或大型语言模型)如何更有效地学习和遵循人类期望的行为。在强化学习环境中,智能体通过尝试不同的行为获得环境给予的奖励信号,以此来调整自己的行为策略以最大化累积奖励。

前言:

      人类对智能体(例如大语言模型)的反馈,可以通过奖励建模(Reinforcement Learning with Human Feedback,RLHF)技术得以有效利用。

       在RLHF框架下,智能体(AI系统)尝试通过执行动作来最大化从环境中得到的奖励。对于大语言模型而言,它的“动作”就是生成的文本响应,而“环境”则包括了与之交互的人类用户以及由用户提供的反馈机制。

       具体实现上,包含以下步骤:

  1. 收集人类反馈:首先,会从初始的大语言模型生成一系列文本响应。这些响应会被呈现给人类评估员,他们根据预设的标准(比如准确性、有用性、道德规范等)给每个响应打分或分类,形成反馈数据。

  2. 构建奖励模型:基于收集到的人类反馈数据,训练一个奖励模型,该模型能够预测任意给定文本响应应当获得的奖励值(或者说分数)。这一步的核心是让机器学习如何模拟人类对文本质量的判断。

  3. 强化学习阶段:使用强化学习算法(如PPO、SAC等),把大语言模型看作智能体,通过与奖励模型的互动进行微调。智能体会根据从奖励模型获取的奖励信号调整自身策略,也就是改变其生成文本的方式,以便在未来生成的文本能更有可能获得更高的奖励。

       通过这种方式,大语言模型能够在更大程度上满足人类的期望,提高生成内容的质量、准确性和合乎社会规范的程度。同时,这种方法也体现了AI系统与人类价值观和偏好之间的重要联系与融合。

1.奖励建模(Reward Modeling)

       奖励建模(Reward Modeling)是一种在强化学习(Reinforcement Learning, RL)框架下,通过学习和优化奖励函数(Reward Function)来引导智能体学习符合人类期望行为的方法。在标准强化学习中,智能体通过与环境互动并根据接收到的奖励信号调整策略,以求最大化累积奖励。然而,直接定义一个完整的、能够覆盖所有可能状态和行为的精确奖励函数在很多复杂场景下是非常困难甚至是不可能的。

       在很多复杂的现实世界场景中,直接构建一个能够覆盖所有可能状态和行为并给出精确奖励的函数极具挑战性,甚至是不可能的。这是因为:

  1. 状态空间的巨大:复杂环境通常拥有极高维度的状态空间,试图为每一个可能的状态配置适当的奖励值几乎是不可能的。

  2. 行为空间的复杂性:智能体可能采取的行为种类繁多,不同行为之间的交互效应复杂,很难事先预见到所有行为产生的结果及其应得的奖励。

  3. 动态环境变化:真实世界的环境往往是动态变化的,固定不变的奖励函数可能无法适应环境的变化,导致智能体无法适应新出现的情况。

  4. 伦理道德和主观性:在涉及伦理道德或审美判断等主观因素的场景中,确定一个普适的、公正的奖励函数尤为困难。

奖励建模就是为了应对这些问题而提出的一种解决方案,通过收集人类专家或其他可靠信息源的反馈,学习一个能够更准确地反映人类期望的奖励模型,以此来指导智能体的行为策略。通过这种方式,智能体能够在无法精确定义奖励函数的复杂环境中,更智能、更符合人类价值观地进行学习和决策。

奖励建模的实现步骤

     具体来说,奖励建模通常涉及以下步骤:

  1. 用户反馈收集:收集人类对于智能体在各种情境下的行为反馈,这些反馈可以是明确的评分、偏好表达或者直接指定正误行为。
  2. 奖励模型训练:基于收集到的用户反馈数据训练一个模型,该模型能够预测在给定状态下智能体采取某种行为时应该得到的奖励值。
  3. 策略优化:使用强化学习算法,智能体会依据这个奖励模型来进行策略迭代,目标是最优化长期累积奖励,也就是使智能体的行为越来越符合人类所设定的标准或期望。

       工具增强的奖励建模可能指的是结合外部工具(如计算器、搜索引擎、数据库查询等)来扩展智能体在复杂任务上的表现,特别是在需要精确计算、代码执行或详实知识验证的情况下,通过与这些工具交互,智能体可以获得更高层次的推理能力,从而更好地进行逐步推理并作出更优决策。

 2.大语言模型与奖励建模

       大语言模型(Large Language Models,LLMs)和奖励建模(Reinforcement Learning with Human Feedback,RLHF)是两个相关但不同的概念,在某些高级应用场景中二者可以结合起来。

大语言模型: 大语言模型是一种深度学习模型,主要采用Transformer架构,经过大规模训练,能够理解和生成高质量的自然语言文本。它们学习的是从大量的未标记或标记的文本数据中推断出语言规律和上下文依赖性。典型的例子包括OpenAI的GPT系列、谷歌的T5、阿里云的通义千问等。大语言模型可以直接用于各种下游任务,如文本生成、问答、摘要、翻译等,无需额外的训练步骤。

奖励建模: 奖励建模是强化学习的一种方法,其中智能体(这里指的是大语言模型)的学习过程受到来自环境(通常是人类用户)的明确奖励信号指导。在自然语言处理的背景下,RLHF意味着利用人工标注或者用户反馈来优化大语言模型的行为。具体来说,当大语言模型产生一个输出时,人类会对这个输出的质量给予评价(正向或负向奖励),然后模型通过调整其内部参数以最大化未来获得的预期累积奖励。

结合使用时,大语言模型可以通过奖励建模实现更精细的控制和引导,确保模型在生成内容时遵循伦理规范、提供有用信息且不输出有害或误导性的内容。这一过程通常涉及以下几个步骤:

  1. 初始的大语言模型根据预先训练好的参数生成文本。
  2. 人类评估员对模型生成的文本样本给出评级或打分,作为奖励信号。
  3. 基于这些反馈数据训练一个奖励模型,该模型预测某个输出将获得的奖励值。
  4. 使用强化学习算法,结合原始大语言模型和奖励模型,进行进一步的微调,使得模型在生成新的文本时倾向于产生高分(即高奖励值)的内容。

       通过这种方式,大语言模型不仅能基于已有的大规模数据集进行自我学习,还可以借助于即时的人类反馈来持续改进和适应更广泛的用户需求和社交情境。

       奖励建模在大语言模型(如GPT系列、通义千问等)的训练中有应用,特别是在强化学习训练后期阶段,通过让模型根据从人类反馈中学习到的奖励模型调整输出,以确保模型的回答、行为和生成内容更加符合人类的价值观和期望。这种方法有助于提升模型在复杂、伦理敏感任务上的表现,同时减少有害行为的发生。 

       奖励建模(Reward Modeling)在训练大语言模型时扮演了关键角色,特别是在那些采用强化学习框架进行微调的模型上,如部分GPT系列模型和其他先进的人工智能系统,包括阿里云研发的通义千问。该方法旨在使模型能够模拟和内化人类对于“好”答案、“恰当”行为或“合适”内容的评价标准。

       具体来说,在训练后期,研究人员通常会收集大量的人类标注数据,这些数据代表了对模型生成的各种可能输出的好坏判断。然后,模型通过学习这些带有标签的数据来建立一个奖励模型,这个模型能够预测不同输出得到的人类偏好程度。之后,强化学习算法利用这个奖励模型作为指导信号,促使模型在后续生成过程中趋向于那些被认为更具价值、更符合伦理规范和社会期待的答案或行为。

       通过这样的过程,大语言模型不再仅仅依赖于原始训练数据中的统计规律,而是能够进一步地理解和适应人类社会的复杂性和细微差别,提升了其在实际应用中的表现和信任度。

3.人类反馈与大语言模型

       人类反馈与大语言模型之间的关联体现在自然语言处理和人工智能系统的训练与优化过程中。大语言模型(Large Language Models, LLMs)是经过大规模数据训练得到的复杂神经网络系统,能够生成和理解自然语言。然而,尽管这些模型具有强大的语言处理能力,但初始训练往往是无监督或自我监督的,这意味着它们并不一定完全遵循人类社会的伦理规范、文化习俗或者精确的事实标准。

       为了引导大语言模型生成更加准确、恰当且符合人类价值判断的响应,研究人员引入了基于人类反馈的强化学习(Reinforcement Learning from Human Feedback, RLHF)。在这种方法中:

  1. 数据收集:首先会收集人类对模型输出的反馈数据,这可能包括直接评级、修正后的文本样本或者其他形式的偏好指示。

  2. 奖励模型训练:然后使用这些反馈数据训练一个奖励模型(Reward Model),该模型可以量化某个模型输出的好坏程度,即给出一个奖励分数。

  3. 强化学习微调:接着,大语言模型通过强化学习的方式进行微调,目标是在生成文本时最大化从奖励模型获得的奖励分数。换句话说,模型在生成每个响应时都会尝试预测哪些输出会受到人类更高的评价。

       通过这种方式,大语言模型能够借助人类的智慧和经验,逐步提高其在各种情境下的表现力和可靠性,减少有害或不合适的输出,同时增强其对于复杂语境和道德考量的理解。RLHF的应用已经成为ChatGPT、Bard等先进对话模型的重要训练手段,有效地提高了模型的有用性、诚实性和安全性。

 2.1 人类反馈与奖励建模

       人类反馈与奖励建模在强化学习和人工智能开发中结合,是为了让AI系统更好地模仿和适应人类的期望行为或决策标准。具体而言:

人类反馈

  • 在AI训练过程中,人类反馈是指直接或间接地由人提供的关于AI行为的质量或适当性的评价信息。这可能包括用户对AI生成文本的满意度评分、对智能体动作的赞同或否定,或者更为具体的指导性意见和修正建议。

奖励建模

  • 奖励建模是一种强化学习的方法,它利用人类反馈来创建或优化奖励函数。在强化学习中,智能体通过尝试不同的行为来最大化预期的累积奖励。然而,确定合适的奖励函数(即如何量化每个状态或动作的好坏程度)通常是难题,特别是对于复杂的、难以形式化描述的任务。

结合二者:

  • RLHF(Reinforcement Learning with Human Feedback) 就是一种利用人类反馈来改进奖励模型进而训练智能体的技术。首先,收集大量的带有标签的人类反馈数据,然后利用这些数据训练一个奖励模型,这个模型能够预测在给定状态下智能体行为应该得到的奖励值。
  • 这个奖励模型反映了人类对智能体行为偏好的内在评价标准,智能体则通过强化学习算法(比如Proximal Policy Optimization, PPO)来更新其策略,使其在未来执行的动作更倾向于获得高奖励,即更符合人类的期望和标准。

这样,通过奖励建模,人类反馈得以转化为AI学习过程中的明确指导信号,促使AI智能体在各种应用场景下表现得更加人性化和合理化。在诸如ChatGPT这样的大型语言模型中,RLHF已经被证明是有效改善模型响应质量和遵循社会规范的重要手段。

2.2 人类反馈强化学习(HFRL)和安全可控的强化学习(RLHF)

       在实践上,这种方法已经成功应用于诸如OpenAI的GPT系列模型和其他大型语言模型的训练中,以提高其对人类价值观和意图的理解及响应能力。例如,通过人类反馈强化学习(Human Feedback Reinforcement Learning, HFRL)和安全可控的强化学习(Reinforcement Learning from Human Feedback, RLHF)等技术,模型不仅能学习一般的自然语言任务,还能够在特定的社会交互、伦理约束下行动,更接近理想的人工智能对齐状态。

       人类反馈强化学习(HFRL)和安全可控的强化学习(RLHF)等技术,确实强化了模型在遵循人类价值观和道德规范方面的能力。这些技术的核心理念是将人类反馈纳入强化学习的训练过程中,让模型能够根据真实的、具有主观性的评估标准进行学习和优化。

       在HFRL和RLHF中,人类专家或用户会为模型的行为提供反馈,这些反馈可以是明确的评分、二元偏好比较(哪种行为更好)、或是对模型生成内容的直接修正。模型通过学习这些反馈,调整自身的策略,以便在执行自然语言任务时,不仅追求任务完成度,更能尊重社会规范、遵守伦理要求,以及体现人类普适的价值观。

       例如,在大语言模型的应用中,通过HFRL和RLHF训练的模型,在生成文本、解答问题或进行对话时,能够更好地理解并遵循礼貌原则、避免产生有偏见或冒犯性的内容,从而实现更安全、可靠和人性化的交互,更加接近我们理想中的人工智能对齐状态。这种技术有助于构建更加负责任和可信的人工智能产品和服务。

       人类反馈强化学习(Human Feedback Reinforcement Learning, HFRL)是一种强化学习方法,其中智能体的学习过程受到人类评估或直接反馈的引导。这种方法通常结合了传统的强化学习框架,即智能体通过与环境互动并依据奖励信号调整其行为策略,但它引入了一个额外的环节,即通过收集和整合人类对智能体行为的评价来优化奖励函数或者直接指导智能体学习更优的策略。

       具体到安全可控的强化学习(Reinforcement Learning from Human Feedback, RLHF),这是一种HFRL的特定应用形式,强调在训练过程中确保智能体的行为更加安全、可靠和符合人类价值观。RLHF通常包含几个关键步骤:

  1. 初始阶段,模型基于自我监督学习或其他预训练方式获得基础能力。
  2. 随后,通过让人类评估者对模型生成的输出或行动打分,获取高质量的人类偏好数据。
  3. 这些评分随后被用来作为奖励信号,用于强化学习过程,使得模型在后续迭代中倾向于产生更高分的行为。
  4. 奖励建模在这个框架下扮演着核心角色,因为它涉及到如何从有限的人类反馈中有效地推断出一个连续、全面且能反映人类偏好的奖励函数。

       奖励建模是强化学习中的一个子领域,它关注如何设计和学习奖励函数,这个函数定义了智能体应该追求的目标状态或行为。在RLHF中,奖励建模可能涉及从人类标注数据中提取特征、构建代理奖励函数或学习一个复杂的、能够模拟人类评判标准的模型。

       简而言之,RLHF是一种通过精心设计和实施奖励建模技术,利用人工标注的数据来指导强化学习智能体学习更加贴近人类期望行为的先进方法。这样的方法已经在像ChatGPT这样的大型语言模型中取得了显著成功,提高了它们的沟通质量、适切性和安全性。

2.3 奖励建模、HFRL与RLHF之间的关系

       奖励建模、HFRL(Human Feedback Reinforcement Learning)和RLHF(Reinforcement Learning from Human Feedback)在强化学习的语境中有着密切的关系,它们共同致力于通过人类反馈来优化智能体的学习过程。

  • 奖励建模 (Reward Modeling): 在强化学习中,奖励建模是指设计或学习一个奖励函数,该函数量化了智能体在环境中采取不同行动时的价值。在标准强化学习设置中,奖励通常是事先定义好的,但在某些复杂场景下,特别是当智能体需要模仿或满足人类偏好的时候,直接定义一个完备且恰当的奖励函数非常困难。奖励建模技术则允许我们从有限的人类示例或反馈中学习这个奖励函数,而不是硬编码。

  • HFRL (Human Feedback Reinforcement Learning): HFRL 是一种更广泛的概念,它指的是任何运用人类反馈来改进强化学习算法的技术。这种技术集合了强化学习的基本原则(智能体通过最大化长期累积奖励来学习)和人类专家或用户对智能体行为的评价。HFRL 可以包括多种形式的反馈,如直接的评分、偏好比较或是修正后的动作建议。

  • RLHF (Reinforcement Learning from Human Feedback): RLHF 是 HFRL 的一个具体分支和应用实例,它专门针对如何将人工标注的反馈融入强化学习算法以训练更符合人类预期的智能体。在RLHF中,通常会有一个预训练的模型,然后通过收集人类对模型输出的评价数据来微调模型,这些评价数据被用来构建或修改强化学习中的奖励函数,从而使模型在后续的强化学习迭代中能够更好地适应和模拟人类偏好。

       总结起来,奖励建模是HFRL中的一个关键技术,尤其是在RLHF中,它扮演着至关重要的角色,帮助从人类反馈中构建有效的奖励信号,以此来精确地塑造和指导强化学习智能体的行为策略。       

4. 智能体与大语言模型

智能体(Agent)和大语言模型(Large Language Model,LLM)都是人工智能领域内的概念,它们各自代表了AI的不同应用形态和能力范围。

智能体(Agent)

  • 在人工智能中,智能体通常指的是具有感知环境、做出决策并采取行动以达到特定目标的实体。它可以是软件程序、机器人或其他类型的硬件设备。智能体的核心在于它能自主地适应环境变化并通过学习(如强化学习、监督学习等)不断优化自己的行为策略。例如,在游戏环境中,智能体可能需要学会怎样移动、攻击和防御以获得最高得分。

大语言模型(LLM)

  • 大语言模型是一种深度学习模型,特别指那些经过大规模训练、能够理解和生成自然语言的强大模型,如GPT系列、BERT、T5以及通义千问等。它们通过对海量文本数据集的学习,可以完成多种自然语言处理任务,如文本生成、问答、翻译、摘要、情感分析等。这类模型并不直接作用于物理世界,而是专注于理解和生成语言表达,并且往往不具备像智能体那样的自主行动能力。

尽管两者存在明显区别,但在某些高级应用场景中,智能体与大语言模型可能会结合使用。例如,一个智能体为了与人类进行有效沟通,可能会内嵌一个大语言模型作为其“语言中枢”,用于理解人类指令和生成相应的对话回应。同时,通过强化学习与人类反馈相结合的方式,大语言模型的能力也可以被进一步引导和优化,使其生成的语言输出更加贴合场景需求和人类偏好,从而实现更智能化的行为交互。

 智能体(agent)与奖励建模(Reward Modeling)

       在强化学习环境中,智能体(agent)扮演着积极学习的角色,它不断地探索环境,并通过执行各种动作(actions)来与环境交互。每次智能体执行一个动作后,环境会依据某种预设的或动态的奖励机制(reward mechanism)回馈给智能体一个数值奖励(reward signal),这个奖励通常是正数、负数或零,代表了环境对智能体所采取行动的好坏程度。

       在标准强化学习(RL)中,智能体与环境的交互过程如下:

  1. 智能体观察环境状态(State):智能体首先观察到当前环境的状态,这个状态可以是任何能够描述环境当前状况的信息。

  2. 智能体选择动作(Action):基于所观察到的环境状态,智能体根据其当前的策略(Policy)选择一个动作执行。策略可以理解为智能体在某一状态下选择动作的规律或概率分布。

  3. 执行动作并接收奖励(Reward Signal):智能体执行选定的动作后,环境会根据该动作及其对环境的影响给出一个即时奖励信号。奖励信号通常是一个数值,反映了环境对智能体动作好坏的反馈,正值表示奖励,负值表示惩罚,零值可能表示中性反馈。

  4. 环境状态转移(State Transition):执行动作后,环境会发生相应的变化,进入一个新的状态。智能体接下来将基于这个新的状态再次进行动作选择。

  5. 学习过程:通过不断与环境的交互,智能体依据收到的奖励信号,利用强化学习算法(如Q-learning、Sarsa、Actor-Critic等)更新其策略,以期在长期累积奖励上取得最大化,从而学习到最优策略。

       奖励建模技术则在此基础上进一步优化了智能体学习的过程,特别是在定义和理解复杂的、难以直接量化的奖励信号方面,它通过从人类反馈中学习奖励函数,使得智能体能够更好地适应复杂任务,遵循人类的价值观和期望行为。

       智能体的目标就是通过不断的试错学习,逐步调整和完善自己的行为策略,以便在未来的选择中获得更高的累积奖励(cumulative reward)。这种学习过程通常由强化学习算法(如Q-learning、SARSA、Policy Gradient等方法)实现,它们能帮助智能体在面对复杂环境时找出最优策略,即长期来看能够最大化累计奖励的一系列行为选择规则。

      在奖励建模这一特定技术中,强化学习环境中的奖励函数不再是固定的,而是通过学习来自人类专家或其他指示源的偏好信息来动态构建和优化,使得智能体的学习过程更加贴合人类期望的行为规范。

5.人类反馈与智能体

       人类反馈在智能体的学习和行为优化中起着至关重要的作用,特别是在强化学习(Reinforcement Learning, RL)和基于人类反馈的强化学习(Reinforcement Learning with Human Feedback, RLHF)框架中。智能体(如AI模型或机器人)通过与环境互动并根据接收到的奖励信号调整策略,以达到学习最优行为的目的。当直接定义或量化环境中的奖励函数存在困难时,人类反馈提供了有价值的信息来源。

      在RLHF中,人类反馈用来指导智能体学习什么样的行为是可取的或不可取的。这种反馈可以采取多种形式,如直接的评分、偏好排序、纠正错误的行动或提供具体的修正建议。通过收集和分析这些反馈,研究人员可以构建或调整奖励模型,使得智能体能够从人类的意愿和价值观出发,更准确地学习和模仿人类期望的行为模式。

       具体到大规模语言模型的训练中,人类反馈强化学习使得模型不仅能够按照预定任务进行操作,还能在面临复杂伦理、社会或文化情景时,生成更符合人类社会规范和价值观的文本内容。例如,在生成回复、解答问题或进行创作时,经过人类反馈优化的模型能够避免输出不当或有害的信息,提高了模型的实用性和安全性。

6.人类反馈、智能体与大语言模型

       人类反馈、智能体与大语言模型三者在现代人工智能研究中有着紧密的联系和互动关系,尤其是在提升模型性能和增强智能体行为合理性方面。

  1. 人类反馈

    在训练和优化AI模型时,人类反馈是一种重要的指导信号。特别是在强化学习和迭代式训练过程中,人类可以对模型的输出或智能体的行为进行评价,给予正向或负向反馈,帮助模型更好地学习和适应人类期望的目标状态。例如,在训练大语言模型时,通过人工标注数据、直接评价模型生成的文本质量或通过对比方法让模型学习更接近人类表达习惯的内容。
  2. 智能体(Agent)

    智能体是模拟在某种环境中执行动作并追求特定目标的实体。在集成大语言模型的情况下,智能体可能利用大语言模型作为其内部组件,以实现自然语言理解和生成,从而增强与人类或其他智能体的沟通能力。智能体可以根据接收到的人类反馈调整自身的决策策略或行为模式。
  3. 大语言模型(LLM)

    大语言模型本身是通过大量文本数据训练出来的,能够生成和理解自然语言。当与强化学习结合,即通过人类反馈进行强化学习(Reinforcement Learning with Human Feedback, RLHF)时,大语言模型可以根据反馈不断调整自身参数,使其生成的文本或作出的决策更符合人类规范和社会价值观。

       综上所述,人类反馈作为一种重要的教育资源,可用于指导智能体尤其是其中包含的大语言模型进行学习和改进,进而使得智能体在处理复杂任务时能够更准确地模拟人类智慧,并产生更为人性化和实用的交互效果。在实践中,这种结合已应用于诸如聊天机器人、虚拟助手、自动写作助手等多种场景。

7.人类反馈、智能体、大语言模型与奖励建模      

      人类反馈、智能体、大语言模型以及奖励建模之间存在紧密联系,它们共同构成了现代强化学习在自然语言处理中的一个重要应用框架。

  1. 人类反馈

    在机器学习尤其是强化学习中,人类反馈是指由人提供给AI系统的关于其行为好坏的评估信息。在训练大语言模型时,人类反馈可以用来调整模型的输出,使其更加贴近真实世界中人类期望的行为和反应。
  2. 智能体(Agent)

    在人工智能领域,智能体是一个能够在环境中执行动作并依据反馈学习策略的软件实体。当应用于语言模型时,智能体可以被视为模型本身,它可以生成文本、回答问题或执行其他语言任务,并根据接收到的反馈调整自己的策略。
  3. 大语言模型

    这些模型,比如GPT系列、BERT等,拥有大量的参数和复杂的结构,可以捕捉到语言数据中的丰富模式。它们可以被视作智能体,在强化学习场景下,智能体的“动作”就是生成特定的文本输出。
  4. 奖励建模

    在强化学习中,奖励建模是指建立一个模型来估计智能体在不同状态下采取行动后所获得的奖励值。在大语言模型的背景下,奖励模型可能是基于人类对模型输出的评分或其他形式的偏好信号训练出来的,用于量化模型响应的质量。

结合以上概念,基于人类反馈强化学习(RLHF)的工作流程大致如下:

  • 使用大语言模型生成一系列文本输出;
  • 收集人类对这些输出的反馈数据,形成一个奖励信号集合;
  • 利用这些反馈数据训练奖励模型,使模型学会预测何种类型的文本输出会获得高奖励;
  • 将奖励模型集成到强化学习框架中,对原始的大语言模型进行微调,从而使模型在生成新文本时倾向于选择那些预期会得到高奖励的输出。

        这样,通过不断迭代和学习,大语言模型就能更好地适应和满足人类的沟通需求和价值观,从而展现出更强的交互能力和更好的表现。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1497782.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

ai直播数字人!AI大模型应用开发高级技术

AI直播数字人是一种新兴的技术应用,通过AI大模型的应用开发,实现了数字人的虚拟化呈现。数字人作为一种虚拟人物形象,在直播平台或其他媒介中可以展现出真实人物的表情、动作和声音,并且能够与观众进行实时互动,给人带…

c语言-大小写字母的转换

目录 方法一:库函数直接转换 1、toupper的测试代码 2、tolower的测试代码 方法二:通过修改ASCII码值转换 1、自己实现大写转小写 2、自己实现小写转大写 结语 前言: 在使用c语言写代码时,通常会遇到很多将大小写字母相互…

101 向一个不存在的路径发送请求, get 得到 404, post 得到 405

前言 这是 最近碰到的一个问题, 大概是在 2022.05.30 前端这边 发送了一个业务请求过来, 这个请求路径是服务端这边不存在的 但是 奇怪的一点就是, 如果是以 get 请求发送过来, 服务端响应的是正确的 404 "Not Found", 但是 如果是以 post 请求发送过来, 服务端这边…

buildadmim生成代码时让菜单有层级

当我们使用buildadmin生成代码的时候,在菜单的部分, 有时希望它生的是一个带有层级的菜单,有时候则想生成一个没有层级的菜单 like this 经过本人测试 如果我们要生成没有层级的菜单 我们可以在高级设置中的 相对位置处更改,同时…

某资产管理系统打点过程中的免杀经历

上周,被扔过来单位内部的一个链接,让渗透一下,本以为三下五除二很快就能测完,没想到在对抗杀软时费了一番功夫,再加上杂七杂八的事儿,经过了一个星期才测完(# ̄~&#xff…

评估需求优先级的方法

Kano模型: 1.前言 在大量的需求需要进行迭代时,由于时间、人力、财力等相关因素干扰,无法在有限的时间内容对所有的需求进行满足,此时需要我们对需求进行优先级的排列。最大化的合理的提高有限资源的使用。 在常见的产品优先级…

应用案例 | Softing echocollect e网关助力汽车零部件制造商构建企业数据库,提升生产效率和质量

为了提高生产质量和效率,某知名汽车零部件制造商采用了Softing echocollect e多协议数据采集网关——从机器和设备中获取相关数据,并直接将数据存储在中央SQL数据库系统中用于分析处理,从而实现了持续监控和生产过程的改进。 一 背景 该企业…

【SpringBoot】-- 实现本地文件/图片上传到服务器生成url地址

在java项目中你可能会有以下需求:用户上传本地图片,然后展示在网页上。本篇文章将使用阿里云oss实现上传图片到oss,oss生成url。 一、准备工作 首先进入阿里云,按如下操作 进入创建页面,修改读写权限为公共读 然后进…

Pytorch入门实战 P1-实现手写数字识别

目录 一、前期准备(环境数据) 1、首先查看我们电脑的配置; 2、使用datasets导入MNIST数据集 3、使用dataloader加载数据集 4、数据可视化 二、构建简单的CNN网络 三、训练模型 1、设置超参数 2、编写训练函数 3、编写测试函数 4、…

蚂蚁感冒 刷题笔记

/* 解题思路 首先根据题意可知 1.蚂蚁速度均为1 即同向蚂蚁永远不可能追上 我们需要求最后感冒蚂蚁的数量 因为蚂蚁碰头将会掉头 效果和俩蚂蚁互相穿过继续走是一样的 所以我们将俩蚂蚁碰头视作穿过 2. 如果俩蚂蚁相向而行 则俩蚂蚁必定碰头 首先 我们获得第一个感冒蚂蚁的…

Requests教程-15-文件上传与下载

领取资料,咨询答疑,请➕wei: June__Go 上一小节,我们学习了requests的HTTPS请求方法,本小节我们讲解一下在requests文件上传与下载。 文件上传 使用requests库上传文件时,需要使用files参数,并将文件打…

IDEA 配置文件乱码,项目编码设置

见下图 其中第一二项控制全局以及工程的编码格式,下方的则是 properties 配置文件的格式,统一调整为 UTF-8 后不再乱码

【Python学习篇】Python基础入门学习——你好Python(一)

个人名片: 🦁作者简介:学生 🐯个人主页:妄北y 🐧个人QQ:2061314755 🐻个人邮箱:2061314755qq.com 🦉个人WeChat:Vir2021GKBS 🐼本文由…

Android制作.9图回忆

背景 多年前,做app开发遇到IM需求,那会用到.9图做聊天气泡背景,现在总结下使用png图片制作.9图。方法有很多,这里主要介绍Android studio制作.9图。当然使用ps、draw9patch都行。 第一步、打开Android studio,切换到dr…

stm32学习笔记:I2C通信协议原理和软件I2C读写MPU6050

概述 第一块:介绍协议规则,然后用软件模拟的形式来实现协议。 第二块:介绍STM32的iic外设,然后用硬件来实现协议。 程序一现象:通过软件I2C通信,对MPU6050芯片内部的寄存器进行读写,写入到配…

Linux安装代理

Linux安装代理 1.下载安装包2.进行解压3.点击运行4.进行配置5.设置系统网络 1.下载安装包 2.进行解压 3.点击运行 4.进行配置 导入链接 5.设置系统网络 测试运行是否成功

迭代器失效问题(C++)

迭代器失效就是迭代器指向的位置已经不是原来的含义了,或者是指向的位置是非法的。以下是失效的几种情况: 删除元素: 此处发生了迭代器的失效,因为erase返回的是下一个元素的位置的迭代器,所以在删除1这个元素的时候&…

鸿蒙Harmony应用开发—ArkTS声明式开发(通用属性:浮层)

设置组件的遮罩文本。 说明: 从API Version 7开始支持。后续版本如有新增内容,则采用上角标单独标记该内容的起始版本。 overlay overlay(value: string | CustomBuilder, options?: { align?: Alignment; offset?: { x?: number; y?: number } })…

Spring揭秘:BeanDefinitionRegistry应用场景及实现原理!

内容概要 BeanDefinitionRegistry接口提供了灵活且强大的Bean定义管理能力,通过该接口,开发者可以动态地注册、检索和移除Bean定义,使得Spring容器在应对复杂应用场景时更加游刃有余,增强了Spring容器的可扩展性和动态性&#xf…

GB 2312字符集:中文编码的基石

title: GB 2312字符集:中文编码的基石 date: 2024/3/7 19:26:00 updated: 2024/3/7 19:26:00 tags: GB2312编码中文字符集双字节编码区位码规则兼容性问题存储空间优化文档处理应用 一、GB 2312字符集的背景 GB 2312字符集是中国国家标准委员会于1980年发布的一种…