【博士每天一篇文献-综述】Biological underpinnings for lifelong learning machines

news2024/9/21 20:47:37

阅读时间:2023-12-17

1 介绍

年份:2015
作者:Dhireesha Kudithipudi,Mario Aguilar-Simon,其中通讯作者Josh Bongard教授也是另一篇论文的通讯作者《Neural modularity helps organisms evolve to learn new skills without forgetting old skills》
期刊:Nature Machine Intelligence
引用量:161
Kudithipudi D, Aguilar-Simon M, Babb J, et al. Biological underpinnings for lifelong learning machines[J]. Nature Machine Intelligence, 2022, 4(3): 196-210.

image.png
image.png
image.png
image.png
本文探讨生物系统终身学习的能力,并尝试理解这些能力背后的生物学机制。作者们回顾了在机器学习领域中,如何通过模仿这些生物学机制来开发能够终身学习的人工智能系统。这些系统被称为终身学习机器(Lifelong Learning Machines, L2M),它们能够像生物体一样不断地从经验中学习并适应新环境,同时保留以前学到的知识。神经科学家和其他生物学家提出了一些机制来解释这种能力,机器学习研究人员已经尝试在人工系统中模仿这些机制,并取得了不同程度的成功。本文认为通过结合多种生物学启发的机制,而不是仅仅关注其中一小部分,可以开发出具有更大自主性和终身学习能力的新一代人工智能系统。

2 创新点

  1. 终身学习的关键特征识别文章首先定义了终身学习机器(L2M)应具备的六项关键特征,包括知识转移与适应性、克服灾难性遗忘、利用任务相似性、任务不可知学习、噪声容忍性以及资源效率和可持续性。
  2. 生物学机制的深入探讨文章深入探讨了支持终身学习的生物学机制,包括神经生成、情景重放、突触的超塑性、神经调节、上下文依赖感知和门控、层级分布式系统、脑外认知、可重构生物体以及多感官整合等。
  3. 生物启发模型的综述文章回顾了当前生物启发的终身学习模型的最新研究进展,这些模型尝试在人工系统中实现类似于生物体的终身学习能力。
  4. 跨学科视角文章结合了神经科学、生物学、心理学、工程学和人工智能等领域的知识,提供了一个跨学科的视角来理解终身学习。
  5. 未来研究方向的提出文章不仅总结了目前的研究成果,还提出了未来研究的方向和挑战,包括开发更现实的测试环境、计算效率高的终身学习架构,以及通过新硬件基板(如神经形态加速器)推进这一领域的发展。
  6. 生物启发算法的具体应用案例文章提供了生物启发算法在终身学习中的应用案例,如神经调节在机器学习系统中的应用,以及基于生物学的重放机制如何帮助深度神经网络抵抗灾难性遗忘。
  7. 综合性资源利用策略文章讨论了如何在终身学习系统中高效利用计算资源和存储资源,包括通过神经生成、情景重放和突触超塑性等机制来控制模型的资源需求。
  8. 推动多学科合作的倡议文章强调了多学科合作的重要性,以促进生物学、神经科学、心理学、工程和人工智能等领域的研究人员共同解决终身学习机器的复杂问题。

3 相关研究

3.1 终身学习的特征(目标)

终身学习机器(Lifelong Learning Machines, L2M)目标是构建类似于生物体的系统,该系统能够永不停止的学习,随着经验的积累性能得到提升,并且尽可能的降低能源和计算/存储资源的需求。有六个目标。

  1. 转移与适应(Transfer and adaptation)L2M需要能够转移和重用知识以提高性能,并且能够迅速适应新环境,无需离线重新训练。这些能力对于部署在现实世界中的模型至关重要,因为情况和环境条件可能会有相当大的变化。一些专注于少量样本学习(从少数样本中学习)和元学习(快速学习概念)的研究已经尝试解决适应性问题。
  2. 克服灾难性遗忘(Overcoming catastrophic forgetting)机器学习模型的一个常见问题是在训练新任务时无法保留以前学到的知识,这被称为“灾难性遗忘”。当网络参数被改变以优化当前任务的性能,而没有充分保护以前的知识时,就会发生这种情况。这不是内存不足的问题,而是重写记忆区域的问题。在获取新技能时不忘记旧技能的挑战被称为稳定性-可塑性困境。
  3. 利用任务相似性(Exploiting task similarity)L2模型需要学习多个任务。以前的研究表明,学习多个任务并促进它们之间的信息转移可以提高性能。正向转移指的是将以前学到的技能应用到新任务上,而反向转移则是当学习新任务时提高了对以前学习任务的性能。实现这种正向和反向转移的一种方法是组合性——将复杂任务分解成更基本的组成部分,这些部分可以重用于相关任务。识别和重用子任务的能力将加速转移和适应。
  4. 任务不可知学习(Task-agnostic learning)在现实世界中部署的L2模型不能依赖于一个预言者来告诉它们何时从一项任务切换到另一项任务,或者在任何给定情况下适用哪些先前学到的任务,但必须能够在没有这些信息的情况下表现良好。我们称之为“任务不可知学习”。在当前最先进的机器学习中,一些模型在训练和推理期间需要完全的任务识别,而其他模型只需要在任务切换时被告知。L2M必须能够在没有任务识别信息的情况下进行推理。
  5. 噪声容忍性(Noise tolerance)通常,最先进的AI模型都是在收集和清洗过的数据集上训练的,以优化训练,并且如果在推理过程中遇到的数据与训练数据有显著差异,它们的表现就不会太好。以前的工作集中在构建健壮的模型,但还没有在终身学习的背景下进行探索。L2M必须能够处理与训练数据不同的数据,这些差异可能是由于环境的变异性或代理者自身的传感器造成的。
  6. 资源效率和可持续性(Resource efficiency and sustainability)为了让机器学习模型在其服务寿命期间持续学习,需要认真考虑资源限制。例如,一个需要记住(例如,在数据库中)其过去所有经历的系统将需要不断增长的存储容量(例如,在重放缓冲区中),尽管有尝试在更长的时间尺度上压缩需要存储的内容。同样,提供持续的清洁训练数据源,可能甚至是规范化的,也是不切实际的。学习时间不应该压倒系统或减慢其推理速度。此外,系统可用的不同任务或行为的数量也不应该影响其实时响应。终身学习的全面成功衡量标准仍在不断发展中,并且是一个积极的研究领域。我们在补充信息中讨论了一些文献中常用的度量标准。请注意,这个列表是以任务为中心的,因为它侧重于代理可能想要在世界中执行的有用任务。正如在自监督学习、好奇心驱动的强化学习和开放性学习的研究中一样,可能还有额外的任务(由特定的目标或奖励函数驱动,例如,减少预测未来的不确定性),代理可能会执行这些任务,但它们不是特定于有用任务的。然而,即使在这些情况下,上述终身学习的特征仍然适用;例如,在探索或自由游戏期间,代理仍然不应该灾难性地忘记旧任务,所学到的技能仍然可以用来提高对有用任务的性能。

3.2 终身学习的生物机制

(1)神经生成(Neurogenesis)
神经生成是成人大脑中新神经元的产生过程。它主要在早期发育期间活跃,但在整个生命周期中持续发生。成人的神经生成主要发生在海马体的齿状回和侧脑室的室管膜下区。神经生成被认为有助于在不牺牲旧记忆的情况下学习新记忆,并且可能在婴儿发展期间发挥重要作用,以适应新信息和技能。
(2)情景重放(Episodic replay)
情景重放是指在睡眠或休息期间,之前在清醒状态下发生的神经活动模式重新出现的现象。这有助于记忆巩固,并且研究表明睡眠对于学习和记忆至关重要。
(3)突触超塑性(Metaplasticity)
突触超塑性是指突触可塑性本身的可变性,即突触根据其先前的修饰历史和最近的神经活动,改变其对进一步修饰的敏感性。这意味着突触的可塑性是动态的,可以根据过去的经验来调整其对未来刺激的反应能力。它涉及到突触连接的强化或弱化,这取决于神经活动的模式和频率。允许突触根据其历史活动水平调整其对新学习的反应,从而有助于防止新记忆的形成对旧记忆的干扰。超塑性中的一个关键概念是异突触调节(heterosynaptic modulation),这指的是一个突触的活动可以影响其他突触的可塑性。这种调节对于突触巩固至关重要,允许快速学习但慢遗忘。
(4)神经调节(Neuromodulation)
神经调节是指通过神经调节剂(如乙酰胆碱、多巴胺、去甲肾上腺素和5-羟色胺)对神经活动和可塑性的调节。这些化学物质影响学习过程,帮助大脑适应预期和意外的不确定性,支持快速学习和记忆编码。
(5)上下文依赖的感知和门控(Context-dependent perception and gating)
在生物系统中,上下文在调节、过滤和整合新信息中起着重要作用。上下文门控通过选择性地激活神经元亚群,减少类似经历之间的干扰,有助于快速学习新刺激并控制反应。
(6)层级分布式系统(Hierarchical distributed systems)
许多生物体具有非中心化的大脑或极小的大脑。这些控制架构表现为层级系统,允许在身体各处的多个神经元网络中分布式处理和学习,每个网络内部连接紧密,但网络间的连接相对稀疏。
(7)脑外认知(Cognition outside the brain)
许多生物系统展示了在没有神经系统的情况下学习、预测和适应新挑战的能力。这包括通过非神经生物电网络或亚细胞过程(如转录网络)进行计算的生物组织和生物分子网络。
(8)可重构生物体(Reconfigurable organisms)
生物体在环境和细胞属性发生巨大变化时仍能保持一致性和适应性功能。例如,蝌蚪即使在眼睛位置异常的情况下也能进行有效的视觉学习,显示出大脑可能适应新架构的能力。
(9)多感官整合(Multisensory integration)
生物体是天生的感觉运动系统,其运动行为受到多种感觉信号的指导。如何整合这些分布、非线性、非共位、嘈杂且有延迟的感觉信号以实现多功能运动功能,是一个活跃的研究领域。

3.3 终身学习6大特征的相关研究

image.png
(1)转移与适应(Transfer and adaptation)
转移与适应指的是系统能够将在一个任务中学到的知识应用到另一个任务上,并对新环境或变化快速适应的能力。生物学启发的算法。

  1. 如基于神经调节(Neuromodulation)的模型,可以增强系统的这种能力,使系统能够在面对新任务或环境变化时,利用已有的知识进行快速学习和适应。【78, 79, 84-86,88,89,157,158, 159, 160】
  2. 如上下文依赖的感知和门控(Context-dependent perception and gating)通过追踪上下文的变化并在训练和/或推理时使用这些信息来调节网络,可以提高L2代理的性能。【168-180】

(2)克服灾难性遗忘(Overcoming catastrophic forgetting)
灾难性遗忘是指在学习新任务时,系统可能会丢失之前学到的知识。为了克服这个问题,研究者们模仿了大脑中的上下文依赖的感知和门控(Context-dependent perception and gating)、神经生成(Neurogenesis)、情景重放(Episodic replay)、神经调节(Neuromodulation)、突触超塑性、上下文依赖的感知和门控(Context-dependent perception and gating)等机制,开发了能够在学习新知识的同时保留旧知识的模型。

  1. 上下文依赖的感知和门控(Context-dependent perception and gating)
    • 上下文依赖的门控被用来通过改善网络对不同任务模式表征的分离来减轻灾难性遗忘。
    • 【168】
  2. 神经生成(Neurogenesis)
    • 神经生成,特别是在海马体的齿状回,被认为支持在不牺牲旧记忆的情况下学习新记忆。
    • 通过添加新神经元来表示新记忆,同时保持现有神经元的完整性。
    • 已有多个终身学习机器(L2M)机制通过按需添加新神经元来模仿神经生成。
    • 【169-174】
  3. 情景重放(Episodic replay)
    • 基于与睡眠和重放相关的生物学见解,模仿睡眠或添加内部生成的重放可以提高深度神经网络对灾难性遗忘的抵抗力。
    • 【54,175,176,177,178,170,180】
  4. 突触超塑性(Metaplasticity)
    • 研究人员从生物突触的时间变化性中获得灵感,在机器学习模型中实现突触超塑性。
    • 一个突触超塑性的级联模型显著减少了灾难性遗忘。
    • 最近的模型使用二进制权重和实数值隐藏状态,能够顺序学习复杂数据集,而不忘之前学习的内容。
    • 【67,89,181,182,183,184,185】
  5. 神经调节(Neuromodulation)
    • 在模拟和机器人记忆任务中,神经调节被用来决定新刺激是新颖且不熟悉的(即创建新模式),还是新颖且熟悉的(即整合到现有模式中)。
    • 神经调节信号不确定性也被用来在编码记忆时调节稳定性-可塑性困境,从而克服灾难性遗忘。
    • 【79,164,78】

(3)利用任务相似性(Exploiting task similarity)
当不同任务之间存在相似性时,系统可以通过识别和利用这些相似性来提高学习效率。例如,通过上下文依赖的感知和门控机制,系统能够区分不同任务的表征,从而在学习新任务时重用相关的旧知识。

  1. 上下文依赖的感知和门控:
    • 齿状回的解耦作用适用于多种架构和认知理论,例如在自动编码器中发现的解耦和分解表征,以及上下文依赖的模式。
    • 【165,166,79,164】
  2. 少样本复杂物体学习:
    • 可以通过胶囊网络捕捉基于部分间关系的整体组合,这促成了Omniglot数据集的形成。
    • 【186,187】
  3. 层级分布式系统:
    • 尽管分层架构通常是系统工程的一部分,但将这些概念应用于学习系统存在组合挑战,因为层次结构中的多样性使得构建一个能够灵活捕捉整个组合多样性空间的系统变得困难。
    • 【188,189,190,191】
  4. 多感官整合:
    • 利用多种感官输入增强机器人导航和对身体配置及其与环境关系的感知。例如,一种生物启发的尖峰多感官神经网络能够基于多感官整合识别物体,并根据声音输入想象从未见过的画面。
    • 【192,152,155,193】
  5. 可重构生物体:
    • 从生物体皮肤取出的细胞,在新环境中切除并重组后,能够自组装成一个活跃的结构,利用新环境中的相似性来实现运动和与同种个体及附近物体的交互。
    • 【139,147,194】
  6. 脑外认知:
    • 非神经组织中的生物电网络启发了对L2M系统的调节和再生功能的建模。计算AI系统可以通过模拟已知的非神经生物电通信机制来模仿和利用这些动态。
    • 【195,196,197】

(4)任务不可知学习(Task-agnostic learning)
任务不可知学习是指系统能够在没有明确任务信息的情况下进行学习。这种能力对于现实世界的部署尤为重要,因为任务的边界往往是模糊的。通过使用如元学习等技术,系统可以学习如何学习,从而在面对未知任务时表现出更好的泛化能力。

  1. 上下文依赖的感知和门控:
    • 生物系统经常通过选择性注意力调节感知,并且能够推断任务信息。上下文依赖的感知和门控可以利用网络信息(局部或全局),来推断上下文的转变或识别上下文信息。一个例子是基于网络误差检测上下文转变的方法。
    • 【70,161】
  2. 突触超塑性(Metaplasticity):
    • 许多基于突触超塑性的方法,特别是那些旨在通过限制重要突触的可塑性来保护知识的方法,在训练期间需要任务变化通知,以决定何时更新每个突触的估计重要性。一些研究实现了突触超塑性作为一个功能,它只使用每个突触局部的信息,而不需要任务信息。
    • 【7,181,183,184,185,198】

(5)噪声容忍性(Noise tolerance)
噪声容忍性是指系统在面对这些噪声时仍能保持性能的能力。通过模仿生物体的多感官整合和神经调节等机制,可以提高系统对噪声的鲁棒性。比如神经调节(neuromodulation)、多感官整合(multisensory integration)、层级分布式系统(hierarchical distributed systems)、可重构生物体(reconfigurable organisms)和情景重放(episodic replay)等机制被用来提高L2系统的噪声容忍性。层级系统可以学习更高层次的控制策略来适应噪声,减少其对低层次控制器输出的影响,从而产生能在嘈杂环境中表现良好的算法。通过突触巩固机制,可以滤除噪声和偶然的相关性,该机制提取输入输出流中的原因效应。最后,从生物体分离的细胞能够自组织成一个新的功能性原型有机体,无需微观管理,它们在细胞数量和位置以及环境条件方面能够承受高水平的噪声,以可靠地构建一个可移动的、具有再生功能的系统。
【78, 158, 199】【113, 162】【139, 147】【176, 177】【199,200】
(6)资源效率和可持续性(Resource efficiency and sustainability)
资源效率和可持续性关注的是系统如何在有限的计算资源和存储容量下持续学习。这包括开发如网络剪枝、知识蒸馏等技术,以减少模型的内存占用,同时保持其学习能力。通过这种方式,系统能够在资源受限的环境中有效地学习新任务,同时避免过度增长的资源需求。

  1. 神经生成(Neurogenesis)
    • 神经生成允许系统整合新信息,但需要避免无控制的生长。区分新信息可以帮助判断是否需要进一步的神经生成以及其程度。在模拟迷宫环境中,网络修剪机制也被证明是有效的。
    • 【201, 174, 202】
  2. 情景重放(Episodic replay)
    • 重放或排练先前学到的信息是L2中一个有效且广泛使用的工具。重放的主要关注点是其计算效率和可扩展性。受神经科学启发的深度学习近期工作表明,为避免遗忘,只重放一小部分数据可能已足够。只重放与新学习相似的旧记忆,或重放过去经历的抽象、高级别表征。重放与新学习交错进行可以减少表示先前学习信息所需的资源量。
    • 【53, 54, 175, 176, 179, 180, 203, 204】
  3. 突触超塑性(Metaplasticity)
    • 基于突触超塑性的方法,也称为参数正则化方法,已被证明能够在不增加内存和计算能力资源要求的情况下减少灾难性遗忘。这些方法的表现力是固定的,它们无法学习任意长的任务序列。
    • 【89, 181–183, 198, 205】

3.4 数据集

  1. 图像识别数据集:这些数据集通常包含多种类别的图像,用于训练和测试模型在视觉识别任务中的终身学习能力。
    • 参考文献【7,54,70,78,84, 88,89,160,165, 166,168,171,172, 175,176,177,179,181,183,185,198,201, 202,234】
  2. 环境交互数据集:这类数据集涉及与环境的交互,可能用于强化学习或机器人学习任务,其中智能体必须学习如何在环境中导航或执行特定任务。
    • 参考文献【78,79,157,159, 160,163,170,171, 174,180,182,184, 192】
  3. 生物模拟数据集:这些数据集可能来源于生物学研究,用于模拟生物过程或行为,以研究机器学习模型如何模拟这些过程。
    • 参考文献【139,147,195,196,197】
  4. 机器人数据集:机器人学习任务中使用的数据集,可能包括传感器数据、运动执行数据等,用于训练机器人执行复杂动作或适应新环境。
    • 参考文献【113,152,160, 164,189,190 】
  5. 其他数据集:可能包括各种特定于任务的数据集,用于研究模型在不同领域的终身学习能力。
    • 参考文献【53,67,85,86,155, 158,161,162,167, 169,173,188,191, 193,199,200,203】

4 图解析

(1)生物机制解决的挑战
image.png
图中表示了,不同的生物学机制可能支持和促进终身学习的不同挑战。其中神经生成(Neurogenesis)和上下文依赖的感知和门控(Context-dependent perception and gating)是能够解决终身学习中的最多问题。图中表示左侧列出的生物学机制被认为有助于实现顶部对应的终身学习关键特征,注意并不意味着单一机制本身就足以实现该特征。
(2)小鼠中新产生的神经元迁移到特定的脑区
image.png
描述了新产生的神经前体细胞在侧脑室开始它们的迁移过程。红色的rostral migratory stream (RMS),即前端迁移流,这是新产生的神经前体细胞(neuroblasts)从侧脑室(lateral ventricle, LV)的室管膜下区迁移到嗅球(olfactory bulb, OB)的路径。这些细胞沿着RMS继续迁移,最终到达嗅球。在嗅球内,这些神经前体细胞分化成熟,形成特定的神经元群体,特别是内部神经元。
(3)啮齿动物海马体中的情景重放(Episodic replay)现象
image.png
在动物清醒并活动时,海马体内的地点细胞(hippocampus place cells)会根据动物访问的空间位置顺序地发放信号。海马体的局部场电位(local field potential, LFP)显示出theta波振荡。
在睡眠和休息期间(以及有时在活跃行为期间的短暂停顿时),海马体的LFP显示出“涟漪”活动(即100-200赫兹的短暂脉冲振荡)。在这些涟漪活动期间,神经元会迅速重放之前行为中发生的序列。这种行为期间观察到的活动序列重放也被发现在其他脑区,以压缩(如图中所示)或未压缩的形式出现。
通过展示清醒和睡眠状态下海马体地点细胞的活动模式,说明了大脑如何在动物休息时重放之前的经历。这种现象被认为与记忆巩固有关,是学习和记忆研究中的一个关键机制。
(4)脑中的神经调节系统
image.png

  • 描述了神经调节剂的来源,这些调节剂主要在大脑的皮层下区域产生。乙酰胆碱(Acetylcholine)主要在无名质(substantia innominata, S)和内侧隔核(medial septum, M)产生。多巴胺(Dopamine)主要在腹侧被盖区(ventral tegmental area, VTA)和黑质致密部(substantia nigra compacta, SNc)产生。去甲肾上腺素(Noradrenaline)主要在蓝斑核(locus coeruleus, LC)产生。5-羟色胺(Serotonin)主要在背侧(dorsal, DR)和内侧(medial, MR)的拉普斯核(raphe nuclei)产生。这些神经调节剂的产生区域向大脑和神经系统的大范围区域发出投射。
  • 每种神经调节剂的活动与环境刺激有关:
    • 乙酰胆碱水平似乎与注意力努力(attentional effort)有关。
    • 多巴胺水平似乎与奖赏预期(reward anticipation)有关。
    • 去甲肾上腺素水平似乎与惊讶或新奇(surprise or novelty)有关。
    • 5-羟色胺水平似乎与风险评估和冲动性(risk assessment and impulsiveness)有关。
  • 描述了两种类型的神经调节:
    • 相位神经调节(Phasic neuromodulation):推动有机体朝向更加利用性(exploitative)和果断(decisive)的行为。
    • 持续性神经调节(Tonic neuromodulation):推动有机体朝向更加探索性(exploratory)或好奇(curious)的行为。

(5)生物系统如何利用多个动态交互层级
image.png
阐释了生物系统如何通过不同层级的相互作用来实现有效的控制和学习。这种分层的动态交互模型对于理解生物体如何在复杂环境中有效行动具有重要意义。
(6)非神经生物电网络(BioElectric Network, BEN)的网络结构及应用
image.png
图a中是由节点组成的网络架构,这些节点代表非神经细胞,它们通过表示间隙连接的边相互连接。BEN是一种用于再生和修复过程中控制生长和形态的机制,且该机制具有学习能力。在应用中,包含BEN网络的代理(模拟其身体)和人工神经网络(模拟其大脑)可以学习适应环境,即使在大脑被移除后也能继续学习。

5 思考

(1)终身学习的生物机制大多归因于大脑中的过程,但也有一些来自在大脑之外的细胞内和细胞间的活动。
(2)异突触调节(heterosynaptic modulation)指的是一个突触的活动可以影响其他突触的可塑性。这种调节对于突触巩固至关重要,允许快速学习但慢遗忘。
(3)提出的6个关键特征,是终身学习的6大挑战,如果一个算法能够同时解决这6个问题,是很完美的。
(4)从图2中可以知道,从神经生成(Neurogenesis)和上下文依赖的感知和门控(Context-dependent perception and gating)的角度去做终身学习的研究,能够最多解决终身学习中的问题。

image.png

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1869965.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

widows下 vscode 的 terminal / powershell,ctrl+v失灵,输出^v

问题 原因 最近装了PSReadLine Import-Module PSReadLineSet-PSReadLineOption -PredictionSource History Set-PSReadLineOption -PredictionViewStyle InlineView Set-PSReadLineOption -EditMode Emacsvscode不兼容 解决方法 注释掉最后面的 Import-Module PSReadLineS…

Linux通过expect实现免交互

免交互 Here Document 用于将多行字符串直接传递给命令的方式&#xff0c;不需要人为交互命令界面&#xff0c;实现免交互 当使用Here Document操作文件时&#xff0c;需要借助一个文件结束符 EOF&#xff1a;文件结束符 示例 在脚本文件中写入以下内容 <<&#x…

RabbitMQ安装部署

简介 RabbitMQ一款知名的开源消息队列系统&#xff0c;为企业提供消息的发布、订阅、点对点传输等消息服务。 RabbitMQ在企业开发中十分常见&#xff0c;课程为大家演示快速搭建RabbitMQ环境。 安装 rabbitmq在yum仓库中的版本比较老&#xff0c;所以我们需要手动构建yum仓库…

优刻得首个「国产千卡智算集群」落地,支持智源千亿大模型训练

在人工智能引领的时代浪潮中&#xff0c;算力已成为技术进步与创新的核心驱动力。面对当下AI算力需求的飙升、高端AI芯片供应受限的挑战&#xff0c;加之OpenAI带来的技术封锁&#xff0c;唯有坚定不移的发展自主可控的国产技术方案&#xff0c;持续壮大国产智算集群规模&#…

等保测评中的问题与建议

随着信息技术的广泛使用和飞速发展&#xff0c;网络安全已逐渐演变为威胁经济社会发展的关键议题。信息安全的范围涵盖了政治、商务、军事、教育等多个方面。其中&#xff0c;信息的存储、分享以及管理&#xff0c;主要取决于政府的宏观规划和决策、商业运作的信息、银行的财务…

字节跳动发布的Coze,可以免费使用GPT-4o模型了

Coze是字节跳动推出的一个AI聊天机器人和应用程序编辑开发平台&#xff0c;可以理解为字节跳动版的GPTs。无论用户是否有编程经验&#xff0c;都可以通过该平台快速创建各种类型的聊天机器人、智能体、AI应用&#xff0c;并将其部署在社交平台和即时聊天应用程序中&#xff0c;…

丝杆支撑座:滚珠丝杆稳定运行的守护者!

丝杆支撑座是丝杆和电机之间连接的重要组成部分&#xff0c;发挥着非常重要的功能。提到丝杆支撑座和滚珠丝杆&#xff0c;很多人都会想到支撑关系&#xff0c;但丝杆支撑座作为滚珠丝杆系统中至关重要的角色&#xff0c;其作用远不止于简单的支撑。 丝杆支撑座安装过程非常简单…

解锁横向招聘:创新您的人才搜索

技能差距仍然是面试官面临的问题之一。在这些空缺职位中&#xff0c;很难找到合适的技能候选人&#xff0c;特别是高级职位或以上职位。另一方面&#xff0c;申请人也发现很难找到一份适合自己的工作&#xff0c;因为他们抱怨工作要求太窄或太具体。在具有挑战性的职位招聘环境…

目标检测之YoloV1

一、预测阶段&#xff08;前向推断&#xff09; 在预测阶段Yolo就相当于一个黑箱子&#xff0c;输入的是448*448*3的图像&#xff0c;输出是7*7*30的张量&#xff0c;包含了所有预测框的坐标、置信度和类别 为什么是7*7*30呢&#xff1f; --将输入图像划分成s*s个grid cell&a…

深海电波,智能驾驭:海上发电系统中的先进网关技术

随着技术的不断演进&#xff0c;海上风电场逐渐走向深海&#xff0c;随之而来的高速通信保障成为一大难题。同时&#xff0c;海上风电特殊的环境与部署技术&#xff0c;也给运维带来了作业难、成本高、响应慢等困难。通过在沿海岸边建立高站&#xff0c;结合超远覆盖、载波聚合…

Packer-Fuzzer一款好用的前端高效安全扫描工具

★★免责声明★★ 文章中涉及的程序(方法)可能带有攻击性&#xff0c;仅供安全研究与学习之用&#xff0c;读者将信息做其他用途&#xff0c;由Ta承担全部法律及连带责任&#xff0c;文章作者不承担任何法律及连带责任。 1、Packer Fuzzer介绍 Packer Fuzzer是一款针对Webpack…

SAP 免费退货销售订单类型配置简介

作为一名 SD顾问&#xff0c;必须具备熟悉系统和系统配置&#xff0c;但是之前都是做的PP顾问&#xff0c;现在用户需要新增了一个销售订单类型&#xff0c;所以自己研究销售订单类型的配置&#xff0c;才有了以下的文章&#xff0c;希望对各位学习的同学有所帮助 1、创建销售…

如何有效降低云消息使用成本?涂鸦Pulsar云消息史诗级大更新来了!超级干货攻略快收藏

月末了&#xff0c;相信大家都会有信用卡额度超支的担忧&#xff0c;生怕一不留神就会超出预算&#xff0c;并且事后还需要仔细核对消费情况。类似的焦虑&#xff0c;也会出现在使用涂鸦 Pulsar 云消息服务时。虽然涂鸦 Pulsar 云消息能满足开发者对设备各类事件实时性和持久化…

STM32单片机实现串口IAP升级

一.概述 1.要实现串口IAP升级&#xff0c;首先要编写一个bootloader程序&#xff0c;然后再写支持IAP的app程序&#xff1b; 2.keil下bootloader的程序rom和ram设置 3.app程序要用bin文件 注&#xff1a;本文以STM32H743举例&#xff0c;其他stm32单片机IAP升级原理类似。 …

AI时代的风口,中小企业也不能错过

文&#xff5c;白 鸽 编&#xff5c;周效敬 这些场景&#xff0c;对你来说或许并不陌生&#xff1a; 在医院的大屏上&#xff0c;一个医生模样的数字人在做医疗知识科普&#xff1b;在抖音的直播间里&#xff0c;一个真人模样的数字人在线上直播带货&#xff0c;24小时无休无…

音频剪辑技巧:音频降噪在线怎么降噪?分享7种录音去除杂音方法

相信很多小伙伴们都有这种苦恼&#xff1a;在编辑音频时&#xff0c;你可能发现即使你使用了价格昂贵的隔音麦克风&#xff0c;在录音中仍然存在呼吸声和咳嗽声。因此&#xff0c;如果要传达清晰干净的声音以表达你的信息&#xff0c;你该如何从录音去除杂音呢&#xff1f;别心…

基于STM32的智能水质监测系统

目录 引言环境准备智能水质监测系统基础代码实现&#xff1a;实现智能水质监测系统 4.1 数据采集模块4.2 数据处理与分析4.3 控制系统实现4.4 用户界面与数据可视化应用场景&#xff1a;水质管理与优化问题解决方案与优化收尾与总结 1. 引言 智能水质监测系统通过使用STM32嵌…

可转债交易的规则,权限开通条件。可转债的佣金最低标准万0.44!

可转债交易规则 【1】可转债最小交易单位为1手&#xff0c;1手10张&#xff0c;每张的价格就是大家看到的价格。这和股票很不一样&#xff0c;股票的1手是100股股票。可转债最小价格变动单位为0.001 【2】可转债是T0交易&#xff0c;即当天买入&#xff0c;当天就可以卖出。这…

[每周尝鲜]用GPTs排名全球Top1的 GitHub 代码仓库分析神器AI Code Analyzer解读每周热门项目

前言&#xff1a; GitHub 代码仓库分析神器AI Code Analyzer自1月12日在GPTs 上线以来&#xff0c;凭借其强大的功能和卓越的用户体验&#xff0c;取得了令人瞩目的成绩。收获了诸多好评&#xff0c;目前在同类插件中全球排行第一&#xff0c;已有1000用户正在使用。并且已入选…

MATLAB2024a下的BP神经网络分类工具箱预测

1 打开BP神经网络分类工具箱GUI界面 图1-1 如图1-1所示&#xff0c;虽然叫神经网络模式识别但确实是BP神经网络分类工具箱&#xff0c;如果想要使用其他神经网络模型&#xff0c;可以打开左边的深度网络网络设计器&#xff0c;如图1-2、图1-3所示&#xff1a; 图1-2 图1-3 2 导…