【具身智能评估9】Open X-Embodiment: Robotic Learning Datasets and RT-X Models

news2024/11/26 15:43:08

在这里插入图片描述
在这里插入图片描述

论文标题:Open X-Embodiment: Robotic Learning Datasets and RT-X Models
论文作者:–
论文原文:https://arxiv.org/abs/2310.08864
论文出处:–
论文被引:–(12/18/2023)
论文代码:https://github.com/google-deepmind/open_x_embodiment
项目主页:https://robotics-transformer-x.github.io/

Abstract

在不同数据集上训练的大型高容量模型在高效处理下游应用方面取得了显著的成功。在从 NLP 到计算机视觉等领域,这导致了预训练模型的整合,通用预训练骨干成为许多应用的起点。机器人技术能否实现这种整合?传统的机器人学习方法是为每种应用、每个机器人甚至每个环境训练一个单独的模型。我们能否训练出 “通用型” X-robot 策略,使其能有效地适应新的机器人、任务和环境?在本文中,我们提供了标准化数据格式和模型的数据集,以便在机器人操纵的背景下探索这种可能性,同时还提供了有效 X-robot 策略的实验结果。我们汇集了 21 家机构合作收集的 22 种不同机器人的数据集,展示了 527 种技能(160266 项任务)。我们的研究表明,在这些数据基础上训练出来的大容量模型(我们称之为 RT-X)可以利用来自其他平台的经验,实现正迁移并提高多个机器人的能力。更多详细信息,请访问项目网站 https://robotics-transformer-x.github.io/。

I. INTRODUCTION

从机器学习和人工智能的最新进展中得到的一个重要启示是,通过提供通用的预训练模型,从广泛多样的数据集中进行大规模学习,可以使人工智能系统具备能力。事实上,通常在大型、多样化数据集上训练的大规模通用模型,其性能往往优于在较小但更具任务针对性的数据集上训练的狭义目标模型。例如,在从网络上抓取的大型数据集上训练的开放词汇图像分类器(如 CLIP [1])往往优于在更有限的数据集上训练的固定词汇模型,而在海量文本语料库上训练的大型语言模型 [2, 3] 往往优于只在狭窄的特定任务数据集上训练的系统。越来越多的情况是,处理特定狭窄任务(如视觉或 NLP)的最有效方法是调整通用模型。然而,这些经验很难应用到机器人领域:任何单一的机器人领域都可能过于狭窄,虽然计算机视觉和 NLP 可以利用从网络上获取的大型数据集,但机器人交互领域却很难获得类似的大型、广泛数据集。即使是最大规模的数据收集工作,最终得到的数据集在规模和多样性上仍然只是视觉(5-18M)[4, 5]和 NLP(1.5B-4.5B)[6, 7]基准数据集的一小部分。也许更重要的是,这些数据集在某些变化轴上仍然很狭窄,要么只关注单一环境、单一物体集,要么只关注狭窄的任务范围。我们如何才能克服机器人学中的这些挑战,将机器人学习领域推向在其他领域取得巨大成功的那种大数据体系?

受在不同数据上对大型视觉或语言模型进行预训练可实现通用化的启发,我们认为, 训练可通用的机器人策略这一目标需要进行 X-embodiment 训练,即使用来自多个机器人平台的数据。虽然每个单独的机器人学习数据集可能过于狭窄,但所有这些数据集的联合能更好地覆盖环境和机器人的变化。学习可通用的机器人策略需要开发能够利用 X-embodiment 数据的方法,挖掘来自许多实验室、机器人和环境的数据集。即使这些数据集目前的规模和覆盖范围不足以达到大型语言模型所展示的令人印象深刻的泛化结果,但在未来,这些数据的联合有可能提供这种覆盖范围。正因为如此,我们认为,在当前的关键时刻,对 X-embodiment 机器人学习的研究至关重要。

根据这一原理,我们的工作有两个主要目标:

  • 1)证明根据来自多个不同机器人和环境的数据训练的策略可以实现正向增益,比仅根据来自每个评估设置的数据训练的策略获得更好的性能。
  • 2)为机器人界提供数据集、数据格式和模型,以促进未来对 X-embodiment 模型的研究。

我们的工作重点是 机器人操纵(robotic manipulation)

  • 针对目标(1),我们的经验性贡献是证明了最近的几种机器人学习方法,只需极少的修改,就能利用 X-embodiment 数据并实现正迁移。具体来说,我们在 9 个不同的机器人操纵器上训练 RT-1 [8] 和 RT-2 [9] 模型。结果表明,我们称之为 RT-X 的模型可以改进仅在评估域数据上训练的策略,表现出更好的泛化能力和新功能。
  • 针对目标(2),我们提供了 Open X-embodiment(OXE)资源库,其中包括一个数据集,包含来自 21 个不同机构的 22 种不同的机器人装置,可以帮助机器人社区进一步研究 X-embodiment 模型,并提供开源工具以促进此类研究。我们的目标不是在特定架构和算法方面进行创新,而是提供我们训练的模型以及数据和工具,为围绕 X-embodiment 机器人学习的研究注入活力

在这里插入图片描述

II. RELATED WORK

Transfer across embodiments

之前有许多研究都对模拟机器人[10-22]和真实机器人[23-29]的跨机器人体现迁移方法进行了研究。这些方法通常引入了专门用于解决不同机器人之间体现差距的机制,例如:

  • 共享动作表示[14, 30]
  • 纳入表示学习目标[17, 26]
  • 根据具身信息调整学习策略[11, 15, 18, 30, 31]
  • 解耦机器人和环境表示[24]

之前的工作已经初步展示了 X-embodiment 训练 [27] 和 Transformer 模型的迁移 [25, 29, 32]。我们研究了互补的架构,提供了互补的分析,特别是研究了 X-embodiment 迁移与网络规模预训练之间的相互作用

  • 同样,用于在人类和具身机器人之间迁移的方法也经常采用减少具身差距(embodiment gap)的技术,即通过领域间转换或学习可迁移表征[33-43]
  • 另外,一些研究还关注问题的子方面,如从人类视频数据中学习可迁移的奖励函数 [17, 44-48],目标 [49, 50],动力学模型 [51] 或视觉表征 [52-59]。与之前的大多数研究不同,我们直接在 X-embodiment 数据上训练策略,而不使用任何机制来减少具身差距,并通过利用这些数据观察到正向的迁移

Large-scale robot learning datasets

机器人学习社区已经创建了开源机器人学习数据集,涵盖

  • 抓取[60-71]
  • 推动交互[23, 72-74]
  • 物体和模型集[75-85]
  • 远程操作演示[8, 86-95]

除了 RoboNet [23],这些数据集都包含同一类型机器人的数据,而我们的重点则是跨多个机器人的数据。我们数据资源库的目标是与这些努力相辅相成的:我们将大量先前的数据集进行处理并汇总到一个单一、标准化的资源库中,名为 Open X-Embodiment,它展示了机器人学习数据集如何以有意义、有用的方式进行共享

Language-conditioned robot learning

先前的研究旨在赋予机器人和其他智能体理解并遵循语言指令的能力[96-101],通常是通过学习语言条件策略[8, 40, 45, 102-106]。我们通过模仿学习来训练语言条件策略,这与之前的许多研究一样,但我们使用的是大规模多实验演示数据。在机器人模仿学习中,先前的研究利用了预训练的语言嵌入[8, 40, 45, 103, 107-112]和预训练的视觉语言模型[9, 113-115],我们在实验中研究了这两种形式的预训练,特别是 RT-1 [8] 和 RT-2 [9]。

III. THE OPEN X-EMBODIMENT REPOSITORY

我们推出了 Open X-Embodiment 资源库——一个开源资源库,其中包括用于 X-embodied 机器人学习研究的大规模数据和预训练模型检查点。更具体地说,我们为更广泛的社区提供并维护以下开源资源:

  • Open X-Embodiment Dataset:机器人学习数据集,包含来自 22 个机器人实验的 100 多万条机器人轨迹。
  • Pre-Trained Checkpoints:精选的 RT-X 模型检查点,可用于推理和微调。

我们希望这些资源能为机器人学习领域的 X-embodiment 研究奠定基础,但这仅仅是个开始。Open X-Embodiment 是一项由社区推动的工作,目前有来自世界各地的 21 家机构参与其中,我们希望随着时间的推移,进一步扩大参与范围,发展最初的 Open X-Embodiment 数据集。在本节中,我们将总结数据集和 X-embodiment 学习框架,然后讨论我们用来评估数据集和实验结果的具体模型。

A. The Open X-Embodiment Dataset

Open X-Embodiment 实验数据集包含 100 多万条真实机器人轨迹,涵盖 22 种机器人实验,从单臂机器人到双臂机器人和四足机器人。该数据集是通过汇集来自全球 34 个机器人研究实验室的 60 个现有机器人数据集而构建的,并将其转换为统一的数据格式,以方便下载和使用。我们使用的是 RLDS 数据格式 [119],它以序列化的 tf-record 文件保存数据,可适应不同机器人设置的各种动作空间和输入模式,如不同数量的 RGB 摄像头,深度摄像头和点云。它还支持所有主要深度学习框架的高效并行数据加载。有关数据存储格式和全部 60 个数据集的详细信息,请参见 robotics-transformer-x.github.io。

B. Dataset Analysis

图 2 分析了开放式 X 实施数据集。图 2(a)显示了按机器人实施例分列的数据集,其中 Franka 机器人最为常见。这反映在每个实施方案的独特场景数量上(基于数据集元数据)(图 2(b)),其中弗兰卡机器人占主导地位。图 2©显示了每个实施方案的轨迹分类。为了进一步分析多样性,我们使用了数据中的语言注释。我们使用 PaLM 语言模型 [3] 从指令中提取物体和行为。图 2(d,e) 显示了技能和物体的多样性。虽然大多数技能属于拾取-放置系列,但数据集的长尾部分包含了 “擦拭” 或 “组装” 等技能。此外,数据还涵盖了从家用电器到食品和器皿等一系列家用物品。

IV. RT-X DESIGN

为了评估 X-embodiment 训练能在多大程度上提高所学策略在单个机器人上的性能,我们需要模型有足够的能力来有效利用这种大型异构数据集。为此,我们的实验将以最近提出的两种基于 Transformer 的机器人策略为基础:RT1 [8] 和 RT-2 [9]。在本节中,我们将简要总结这两个模型的设计,并讨论我们在实验中如何将它们应用到 X-embodiment 环境中。

A. Data format consolidation

创建 X-embodiment 模型的一个挑战是,不同机器人的观察和行动空间差异很大。我们在不同的数据集中使用粗略对齐的动作和观察空间。该模型接收近期图像和语言指令的历史记录作为观察结果,并预测一个控制末端执行器的 7 维动作向量(x,y,z,roll,pitch,yaw,gripper opening or the rates of these quantities)。我们从每个数据集中选择一个典型的相机视图作为输入图像,将其调整为通用分辨率,然后将原始动作集转换为 7 DoF 末端执行器动作。在离散化之前,我们对每个数据集的动作进行归一化处理。这样一来,模型的输出结果就可以根据所使用的实施方式进行不同的解释(去规范化)。值得注意的是,尽管进行了粗对齐,但不同数据集的摄像头观测结果仍有很大差异,例如,由于摄像头相对于机器人的位置不同,或者摄像头的属性不同,见图 3。同样,对于动作空间,我们不会在控制末端执行器的数据集之间对坐标框架进行对齐,而是允许动作值代表绝对或相对位置或速度,正如每个机器人最初选择的控制方案一样。因此,相同的动作矢量对不同的机器人可能会产生截然不同的运动。

在这里插入图片描述

B. Policy architectures

我们在实验中考虑了两种模型架构:

  • 1)RT-1 [8],一种基于 Transformer 的高效架构,专为机器人控制而设计;
  • 2)RT-2 [9],一种大型视觉语言模型,经过共同微调,可将机器人动作输出为自然语言标记。

这两个模型都接收视觉输入和描述任务的自然语言指令,并输出标记化的动作。对于每种模型,动作都被标记为 256 个分区,沿八个维度均匀分布;一个维度用于终止情节,七个维度用于末端执行器运动。尽管这两种架构在其原始论文[8, 9]中都有详细描述,但我们在下文中将对每种架构进行简要概述:

  • RT-1 [8] 是一个基于 Transformer 架构 [118] 的 35M 参数网络,设计用于机器人控制,如图 3 所示。它接收 15 幅图像和自然语言的历史记录。每幅图像都会通过经过 ImageNet 训练的 EfficientNet [117] 进行处理,自然语言指令则会转换为 USE [120] 嵌入。然后,视觉和语言表征通过 FiLM [116] 层交织在一起,产生 81 个视觉语言标记。这些标记被送入解码器 Transformer,输出标记化的动作。
  • RT-2 [9]是一个大型视觉-语言-动作模型(VLA)系列,它是在互联网规模的视觉和语言数据以及机器人控制数据的基础上训练而成的。RT-2 将标记化动作(tokenized actions)转换为文本标记(text tokens),例如,一个可能的动作可能是 “1 128 91 241 5 101 127”。因此,任何经过预训练的视觉语言模型(VLM [121-123])都可以针对机器人控制进行微调,从而利用视觉语言模型的骨干并迁移其部分泛化特性。在这项工作中,我们重点研究 RT-2-PaLI-X 变体[121],它建立在视觉模型 ViT [124] 和语言模型 UL2 [125] 的基础上,主要在 WebLI [121] 数据集上进行预训练

C. Training and inference details

这两个模型在其输出空间(RT-1 为离散桶,RT-2 为所有可能的语言标记)上都使用了标准的分类交叉熵目标

我们将所有实验中使用的机器人混合数据定义为来自 9 个机械手的数据,这些数据来自:

  • RT-1 [8]
  • QT-Opt [66]
  • Bridge [95]
  • Task Agnostic Robot Play [126, 127]
  • Jaco Play [128]
  • Cable Routing [129]
  • RoboTurk [86]
  • NYU VINN [130]
  • Austin VIOLA [131]
  • Berkeley Autolab UR5 [132]
  • TOTO [133]
  • Language Table [91]

RT-1-X 仅根据上述定义的机器人混合数据进行训练,而 RT-2-X 则通过联合精细调整(类似于原始 RT-2 [9])进行训练,原始 VLM 数据和机器人混合数据的比例大致为一比一。请注意,我们实验中使用的机器人数据混合物包括 9 个实例,少于整个 Open X-Embodiment 数据集(22 个)——造成这种差异的实际原因是,我们随着时间的推移不断扩展数据集,而在实验时,上述数据集代表了所有数据。今后,我们计划继续在扩展版本的数据集上训练策略,并与机器人学习社区一起不断扩大数据集。

推理时,每个模型以机器人所需的速率(3-10 Hz)运行,RT-1 在本地运行,RT-2 托管在云服务上并通过网络查询

V. EXPERIMENTAL RESULTS

我们的实验回答了有关 X-embodiment 训练效果的三个问题:

  • 1)在我们的 X-embodiment 数据集上训练的策略能否有效地实现正迁移,从而在多个机器人上收集的数据上进行联合训练,提高训练任务的性能?
  • 2)对来自多个平台和任务的数据进行联合训练是否能提高模型对新的、未见过的任务的泛化能力?
  • 3)不同的设计维度(如模型大小、模型架构或数据集组成)对所产生策略的性能和泛化能力有何影响?

为了回答这些问题,我们对 6 种不同的机器人进行了总计 3600 次评估试验。

A. In-distribution performance across different embodiments

在这里插入图片描述

为了评估我们的 RT-X 模型变体从 X-embodiment 数据中学习的能力,我们评估了它们在分布任务中的性能。我们将评估分为两类用例:

  • 一类是对只有小规模数据集的领域进行评估(图 4),我们期望从更大规模数据集迁移数据能显著提高性能;
  • 另一类是对拥有大规模数据集的领域进行评估(表 I),我们期望进一步提高性能更具挑战性。

请注意,我们在本节介绍的所有评估中使用了相同的机器人数据训练混合物(定义见第四章 C 节)。

  • 在小规模数据集实验中,我们考虑了 Kitchen Manipulation [128]、Cable Routing [129]、NYU Door Opening [130]、AUTOLab UR5 [132] 和 Robot Play [134]。我们使用了与相关出版物中相同的评估和具身机器人方式。
  • 在大规模数据集实验中,我们考虑使用 Bridge [95] 和 RT-1 [8] 进行分布式评估,并使用它们各自的机器人:WidowX 和 Google Robot。

对于每个小型数据集域,我们比较 RT-1-X 模型的性能;对于每个大型数据集,我们同时考虑 RT-1-X 和 RT-2-X 模型。在所有实验中,模型都是在完整的 X-embodiment 数据集上共同训练的。在整个评估过程中,我们与两个基准模型进行了比较:

  • 1)数据集创建者开发的模型,仅在该数据集上进行了训练。这构成了一个合理的基准,因为我们可以预期该模型已经过优化,可以很好地处理相关数据;我们将该基准模型称为原始方法模型。
  • 2)在数据集上单独训练的 RT-1 模型;这一基线允许我们评估 RT-X 模型架构是否有足够能力同时代表多个不同机器人平台的策略,以及在多实验数据上进行联合训练是否会带来更高的性能。

Small-scale dataset domains (Fig. 4).

在 5 个数据集中的 4 个数据集上,RT-1-X 的表现优于在每个机器人特定数据集上训练的原始方法,平均改进幅度较大,这表明数据有限的领域从 X-embodiment 数据的联合训练中获益匪浅。

Large-scale dataset domains (Table I).

在大规模数据集设置中,RT-1-X 模型的表现并不优于仅在特定化身数据集上训练的 RT-1 基线模型,这表明该模型类别拟合不足。不过,更大的 RT-2-X 模型的表现优于原始方法和 RT-1,这表明 X-robot训练可以提高数据丰富领域的性能,但前提是必须使用足够大容量的架构。

在这里插入图片描述

B. Improved generalization to out-of-distribution settings

现在,我们将研究 X-embodiment 训练如何能够更好地推广到分布外环境以及更复杂、更新颖的指令。这些实验侧重于高数据域,并使用 RT-2-X 模型。

Unseen objects, backgrounds and environments.

我们首先进行了与 [9] 中提出的相同的泛化特性评估,测试了在未知环境和未知背景下操作未知物体的能力。我们发现 RT-2 和 RT-2-X 的表现大致相当(表 II,第(1)和(2)行,最后一列)。这并不出乎意料,因为 RT-2 在这些维度上的通用性已经很好(见 [9]),这得益于其 VLM 骨干。

在这里插入图片描述

Emergent skills evaluation.

为了研究机器人之间的知识迁移,我们使用谷歌机器人进行了实验,评估其在图 5 所示任务中的表现。这些任务涉及的物体和技能在 RT-2 数据集中并不存在,但在不同机器人(WidowX-robot)的 Bridge 数据集中出现过[95]。结果如表二新兴技能评估一栏所示。比较第(1)行和第(2)行,我们发现 RT-2-X 比 RT-2 高出 ∼ 3 倍,这表明,将其他机器人的数据纳入训练,即使机器人已经拥有大量可用数据,也能提高可执行任务的范围。我们的结果表明,使用其他平台的数据进行联合训练为 RT-2-X 控制器注入了该平台的额外技能,而这些技能在该平台的原始数据集中并不存在。

我们的下一步工作是将 Bridge 数据集从 RT-2-X 训练中移除:第(3)行显示的是 RT-2-X 的结果,其中包括 RT-2-X 使用的所有数据,但 Bridge 数据集除外。这种变化大大降低了在保持任务上的性能,表明 WidowX 数据的迁移可能确实是 RT-2-X 与谷歌机器人一起执行额外技能的原因。

C. Design decisions

最后,我们进行了消融,以衡量不同设计决策对性能最好的 RT-2-X 模型的泛化能力的影响,结果如表 II 所示。我们注意到,包含短历史图像可显著提高泛化性能(第(4)行与第(5)行)。与 RT-2 论文[9]中的结论类似,基于网络的模型预训练对于大型模型实现高性能至关重要(第(4)行与第(6)行)。我们还注意到,与 5B 模型相比(第(2)行与第(4)行),55B 模型在 “新兴技能” 项目中的成功率明显更高,这表明模型容量越大,跨机器人数据集的迁移程度就越高。与以前的 RT-2 研究结果相反,共同微调和微调在新兴技能和泛化评估中的表现相似(第(4)行与第(7)行),我们将其归因于 RT-2-X 中使用的机器人数据比以前使用的机器人数据集更加多样化。

在这里插入图片描述

VI. DISCUSSION, FUTURE WORK, AND OPEN PROBLEMS

我们展示了一个综合数据集,该数据集综合了 21 家机构合作收集的 22 种机器人的数据,展示了 527 种技能(160266 项任务)。我们还通过实验证明,在这些数据上训练出来的基于 Transformer 的策略可以在数据集中的不同机器人之间实现显著的正迁移。我们的结果表明,RT-1-X 策略的成功率比不同合作机构提供的最先进的原始方法高出 50%,而更大的基于视觉语言模型的版本(RT-2-X)与仅在评估体现数据上训练的模型相比,通用性提高了 ∼ 3 倍。此外,我们还为机器人社区提供了探索 X-embodiment 机器人学习研究的多种资源,包括:统一的 X-robot 和 X-institution 数据集、展示如何使用这些数据的示例代码,以及作为未来探索基础的 RT-1-X 模型。

虽然 RT-X 展示了向 X-robot 通才迈出的一步,但要将这一未来变为现实,还需要采取更多措施。我们的实验有许多局限性:

  • 没有考虑具有截然不同的感知和执行模态的机器人
  • 没有研究对新机器人的泛化
  • 没有提供何时发生或不发生正向迁移的判定标准

研究这些问题是未来工作的一个重要方向。我们希望这项工作不仅能作为 X-robot 学习可行且实用的范例,还能为今后推进该方向的研究提供工具。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1320874.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

力扣日记12.18-【二叉树篇】合并二叉树

力扣日记:【二叉树篇】合并二叉树 日期:2023.12.18 参考:代码随想录、力扣 617. 合并二叉树 题目描述 难度:简单 给你两棵二叉树: root1 和 root2 。 想象一下,当你将其中一棵覆盖到另一棵之上时&#xf…

公共字段自动填充——后端

场景:当处理一些请求时,会重复的对数据库的某些字段进行赋值(如:在插入和更新某个物品时,需要更新该物品的更新时间和更新者的信息),这样会导致代码冗余。 如: 思路: 自…

Arma3/武装突袭3东风战役最后一关游戏无法保存的解决办法

Arma3这个游戏玩进去还是非常有可玩性的,可是在玩过了它本体自带的东风系列战役后,在最精髓的最后一关——game over这个关卡,却有个非常头疼的问题。 逃跑其实是非常简单的,但是想要无伤环游全岛确十分困难,因为这关卡…

探索人工智能中的语言模型:原理、应用与未来发展

导言 语言模型在人工智能领域中扮演着重要的角色,它不仅是自然语言处理的基础,也是许多智能系统的核心。本文将深入研究语言模型的原理、广泛应用以及未来发展趋势。 1. 语言模型的原理 统计语言模型: 基于概率统计的传统语言模型&…

云原生之深入解析如何在K8S环境中使用Prometheus来监控CoreDNS指标

一、什么是 Kubernetes CoreDNS? CoreDNS 是 Kubernetes 环境的DNS add-on 组件,它是在控制平面节点中运行的组件之一,使其正常运行和响应是 Kubernetes 集群正常运行的关键。DNS 是每个体系结构中最敏感和最重要的服务之一。应用程序、微服…

redis:六、数据过期删除策略(惰性删除、定期删除)和基于redisson实现的分布式锁(看门狗机制、主从一致性)和面试模板

数据过期删除策略 Redis的过期删除策略:惰性删除 定期删除两种策略进行配合使用 惰性删除 惰性删除:设置该key过期时间后,我们不去管它,当需要该key时,我们在检查其是否过期,如果过期,我们就…

转载: iOS 优雅的处理网络数据

转载: iOS 优雅的处理网络数据 原文链接:https://juejin.cn/post/6952682593372340237 相信大家平时在用 App 的时候, 往往有过这样的体验,那就是加载网络数据等待的时间过于漫长,滚动浏览时伴随着卡顿,甚至在没有网…

NLP论文阅读记录-ACL 2023 | 10 Best-k Search Algorithm for Neural Text Generation

文章目录 前言0、论文摘要一、Introduction1.1目标问题1.2相关的尝试1.3本文贡献 二.相关工作2.1优势2.2 挑战 三.本文方法3.1 并行探索3.2 时间衰变3.3堆修剪3.4 模型得分 四 实验效果4.1数据集4.2 对比模型4.3实施细节4.4评估指标4.5 实验结果 五 总结 前言 用于神经文本生成…

【Transformer】Transformer and BERT(1)

文章目录 TransformerBERT 太…完整了!同济大佬唐宇迪博士终于把【Transformer】入门到精通全套课程分享出来了,最新前沿方向 学习笔记 Transformer 无法并行,层数比较少 词向量生成之后,不会变,没有结合语境信息的情…

Transformer Decoder的输入

大部分引用参考了既安的https://www.zhihu.com/question/337886108/answer/893002189这篇文章,个人认为写的很清晰,此外补充了一些自己的笔记。 弄清楚Decoder的输入输出,关键在于图示三个箭头的位置: 以翻译为例: 输…

支持向量机(SVM):高效分类的强大工具

文章目录 前言1. SVM的基本原理1.1 核心思想1.2 支持向量1.3 最大化建模1.4 松弛变量1.5 核函数 2. SVM与逻辑回归的区别和联系2.1 区别2.2 联系 3. SVM的应用领域3.1 图像分类3.2 文本分类3.3 生物信息学3.4 金融领域3.5 医学诊断 4. SVM的优势与挑战4.1 优势4.1.1 非线性分类…

分布式理论 | RPC | Spring Boot 整合 Dubbo + ZooKeeper

一、基础 分布式理论 什么是分布式系统? 在《分布式系统原理与范型》一书中有如下定义:“分布式系统是若干独立计算机的集合,这些计算机对于用户来说就像单个相关系统”; 分布式系统是由一组通过网络进行通信、为了完成共同的…

【02】GeoScene海图生产环境创建

1.1 海图生产环境 GeoScene中的企业级海事制图由中央航海信息系统数据库(NIS库)来处理,将之前传统桌面产品库(PL库)产品管理方面的能力已经移植到NIS数据库,以ProductDefinitions、ProductCoverage、Produ…

主从reactor多线程实现

现场模型图片,从网上找的 出于学习的目的实现的,如有不对的地方欢迎留言知道,简单实现了http的请求,可通过postman进行访问 启动项目: 返回数据示例 postman请求 附上源码,有问题直接看源码吧

低代码工作流,在业务场景下启动流程节点绑定的具体步骤与注意事项

在业务管理的场景下,存在先做了对应的数据管理,后续增加管理的规范度,“在业务数据变化时发起流程”的需求,那么这种情况下就需要在业务管理(列表页、表单)中发起流程,让业务模型使用流程配置&a…

[23] GaussianAvatars: Photorealistic Head Avatars with Rigged 3D Gaussians

[paper | proj] 给定FLAME,基于每个三角面片中心初始化一个3D Gaussian(3DGS);当FLAME mesh被驱动时,3DGS根据它的父亲三角面片,做平移、旋转和缩放变化;3DGS可以视作mesh上的辐射场&#xff1…

Python3中_和__的用途和区别

目录 一、_(下划线) 1、临时变量: 2、未使用的变量: 二、__(双下划线) 1、私有属性: 2、私有方法: 三、__的一些特殊用途。 总结 Python3中的_和__是两个特殊的标识符&#…

大语言模型加速信创软件 IDE 技术革新

QCon 全球软件开发大会(上海站)将于 12 月 28-29 日举办,会议特别策划「智能化信创软件 IDE」专题,邀请到华为云开发工具和效率领域首席专家、华为软件开发生产线 CodeArts 首席技术总监王亚伟担任专题出品人,为专题质…

云原生之深入解析减少Docker镜像大小的优化技巧

一、什么是 Docker? Docker 是一种容器引擎,可以在容器内运行一段代码,Docker 镜像是在任何地方运行应用程序而无需担心应用程序依赖性的方式。要构建镜像,docker 使用一个名为 Dockerfile 的文件,Dockerfile 是一个包…

linux系统和网络(一):文件IO

本文主要探讨linux系统编程的文件IO相关知识。 文件IO 文件存在块设备中为静态文件,open打开文件,内核在进程中建立打开文件的数据结构在内存中用于记录文件的文件参数,开辟一段内存用于存放内容,将静态文件转为动态文件 打开文件后对文件的读写操作都为对动态…