【微软:多模态基础模型】(1)从专家到通用助手

news2024/12/21 11:55:50

欢迎关注【youcans的AGI学习笔记】原创作品
【微软:多模态基础模型】(1)从专家到通用助手
【微软:多模态基础模型】(2)视觉理解
【微软:多模态基础模型】(3)视觉生成
【微软:多模态基础模型】(4)统一视觉模型

【微软:多模态基础模型】(1)从专家到通用助手

    • Multimodal Foundation Models: From Specialists to General-Purpose Assistants
    • 0. 摘要
    • 1. 总体介绍
      • 1.1 什么是多模态基础模型
      • 1.2 从专家到通用助理的定义与转变
      • 1.3 谁应该阅读这篇论文?
      • 1.4 相关材料:幻灯片和预先录制的演讲

Multimodal Foundation Models: From Specialists to General-Purpose Assistants


2023 年 6 月,微软在 CVPR2023 发表论文「 多模态基础模型:从专家到通用助手 」(Multimodal Foundation Models: From Specialists to General-Purpose Assistants) 。本文全面综述了多模态基础模型的分类和演化,这些模型展示了视觉和视觉语言能力,并重点关注了从专家向通用助手的过渡。

  • arXiv 下载地址:
    https://arxiv.org/abs/2309.10020
    https://ar5iv.labs.arxiv.org/html/2309.10020

在这里插入图片描述

本系列介绍该文的主要内容。


0. 摘要

Abstract

本论文全面综述了多模态基础模型的分类和演化,这些模型展示了视觉和视觉语言能力,并重点关注了从专家模型向通用助手的过渡。论文包括五个核心主题。

  • 首先对成熟的研究领域进行了调查:为特定目的预先训练的多模态基础模型。包括两个主题:
    • (1)学习视觉理解的视觉骨干方法,
    • (2)文本到图像的生成。
  • 然后介绍了探索性开放研究领域的最新进展:旨在发挥通用助手作用的多模态基础模型。包括三个主题:
    • (1)受大型语言模型(LLM)启发的统一视觉模型;
    • (2)多模态LLM的端到端训练;
    • (3)将多模态工具与LLM链接起来。

本文的目标受众是计算机视觉和视觉语言多模态领域,对学习多模态基础模型的基础知识和最新进展感兴趣的研究人员、研究生和专业人员。


1. 总体介绍

Chapter 1 Introduction

在这里插入图片描述

视觉是人类和许多生物感知世界和与世界互动的一个主要渠道。人工智能(AI)的一个核心愿望是开发 AI 代理,来模仿这种有效感知和生成视觉信号的能力,从而在视觉世界中进行推理和互动。例如,识别场景中的对象和动作,创建用于交流的草图和图片。构建具有视觉能力的基础模型是一个旨在实现这一目标的热门研究领域。

在过去的十年里,人工智能领域在模型开发方面经历了富有成效的发展轨迹。我们将它们分为四类,如图1.1所示。这种分类可以在人工智能的不同领域之间共享,包括语言、视觉和多模态。我们首先使用NLP中的语言模型来说明进化过程。

  • (1)在早期,针对单个数据集和任务开发了特定任务的模型,通常是从头开始训练的。
  • (2)通过大规模的预训练,语言模型在许多既定的语言理解和生成任务上实现了最先进的性能,如BERT(Devlin等,2019)、RoBERTa(Liu等,2019),T5(Raffel等,2020)、DeBERTa(He等,2021)和GPT-2(Radford等,2019)。这些预训练模型为下游任务适应提供了基础。
  • (3)以GPT-3(Brown等,2020)为例,大型语言模型(LLM)将各种语言理解和生成任务统一到一个模型中。随着网络规模的训练和统一,一些新兴的能力出现了,比如上下文学习和思维链。
  • (4)随着人工智能与人类对齐的最新进展,LLM 开始扮演通用助手的角色,以遵循人类意图完成各种各样的语言任务,如ChatGPT(OpenAI,2022)和GPT-4(OpenAI,2023)。这些助手展现出有趣的能力,如交互和使用工具,并为开发通用AI代理奠定了基础。值得注意的是,基础模型的最新版本在保留早期版本的显著特性的基础上,也提供了额外的功能。

在这里插入图片描述

图1.1:语言和视觉/多模态的基础模型发展路线图。在这四个类别中,第一类是任务特定模型,后三类属于基础模型,这些语言和视觉的基础模型分别分为绿色和蓝色块。突出显示了每个类别中模型的一些突出特性。通过比较语言和视觉之间的模型,我们预测多模态基础模型的转变遵循类似的趋势:从用于特定目的的预训练模型到统一模型和通用助手。然而,由于多模态GPT-4和Gemini并未公开,需要进行研究探索以找出最佳方案,图中以问号表示。

受到自然语言处理(NLP)中LLM的巨大成功的启发,计算机视觉和视觉语言领域的研究人员自然会提出这样一个问题:在视觉、视觉语言和多模态模型领域,与 ChatGPT/GPT-4 相对应的模型是什么?

毫无疑问,自BERT诞生以来,视觉预训练和视觉语言预训练(VLP)引起了越来越多的关注,并已成为视觉的主流学习范式,有望学习通用的可转移视觉和视觉语言表示,或生成高度可信的图像。可以说,它们可以被视为多模态基础模型的早期一代,就像BERT/GPT-2在语言领域一样。虽然为ChatGPT 等语言构建通用助手的路线图很明确,但对于计算机视觉领域,探索构建计算机视觉领域的对应技术——通用视觉助手的可行解决方案越来越重要。

总体而言,构建通用代理一直是人工智能的长期目标。具有新兴特性的LLM大大降低了为语言任务构建此类代理的成本。同样,我们预见到视觉模型的新兴能力,例如遵循由各种视觉提示组成的指令,如用户上传的图像、人类绘制的点击、草图和掩码,以及文本提示。如此强大的零样本视觉任务合成能力,可以显著降低人工智能代理的构建成本。

本文将多模态基础模型的范围限定在视觉和视觉语言领域。最近关于相关主题的综述包括:

  • 图像理解模型
    如自监督学习(Jaiswal等,2020;Jing,2020;Ozbulak等,2023)、分割一切(SAM)(Zhang等,2023);
  • 图像生成模型
    (Zhang等,2023b;Zhou和Shimada,2023);
  • 视觉语言预训练(VLP)
    现有的VLP 综述涵盖了预训练、图像文本任务、核心视觉任务和/或视频文本任务时代之前针对特定任务VL问题的VLP方法(Zhang等,2020;Du等,2022;Li等,2022c;Ruan,2022;Chen等,2022a;Gan等,2022b;Zhang等,2023g)。最近两篇综述涵盖了视觉模型与LLM的集成(Awais人,2023;Yin人,2022)。其中,Gan等(2022)是一项关于VLP的综述,涵盖了2022年及之前CVPR 关于视觉和语言研究最新进展。

本文总结了2023年 CVPR 视觉基础模型的最新进展。与上述专注于特定研究主题的文献综述不同,本文提出了我们对大型语言模型时代 多模态基础模型从专家模型到通用视觉助手(AGI)的角色转变的看法。

本调查论文的贡献总结如下。

  • 我们提供了一份全面而及时的 多模态基础模型的综述,不仅涵盖了 视觉表示学习 和 图像生成 的成熟模型,还总结了过去6个月受LLM启发的新兴主题,包括:统一视觉模型、与 LLM 的训练和链接。
  • 本文旨在为受众提供一个视角,倡导在开发多模态基础模型方面进行转型。除了在特定视觉问题上取得巨大的建模成功之外,我们还在朝着构建通用助手的方向发展。这些助手可以遵循人类的意图,在野外完成各种计算机视觉任务。我们对这些高级主题进行了深入讨论,展示了开发通用视觉助手的潜力。

1.1 什么是多模态基础模型

1.1 What are Multimodal Foundation Models?

正如斯坦福基础模型论文(Bommasani等,2021)所阐述,随着在广泛数据上训练的模型(例如,BERT、GPT家族、CLIP(Radford等,2021)和DALL-E(Ramesh等,2021a)的崛起,人工智能正在经历一场范式转变——这些模型可以适应广泛的下游任务。他们将这些模型称为基础模型,以强调它们的关键中心但不完整的特性:研究社区方法的同质化和新能力的出现。从技术角度来看,是迁移学习使基础模型成为可能,而规模使它们变得强大。
基础模型的出现主要在NLP领域观察到,从BERT到ChatGPT都有例子。这一趋势近年来获得了推广,扩展到计算机视觉和其他领域。在NLP领域,BERT于2018年的引入被视为基础模型时代的开始。BERT的显著成功迅速激发了计算机视觉社区对自监督学习的兴趣,产生了诸如SimCLR(Chen等,2020a)、MoCo(He等,2020)、BEiT(Bao等,2022)和MAE(He等,2022a)等模型。与此同时,预训练的成功也显著促进了视觉与语言多模态领域的关注,达到了前所未有的水平。

在本文中,我们关注多模态基础模型,它们继承了斯坦福论文(Bommasani等,2021)中讨论的所有基础模型的特性,但强调具有处理视觉和视觉语言模态的能力的模型。在不断增长的文献中,我们根据它们的功能和普适性将多模态基础模型分类如图1.2所示。对于每个类别,我们呈现了示例模型,展示了这些多模态基础模型固有的主要能力。

在这里插入图片描述

图1.2:本文中多模态基础模型旨在解决的三个代表性问题的说明:视觉理解任务、视觉生成任务和具有语言理解和生成功能的通用界面

  • 视觉理解模型。(在图1.2中用橙色标出)
    学习通用的视觉表示对于构建视觉基础模型至关重要,因为预训练强大的视觉主干对所有类型的计算机视觉下游任务都是基本的,从图像级别(例如,图像分类、检索和字幕生成),到区域级别(例如,检测和定位),再到像素级别任务(例如,分割)。
    我们根据用于训练模型的监督信号的类型,将这些方法分为三类。

    • 标签监督
      如 ImageNet(Krizhevsky等,2012)和 ImageNet21K(Ridnik等,2021)这样的数据集一直以来都在监督学习中很受欢迎,而在工业实验室中也使用了更大规模的专有数据集(Sun等,2017;Singh等,2022b;Zhai等,2022a)。

    • 语言监督
      语言是一种更丰富的监督形式。如 CLIP(Radford等,2021)和ALIGN(Jia等,2021)这样的模型是使用对数百万甚至数十亿来自网络的嘈杂图像文本对的对比损失进行预训练的。这些模型可以实现 zero-shot 图像分类,并使传统的计算机视觉(CV)模型执行开放词汇的CV任务。我们提倡“野外计算机视觉”的概念,并鼓励未来基础模型的发展和评估。

    • 图像自监督
      这一领域的研究旨在从图像本身挖掘的监督信号中学习图像表示,包括对比学习(Chen等,2020a;He等,2020)、非对比学习(Grill等,2020;Chen,2021;Caron等,2021)以及遮挡图像建模(Bao等,2022;He等,2022a)等方法。

    • 多模态融合、区域级和像素级预训练
      除了预训练图像主干的方法外,我们还将讨论允许多模态融合(例如CoCa(Yu等,2022a)、Flamingo(Alayrac等,2022))以及区域级和像素级图像理解(例如开放集物体检测(例如GLIP(Li等,2022e))和可提示分割(例如SAM(Kirillov等,2023))的预训练方法。这些方法通常依赖于预训练的图像编码器或预训练的图像文本编码器对。

  • 视觉生成模型。(在图1.2中用绿色标出)
    最近,由于大规模图像文本数据的出现,基础图像生成模型已经被构建出来。使这成为可能的技术包括矢量量化的VAE方法(Razavi等,2019)、基于扩散的模型(Dhariwal和Nichol,2021)和自回归模型。

    • 文本条件的视觉生成
      这一研究领域侧重于生成忠实的视觉内容,包括图像、视频等,条件是开放式文本描述/提示。文本到图像生成开发了能够根据文本提示合成高保真图像的生成模型。杰出的示例包括DALL-E(Ramesh等,2021a)、DALL-E 2(Ramesh等,2022)、Stable Diffusion(Rombach等,2021;sta,2022)、Imagen(Saharia等,2022)和Parti(Yu等,2022b)。在文本到图像生成模型取得成功的基础上,文本到视频生成模型根据文本提示生成视频,例如Imagen Video(Ho等,2022)和Make-A-Video(Singer等,2022)。

    • 与人类对齐的视觉生成器
      这一研究领域侧重于改进预训练的视觉生成器,以更好地遵循人类意图。已经在解决基础视觉生成器固有挑战的各个方面付出了努力。这些挑战包括提高空间可控性(Zhang和Agrawala,2023;Yang等,2023b)、确保更好地遵循文本提示(Black等,2023)、支持灵活的基于文本的编辑(Brooks等,2023)以及促进视觉概念的定制(Ruiz等,2023)。

  • 通用视觉模型。(图1.2中以蓝色突出显示)
    上述多模态基础模型是为特定目的而设计的,即解决一组特定的CV问题/任务。最近,我们看到了为人工智能代理奠定基础的通用模型的出现。现有的工作集中在三个主题:第一个主题旨在统一视觉理解和生成的模型。这些模型受到NLP中LLM统一精神的启发,但在建模中没有明确利用预训练的LLM。另外两个主题分别包含并涉及LLM建模,包括LLM的训练和链接。

    • 用于理解和生成的统一视觉模型
      在计算机视觉领域,已经尝试了多种方法,通过结合特定用途的多模态模型的功能来构建通用基础模型。为此,采用了各种下游计算机视觉和视觉语言(VL)任务的统一模型架构。
      统一有不同的层次。首先,一种普遍的努力是通过将所有封闭集视觉任务转化为开放集任务来构建视觉和语言之间的桥梁,例如CLIP(Radford等,2021),GLIP(Li等,2022f),OpenSeg(Ghiasi等,2022a)等。其次,还积极探索了不同粒度级别上不同VL理解任务的统一,例如I/O统一方法,如UniTAB(Yang等,2021),Unified-IO(Lu等,2022a),Pix2Seq-v2(Chen等,2022d),以及功能统一方法,如GPV(Gupta等,2022a),GLIP-v2(Zhang等,2022b)和X-Decoder(Zou等,2023a)。最后,还需要使模型更具交互性和可提示性,就像ChatGPT一样,这最近在SAM(Kirillov等,2023)和SEEM(Zou等,2023)中进行了研究。

    • 与LLM一起训练
      类似于LLM的行为,LLM可以通过遵循指令并处理任务的文本提示中的示例来解决语言任务。因此,我们希望开发一个视觉和文本界面来引导模型解决多模态任务。通过将LLM的能力扩展到多模态设置并进行端到端的训练,开发了多模态LLM或大型多模态模型,包括Flamingo(Alayrac等,2022)和Multimodal GPT-4(OpenAI,2023a)。

    • 利用 LLM 链接工具
      利用LLM的工具使用能力,越来越多的研究将LLM(如ChatGPT)与各种多模态基础模型集成在一起,通过对话界面促进图像理解和生成。这种跨学科方法结合了NLP和计算机视觉的优势,使研究人员能够开发更强大、更多功能的AI系统,能够通过人机对话处理视觉信息并生成类似人类的响应。代表作品包括 Visual ChatGPT(Wu等,2023a)和MM-REACT(Yang等,2023)。


1.2 从专家到通用助理的定义与转变

1.2 Definition and Transition from Specialists to General-Purpose Assistants

根据自然语言处理(NLP)中的模型发展历史和分类,我们将图 1.2 中的多模式基础模型分为两类:

  • 特定目的预训练视觉模型
    涵盖了大多数现有的多模式基础模型,包括视觉理解模型(例如CLIP [Radford等人,2021]、SimCLR [Chen等人,2020a]、BEiT [Bao等人,2022]、SAM [Kirillov等人,2023])和视觉生成模型(例如稳定扩散[Rombach等人,2021;sta,2022])。它们具有针对特定视觉问题(任务)的强大的迁移能力。

  • 通用助手
    能够理解人类意图并完成各种计算机视觉任务的AI助手。通用助手的含义有两个方面:(1)具有统一架构,能够完成不同类型的任务;(2)易于遵循人类指令,而不是取代人类。
    为了实现这一目标,已经积极探索了几个研究主题,包括统一的视觉建模(Lu等,2022a;Zhang等,2022b;Zou等,2023a)、基于LLM的训练和链接(Liu等,2023c;Zhu等,2023b;Wu等,2033a;Yang等,2023)。


1.3 谁应该阅读这篇论文?

1.3 Who Should Read this Paper?

本文文基于 CVPR 2023(https://vlp-tutorial.github.io/2023/index.html)的教程,面向计算机视觉和视觉语言多模态社区的研究人员作为我们的主要目标受众。它回顾了文献并向那些希望了解多模态基础模型的基础知识和最新进展的人解释相关主题。目标受众包括研究生、研究人员和不是多模态基础模型专家但渴望发展视角并了解该领域趋势的专业人员。

本文的结构如图1.3所示,包括7个章节。

  • 第1章:介绍了多模态基础模型研究的领域,并呈现了研究从专家向通用助手的转变的历史视角。
  • 第2章:介绍了不同使用视觉数据的方式,重点关注如何学习强大的图像骨干。
  • 第3章:描述了如何生成与人类意图相符的视觉数据。
  • 第4章:描述了如何设计统一的视觉模型,具有交互式和可提示的界面,尤其是在没有使用LLM时。
  • 第5章:描述了如何以端到端的方式训练LLM以处理视觉输入进行理解和推理。
  • 第6章:描述了如何将多模态工具与LLM链接在一起以实现新的功能。
  • 第7章:总结了本文并讨论了研究趋势。

在这里插入图片描述

第2章至第6章是本综述论文的核心章节。在图1.3中提供了这些章节结构的概述。我们从讨论特定任务的两种典型多模式基础模型开始,包括第2章中的视觉理解和第3章中的视觉生成。
由于多模态基础模型的概念最初是基于用于理解任务的视觉主干/表示学习,因此我们首先全面回顾了图像主干学习方法的演变,从早期的监督方法到最近的语言-图像对比方法,并将图像表示的讨论从图像级别扩展到区域级别和像素级别(第2章)。
最近,生成型AI越来越受欢迎,因此开发了视觉生成基础模型。在第3章中,我们讨论了大型预训练的文本到图像模型以及社区如何利用生成基础模型开发新技术,使它们更好地与人的意图保持一致。
受到自然语言处理领域最新进展的启发,其中LLMs在日常生活中为各种语言任务提供通用助手的思想,计算机视觉社区一直在期望并尝试构建通用的视觉助手。我们讨论了构建通用助手的三种不同方法。受LLMs精神启发,第4章侧重于统一不同的视觉理解和生成模型,而无需在建模中明确引入LLMs。
第5章和第6章侧重于在建模中明确增强LLMs的方式,以构建通用的视觉助手。具体而言,第5章描述了端到端训练方法,而第6章则侧重于无需训练即可将各种视觉模型与LLMs连接起来的方法。

如何阅读本文?不同的读者具有不同的背景和阅读目的。以下是一些建议:

  1. 每一章基本上都是独立的。如果您有明确的目标和特定的研究方向,可以直接跳到相应的章节。例如,如果您有兴趣使用OpenAI的多模态GPT-4构建一个迷你原型,可以直接跳到第5章。
  2. 如果您是多模态基础模型的新手,并且有兴趣了解尖端研究,强烈建议您按顺序逐章阅读整篇论文,因为早期的章节为后续章节奠定了基础,每一章介绍了关键概念,帮助您理解基本思想,并提供了全面的文献综述,帮助您把握当前的研究现状和发展趋势。
  3. 如果您已经在多模态基础模型方面有丰富的经验,并且熟悉相关文献,可以直接跳到您想阅读的特定章节。大多数章节包括关于高级主题的部分,并且有时会根据最新的文献提供我们自己的观点。例如,在第6章中,我们讨论了多模态代理在工具使用方面的若干重要方面,包括工具的创建以及与检索增强方法的联系。

1.4 相关材料:幻灯片和预先录制的演讲

1.4 Related Materials: Slide Decks and Pre-recorded Talks

这篇综述论文扩展了我们在CVPR 2023教程中所呈现的内容,涵盖了该领域最新的进展。下面,我们提供了与每一章的主题相关的幻灯片和预录演讲的列表,供参考。

  • 第2章:视觉和视觉/语言预训练 Slide, Bilibili

  • 第3章:文本到图像生成中的对齐 Slide, Bilibili

  • 第4章:从表示到接口:视觉理解基础的演变 Slide, Bilibili

  • 第5章:多模态大模型 Slide, Bilibili

  • 第6章:多模态代理:多模态专家与大语言模型的链接 Slide, Bilibili

下载地址:https://vlp-tutorial.github.io/2023/

在这里插入图片描述


Large Multimodal Models: Notes on CVPR 2023 Tutorial


【本节完,待续】


参考资料:
Chuanyuan Li, Zhe Gan, Zhengyuan Yang, et al., Multimodal Foundation Models: From Specialists to General-Purpose Assistants, Microsoft Corporation, arxiv.org/html/2309.10020 v1


版权声明:

youcans@xidian 作品,转载必须标注原文链接:
【微软报告:多模态基础模型】(1)从专家模型到通用助手 https://blog.csdn.net/youcans/category_12244543.html

Copyright 2024 youcans, XIDIAN
Crated:2024-11

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2242150.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

学习threejs,使用第一视角控制器FirstPersonControls控制相机

👨‍⚕️ 主页: gis分享者 👨‍⚕️ 感谢各位大佬 点赞👍 收藏⭐ 留言📝 加关注✅! 👨‍⚕️ 收录于专栏:threejs gis工程师 文章目录 一、🍀前言1.1 ☘️第一视角控制器FirstPerson…

GitLab 降级安装出现 500 错误,如何解决?

本文分享 GitLab 中文版在降级的过程中出现 500 错误的修复方法。 写在前面 强烈不建议大家自行降级,如果真有降级需求,要么自己能力过硬,要么寻求专业服务【https://dl.gitlab.cn/cm33bsfv】,要不出问题很麻烦! 问…

《Representing Scenes asNeural Radiance Fields for View Synthesis》论文解析——NeRF

一、论文简介 NeRF这篇论文提出了一种通过优化一个连续的5D体积场景函数来合成复杂场景新视图的方法。该算法使用一个全连接的深度网络来表示场景,输入是单一连续的5D坐标(空间位置和观察方向),输出是该位置的体积密度和依赖于观察…

精通rust宏系列教程-调试过程宏

Rust过程性宏是该语言最令人兴奋的特性之一。它们让你能够在编译时注入代码,但与单态泛型所使用的方法不同。使用非常特殊的包(crate),让你可以完全从头开始构建新代码。本文从简单示例开始,逐步分解,也会详…

035_Progress_Dialog_in_Matlab中的进度条对话框

进度条 概念 在使用Matlab开发界面时,有一个很好用的工具就是进度条。在计算过程中,为用户提供计算进度的反馈是改善用户体验的重要手段。 一项进行的计算任务,如果其总体进度是比较容易量化,则可以按照0%~100%的方式&#xff0…

动态规划:计算技术中的核心【精确与效率并存】

写在前面 博客来源:翻译自youtube高赞技术视频,并精加工和细化。 适合阅读:想要搞懂动态规划的小伙伴~ 动态规划是一项杰出的计算技术,它既保留了穷举法的精确性,又吸收了贪心算法的高效率。 它主要应用于两个领域…

【JavaSE线程知识总结】

多线程 一.创建线程1.多线程创建方式一(Thread)2.多线程创键方式二(Runnable)3.线程创建方式三 二.线程安全问题解决办法1.使用同步代码块synchornized 2 .使用Lock解决线程安全问题 三.总结 线程就是程序内部的一条执行流程 一.创建线程 常用的方法 Thread.currentThread()…

Leetcode - 周赛423

目录 一,3349. 检测相邻递增子数组 I 二,3350. 检测相邻递增子数组 II 三,3351. 好子序列的元素之和 四,3352. 统计小于 N 的 K 可约简整数 一,3349. 检测相邻递增子数组 I 本题有两种做法: 先求出递增…

boost之property

简介 property在boost.graph中有使用,用于表示点属性或者边属性 结构 #mermaid-svg-56YI0wFLPH0wixrJ {font-family:"trebuchet ms",verdana,arial,sans-serif;font-size:16px;fill:#333;}#mermaid-svg-56YI0wFLPH0wixrJ .error-icon{fill:#552222;}#me…

【英特尔IA-32架构软件开发者开发手册第3卷:系统编程指南】2001年版翻译,2-25

文件下载与邀请翻译者 学习英特尔开发手册,最好手里这个手册文件。原版是PDF文件。点击下方链接了解下载方法。 讲解下载英特尔开发手册的文章 翻译英特尔开发手册,会是一件耗时费力的工作。如果有愿意和我一起来做这件事的,那么&#xff…

paddle表格识别数据制作

数据格式 其中主要数据有两个一个表格结构的检测框&#xff0c;一个是tokens&#xff0c;注意的地方是 1、只能使用双引号&#xff0c;单引号不行 2、使用带引号的地方是tokens里面 "<tr>", "<td", " colspan2", ">",&quo…

Java 全栈知识体系

包含: Java 基础, Java 部分源码, JVM, Spring, Spring Boot, Spring Cloud, 数据库原理, MySQL, ElasticSearch, MongoDB, Docker, k8s, CI&CD, Linux, DevOps, 分布式, 中间件, 开发工具, Git, IDE, 源码阅读&#xff0c;读书笔记, 开源项目...

WebRTC视频 04 - 视频采集类 VideoCaptureDS 中篇

WebRTC视频 01 - 视频采集整体架构 WebRTC视频 02 - 视频采集类 VideoCaptureModule WebRTC视频 03 - 视频采集类 VideoCaptureDS 上篇 WebRTC视频 04 - 视频采集类 VideoCaptureDS 中篇&#xff08;本文&#xff09; WebRTC视频 05 - 视频采集类 VideoCaptureDS 下篇 一、前言…

任务调度中心-XXL-JOB使用详解

目录 详解 调度中心 执行器 原理 快速入门 源码仓库地址 1.初始化数据库 2.配置调度中心 1.解压源码 2.需改配置文件 3.启动调度中心 3.配置执行器 1.引入pom依赖 2.修改配置文件 3.执行器组件配置 4.部署执行器项目 4.开发第一个任务 BEAN模式&#xff08;类…

如何搭建一台邮箱服务器,配置满分邮箱

如何搭建一台邮箱服务器,配置满分邮箱 搭建一台个人邮箱服务器听上去非常有技术含量&#xff0c;但只要准备工作充分&#xff0c;并且选择合适的软件&#xff0c;配置满分的邮箱&#xff0c;其实并没有想象中那么困难。在这篇文章中&#xff0c;我们将介绍搭建邮箱服务器的 必备…

C# unity 星期几 年月日控制

参考微软的datetime文档 正常输出是中文的周几&#xff0c;需要中文的星期几可以通过英文转中文实现 实现效果如图所示&#xff1a; 代码如下&#xff1a; public class TimeControl : MonoBehaviour{public TextMeshProUGUI TimeText01;public TextMeshProUGUI TimeText02…

linux病毒编写+vim shell编程

学习视频来自B站UP主泷羽sec&#xff0c;如涉及侵权马上删除文章 感谢泷羽sec 团队的教学 请一定遵循《网络空间安全法》&#xff01;&#xff01;&#xff01; Linux目录介绍 /bin 二进制可执行文件&#xff08;kali里面是工具一些文件&#xff09;/etc 系统的管理和配置文…

C语言和C++的常量概念与区别分析

文章目录 &#x1f4af;前言&#x1f4af;常量的概念和作用&#x1f4af;C语言中 const 的应用与限制#define 和 enum 的使用方法 &#x1f4af;C 中 const 的计算方法和处理&#x1f4af;代码实例和应用区别&#x1f4af;C 和 C 的常量兼容性问题和负载&#x1f4af;分析 C 和…

PCHMI串口接收实验

插入的唯一一行代码 config1.START((Control)this, System.Reflection.Assembly.GetExecutingAssembly().GetTypes(), null);

【链路层】空口数据包详解(4):数据物理通道协议数据单元(PDU)

目录 一、概述 1.1. 头部&#xff08;Header&#xff09;结构 1.2. MIC字段的情况说明 1.3. 有效载荷&#xff08;Payload&#xff09;格式与LLID字段的关联 二、LL Data PDU 2.1. 定义与用途 2.2. 头部字段设置 2.3. 空PDU&#xff08;Empty PDU &#xff09; 2.4. 数…