面向大模型的存储加速方案设计和实践

news2024/10/7 12:25:32

这是 AI 大底座系列云智公开课的第三期内容。前两期我的两位同事已经向大家介绍了高性能网络和 GPU 容器虚拟化的相关内容。今天我们把目光聚焦在存储方向,一起来看看面向大模型的存储加速方案的设计和实践。

今天将从以下三个方面来展开这次分享:

  • 介绍大模型全流程对存储带来的全新挑战;

  • 深入大模型全流程各个环节,看一看有哪些具体的存储问题以及对应的解决思路;

  • 分享百度沧海·存储的加速方案及实践经验。

一、模型对存储的全新挑战

从过去的经典 AI,到今天人人谈论的大模型,我们看到 AI 模型的参数规模呈现出指数级的爆发增长。一方面,大模型的应用效果开始给大家带来非常大的惊喜,另一方面,也给整个基础设施带来巨大的挑战。

其一,模型规模大,训练时间长。一个 175B 参数的模型,万卡同时训练仍然需要长达 22 天。这就要求基础设施提供超高的性能和超长时间的稳定。

其二,大模型要结合具体应用才能发挥巨大的威力。大家今天谈论大模型,不再只停留在模型本身,更多的关注已经聚焦于结合业务的应用落地。面对互联网级的应用迭代,要求我们具备大规模的敏捷部署能力。

第三,大模型离不开持续更新的海量数据,这就需要与整个数据生态互通,让数据能在各个环节便捷地流动。

图片

在这样的背景下,我们来对大模型全流程做一个拆分,大致可以划分为四个主要的环节。

  • 第一是海量数据的存储和处理,包括采集导入、清洗、转换、标注、共享和长期归档,是后面各环节的基础。这里对存储的要求跟以前的大数据应用具有很大的共性,也带有大模型自身的特点,总结起来主要是生态的互通、高吞吐和大容量。

  • 第二是模型开发,讲究效率为王,包括实验管理、交互式开发和效果评估等。对存储的要求更多集中在 POSIX 兼容性、可靠性和可共享等方面。

  • 第三是模型训练。真正做过大模型训练的朋友一定深有体会,每分每秒都是经费在燃烧。所以时间就是金钱,拒绝等待,拒绝失败。这里的主要场景,一是训练数据的读取,二是为了容错做的 checkpoint 的保存和加载。数据集的部分就是要尽量读得快,减少计算对 I/O 的等待,而 checkpoint 主要要求高吞吐、减少训练中断的时间。

  • 最后是模型推理,需要把训练完的模型快速分发部署到线上,产生业务效果。而这个过程会高频、反复发生,既要求高并发、高吞吐,又要求整个流程尽量简单高效。

从这四个环节的分析,我们总结出大模型对存储的第一个挑战:不同环节对存储提出了复杂多样的需求。

图片

进一步,我们又把大模型的各个环节按照业务流程串联起来。整体上可分为大模型应用、数据系统和 AI 系统三大部分。

其中数据系统的部分在过去的大数据应用中大家都比较熟悉了,最终是让数据与应用产生一个正向反馈的闭环。

而加入 AI 系统以后,面临着更多环节的数据流动。首先经过预处理的数据由数据系统流入 AI 系统被加载训练,训练结果进入模型仓库,再由模型仓库部署到线上提供推理服务,而推理效果的相关数据又会回到数据系统,用于下一步的评估和后续迭代。

因此可以看到,大模型应用、数据系统、AI 系统三大部分实际上构成了一个更大的闭环。其中各环节间的衔接,本质上都是对数据广泛、高效流动的需求。这是大模型对于存储的第二个挑战。

接下来,我们就带着这两个挑战,一起来看大模型各环节具体存储问题的解决思路。

图片

二、大模型全流程存储问题的解决思路

我们首先来关注第二个挑战,解决海量数据的存储和流动问题,这是解决其它问题的基础。

当我们把数据系统中,数据流入、处理和流出的具体手段稍作展开,就会发现大模型依赖的数据需要与如此广泛的生态频繁交互,基于原来的本地存储或者自建的小规模商用存储已经无法充分利用这些生态的优势。因此数据湖存储已经成为这里事实上的首选方案。

图片

而数据湖存储其实有两个主要的选择。一是以 HDFS 为代表的分布式文件系统,另一个是对象存储。从两类系统的架构来对比,可以观察到两点:

  1. 其一是扩展能力。HDFS 采用集中式元数据管理,规模相对受限,而对象存储通常采用分布式平坦元数据,具有更强的水平扩展能力,单集群可支持万亿文件、EB 级规模。在我们对于实践的观察中,曾经有业务基于 HDFS 做大模型训练,受限于扩展能力,不得不将海量小文件进行打包存储,在训练时再下载解压,实际上引入了非常多的流程开销;

  2. 其二是成本考量。HDFS 诞生于存算一体的时代,而对象存储天然面向存算分离设计,结合 EC 编码、分级存储等丰富的能力,可以实现大规模数据长期保存的更优成本。

图片

另外,从可用性、吞吐、生态支持等方面来对比,对象存储也具有一定的优势。所以虽然 HDFS 起步较早,但综合来看对象存储才是数据湖存储的更优选择。

图片

尤其是在今天这个云原生的时代,基于对象存储的数据湖更是成为了云上的数据中枢。

图片

带着这个结论回到我们开始的问题,可以看到利用基于对象存储的云原生数据湖就能很好地解决数据系统内各环节的衔接。但是 AI 系统各环节的数据流动和衔接问题,能否也用同一套存储来解决呢?

图片

假如答案是肯定的,那么我们就能得到一个非常统一和简洁的存储架构。最下面是数据湖,上面承接从数据系统到 AI 系统所有环节的需求,数据流动会被大大简化,各环节的衔接运转效率也会得到很大的提升。

而这里的关键就是要接着回答我们最开始提出的第一个挑战,如何用对象存储满足大模型开发、训练、推理等各环节的多样化需求。

图片

首先我们以大家比较关心的模型训练环节为例做一个分析。

对于一个典型的训练来说,可能迭代多轮 epoch。在每个 epoch 内,首先需要对数据集进行随机打散,然后将打散后的数据划分为若干 batch,每读取一个 batch 的数据,进行一次训练迭代。同时会周期性保存 checkpoint 用于故障快速恢复。

图片

如果我们把训练过程进一步展开,可以观察到这样的时序关系。每一轮 epoch 的耗时都是由数据 shuffle、数据读取等待、checkpoint 和真正的训练时间相加得到。因此为了尽量提高训练效率,减少 GPU 的空闲,我们的主要优化就集中在三个思路:

  • 优化 shuffle 过程,尽量将耗时控制在较小比例;

  • 优化读取过程,尽量让每一轮读取数据的耗时小于计算耗时,这样就能让 I/O 时间被计算时间完全隐藏掉;

  • 优化 checkpoint 过程,尽量缩短 checkpoint 耗时,减少训练中断时间。

接下来我们先分析数据的 shuffle 和读取,checkpoint 过程随后再讨论。

图片

如果我们对 shuffle 和读操作进行具体的分析,就会发现,shuffle 是一个纯元数据操作的过程,主要依赖大量文件的 LIST,读取过程则元数据和数据操作都有。

而对于大模型训练用到的 KB 级小文件而言,文件越小,元数据操作的耗时占比也就越高;I/O 越小,延时和 QPS 越超过吞吐成为主要矛盾。因此,对于小文件的 shuffle 和读取,延时和 QPS 是提升性能的关键。

图片

分析完典型的训练过程以后,我们再来看对象存储面对小文件时有哪些影响性能的因素。

其一,元数据方面,对象存储采用分布式 KV 或 NewSQL 维护平坦目录元数据,很好地解决了小文件的规模扩展问题。虽然大部分操作性能很好,但恰恰 shuffle 用到的 LIST 操作性能在部分场景下不够理想,延时偏高;

其二,对象存储协议的整个处理路径较长,对于大文件吞吐为主的场景可以忽略,但对于小文件的频繁读取则会带来不可忽视的延时开销。

图片

不难发现,对象存储的高吞吐能力给小文件读取带来的帮助比较有限,而在延时上也并不具有优势。面对这样的问题,我们有哪些解决思路呢?

我们分为几个方向来总结:

  • 让敌人变弱,也就是通过一些打包格式减少小文件元数据操作的占比。比如 TFRecord、HDF5 等格式已经被大量应用。如果存储能配合这些格式做一些优化,那么效率将得到进一步提升;

  • 让自己变强。硬件上通过燃烧经费购买高性能硬件不需要过多解释。软件上则一般通过架构升级提升系统的扩展能力,缩短 I/O 路径,这里的典型方案就是并行文件系统;

  • 尽可能近身攻击。让存储和计算靠得更近,这里的典型方案就是缓存系统。利用数据集只读的特点,将元数据和数据缓存到计算节点,或者靠近计算节点的地方,也能大幅提高数据的访问效率。

从整体来看,前面我们已经基于对象存储的云原生数据湖解决了海量数据的存储和流动问题。这里我们可以进一步基于并行文件系统或缓存系统的数据存储加速层来弥补对象存储的短板,满足大模型各环节的性能需求。

图片

有了这一套「数据湖 + 加速层」的思路,我们就来详细看看大模型的训练、推理几个具体场景下的问题如何被一一解决。

第一个场景,先来看数据集的读取加速。

假如数据已经进入加速层,那么读性能的问题就能得到很好的解决。剩下需要解决的是数据怎么进入加速层的问题。

在过去我们大量依赖人工和外围工具做不同存储之间的数据流转,带来不少弊端。今天的加速层设计,通常会选择内置自动的数据流转功能。比如在加速层通过 bucket link 建立对象存储某一个 bucket 到加速层的关联,就能自动完成数据在两层之间的流动。这种方式有诸多优点:

  • 同步速度快,各节点可以并发同步数据,大大加快数据流转效率;

  • 同步策略可定制,可以按照场景需求进行增量同步、选择性同步;

  • 能够与调度器集成,实现数据准备与资源调度的高效配合;

  • 避免了人工方式需要处理各类异常,做垃圾回收的问题。

图片

这里就是一个基于自动数据流转实现调度优化,减少训练过程数据读取等待的例子。当两个任务都需要先加载数据然后才能开始训练,通过训练平台的流水线化调度,在一个任务做训练的同时发起下一个任务所需数据的提前加载,就能大大提高计算资源的利用率。

图片

第二个场景,我们接着来看训练中的 checkpoint 部分。

与训练数据以小文件为主不同,大模型单个节点的 checkpoint 通常就能达到几十上百 GB。而多个训练节点同时写,需要恢复时又同时读,对存储提出了很高的吞吐要求。同时一个关键的问题是 checkpoint 期间整个训练是中断的。因此通过提高吞吐,将 checkpoint 耗时控制在尽量小的占比,对于减少训练等待、提高计算资源利用率同样非常重要。

在之前有一种朴素的做法。训练程序先将 checkpoint 写到性能相对容易保证的本地存储,然后再通过外围工具向远端对象存储上传。这里需要考虑一个问题,如果要保证每个 checkpoint 都成功写入,那么总耗时就等于写本地耗时加上传对象存储的耗时,总体等待时间较长。因此实际应用中也有延迟一个 checkpoint 异步上传的方案。但无论如何,都引入了额外的复杂度,需要外围工具来处理各种异常情况。

图片

现在基于数据湖存储加速以后,我们可以有新的做法。训练程序直接将 checkpoint 写入加速层的 Memory 或 NVME SSD,加速层采用流式上传的方式,不必等待 checkpoint 数据全部写完就开始向对象存储上传。此外,加速层也会采用分块上传的办法,充分利用对象存储的后端并发能力。

这个方案看上去比朴素方案有了很大的进步,但是由于需要保证 close 完成时数据已经完整写入对象存储,因此吞吐瓶颈仍然可能出现在上传对象存储的带宽限制上。我们称这种方案为同步方案。

图片

其实对 checkpoint 场景稍加分析就能发现,我们并不一定需要同步方案,因为训练过程的 checkpoint 会周期不断地进行,而发生故障恢复不应该是常态。因此要突破上传对象存储的带宽限制,异步写是一种值得尝试的思路。

这个方案最大的变化,就是对 checkpoint 文件的 close 操作变成了异步,训练程序不用等待数据上传完成,即可恢复训练,剩下的工作全部交给加速层透明完成。此时耗时主要取决于加速层的 Memory 和 NVME SSD 写入能力,可以大大缩短 checkpoint 写入时间。

另外,这里还有一个相关的优化,就是对于最新的一个 checkpoint 采用异步写的同时,让它驻留在加速层的缓存内。当训练需要恢复的时候就能直接从加速层读取,解决了 checkpoint 的快速加载问题。

图片

最后我们来看第三个场景,也就是推理阶段的模型分发部署。大模型的部署通常是百 GB 模型文件的高并发重复读取。由于推理服务规模大,模型迭代更新频繁,我们需要从提高吞吐和缩短流程两个方面考虑如何优化。

首先来看过去常用的基于镜像分发的方案。

训练产出的模型首先需要落到临时存储,完成镜像的制作,包括数据打包、压缩等过程,然后再从临时存储写入持久化的镜像仓库。在推理部署时,再从镜像仓库并发拉取到各推理实例的本地存储,然后进行解压和数据校验。可以看到在这个方案下,吞吐主要取决于镜像仓库底层存储的能力,而流程上在镜像制作和镜像分发两个阶段都需要引入额外的开销。

图片

如果基于数据湖存储加速的方案,整个过程会变得非常简单。

首先从流程上看,训练产出的模型直接写入统一的数据湖存储。这时可以通过对象存储的事件通知机制,让加速层立即感知并提前把模型文件的元数据和数据预加载到靠近推理服务的缓存内。当启动模型部署时,就能直接从缓存读取到数据。

其次从吞吐上看,基于 Memory 或 NVME SSD 提供靠近推理服务的分布式缓存,提供了很强的读吞吐能力,并且多实例重复读取同一份模型数据时不需要消耗大量的对象存储 I/O 和带宽。

另外,加速层可以通过不同的策略满足不同规模的分发加速需求。比如对于几十实例以下的小规模部署,采用单副本即可将所有缓存盘的 I/O 能力均衡地利用起来,满足读性能要求,同时还能大幅节省缓存空间,保证更多模型数据的缓存命中率。而对于数百实例的部署规模,采用多副本即可提高加速层的读吞吐能力。到了数千实例的规模,还能进一步结合客户端的 P2P 加速满足性能需求。

图片

到这里为止,我们分析了模型训练、推理等环节的三个具体场景。可以看到,在引入数据湖存储加速层以后,这些场景的具体问题都一一得到了解决。

因此,「数据湖 + 加速层」能够同时解决最开始提出的两个挑战,为大模型全流程提供了统一的存储解决方案。

同时也能看到,使用「数据湖 + 加速层」这套统一的存储方案,既能获得如同过去使用本地盘的便捷体验,又能充分享受背后数据湖存储带来的扩展性、高性能和繁荣的生态。这正是一直以来大家对于存储的一大梦想。

图片

3. 百度沧海·存储加速方案和实践

接下来我向大家介绍百度沧海·存储加速的解决方案以及具体实践。

这是百度沧海·存储加速方案的产品架构图。底层是我们的对象存储 BOS,提供了大规模、可扩展、低成本的云原生数据湖存储产品,支持丰富的周边生态和便捷的数据流动。中间就是我们的数据湖存储加速层,有两类产品可供选择。一是并行文件系统 PFS,通过独立部署、高性能硬件和网络、全并行软件架构满足极致性能需求。二是数据湖存储加速 RapidFS,通过近计算部署提供更具性价比的分布式缓存加速能力。最上面是我们的 AI 计算,包括异构算力、高速网络、云原生 AI 平台等。

图片

在云原生时代,大模型全流程的存储需求在百度沧海存储得到了很好的答案:

  • 对象存储 BOS 及周边生态提供了云原生数据湖的完整方案,解决了海量数据的存储和流动,以及大模型各环节间的衔接问题。

  • RapidFS / PFS 提供了数据湖存储加速的能力,满足了大模型各环节内的存储性能需求。

  • 同时 RapidFS / PFS 通过与 AI 框架和训练平台的配合完成资源调度优化,整体效率做到最优。

图片

这是 PFS 和 RapidFS 在云环境下的部署和应用模式。

数据入湖后,无论选择哪种存储加速产品,使用模式都足够简单。只需选择好 BOS 中待加速的数据和加速策略,PFS 和 RapidFS 即可自动完成数据集的加载和预热,无需任何操心。当训练任务完成后,PFS 和 RapidFS 透明地将训练结果同步回 BOS,并回收资源。

图片

最后跟大家分享几组我们具体实践中的存储加速效果。

首先是训练加速,可以看到使用 RapidFS 相对直接使用 BOS,整体训练耗时有数倍的缩短,与使用本地存储的效果基本一致。

同时,RapidFS 和 PFS 两个加速方案下,GPU 资源利用率相对直接使用 BOS 均有大幅提升。

图片

第二个场景是 checkpoint 写加速。基于本地盘的方案耗时 245s,上传 BOS 的耗时 355s。因此如果同步写完 BOS,整体耗时为两者相加,接近 10 分钟。而使用 RapidFS 方案,整体耗时大幅缩短到 2 分钟,加速效果明显。

图片

最后是模型分发场景。横轴是推理实例数量,纵轴是 RapidFS 的模型分发总吞吐。从这三条曲线的变化可以看出,RapidFS 用满了缓存盘的所有能力,并且随着缓存节点规模的增加可以实现接近线性的性能扩展。

图片

以上就是今天分享的全部内容。希望今天的分享能够帮助大家更好地理解大模型背景下存储面临的挑战和可能的解法。

「加速」从来不止于单纯的性能提速,流程的高效和环节的顺畅也同样重要。希望百度沧海·存储加速的整体方案能够帮助大家扫清障碍,加快实现大模型带来的时代红利和业务价值。

—— END ——

推荐阅读:

百度APP iOS端包体积50M优化实践(五) HEIC图片和无用类优化实践

百度知道上云与架构演进

百度APP iOS端包体积50M优化实践(四)代码优化

百度App启动性能优化实践篇

扫光动效在移动端应用实践

Android SDK安全加固问题与分析

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/846420.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

APP外包开发的Flutter框架

Flutter 是一种流行的开源UI框架,由谷歌开发,用于构建跨平台的移动应用程序。它使用一套统一的代码库,可以在多个平台上(如Android、iOS、Web、桌面等)保持一致的外观和行为。今天和大家分享一些基于 Flutter 开发的常…

CI/CD持续集成持续发布(jenkins)

1.背景 在实际开发中,我们经常要一边开发一边测试,当然这里说的测试并不是程序员对自己代码的单元测试,而是同组程序员将代码提交后,由测试人员测试; 或者前后端分离后,经常会修改接口,然后重新…

【CSS】说说响应式布局

目录 一、是什么 二、怎么实现 1、媒体查询 2、百分比 3、vw/vh 4、小结 三、总结 一、是什么 响应式设计简而言之,就是一个网站能够兼容多个终端——而不是为每个终端做一个特定的版本。 响应式网站常见特点: 同时适配PC 平板 手机等…

代码随想录 - 数组

数组是存放在连续内存空间上的相同类型数据的集合。 注意: 数组下标都是从0开始的。数组内存空间的地址是连续的 数组的在内存空间的地址是连续的,所以在删除或者增添元素的时候,就难免要移动其他元素的地址。 例如删除下标为3的元素&#x…

SpringMVC的注解

文章目录 前言前期准备ResponseBody 返回JSONRequestMapping 映射控制器GetMapping、PostMapping 前言 提示:这里可以添加本文要记录的大概内容: SpringMVC框架只需要少量的配置即可快速实现Web应用程序开发,不需要大量的XML配置文件。 不…

【ES】笔记-简化对象写法箭头函数及声明特点

简化对象写法&箭头函数及声明特点 简化对象写法箭头函数及声明特点 简化对象写法 ES6 允许在大括号里面,直接写入变量和函数,作为对象的属性和方法.这样的书写更加简介 声明变量和和函数 let name南昌大学;let changefunction(){console.log(我可以改…

如何使用Kafka构建事件驱动的架构

事件驱动的架构(EDA)是一种软件设计模式,它关注事件的生成、检测和使用,以支持高效和可扩展的系统。在EDA中,事件是组件之间通信的主要手段,允许它们实时交互和响应更改。这种架构促进了松散耦合、可扩展性和响应性,使…

Semantic Kernel 入门系列:突破提示词的限制

无尽的上下文 LLM对自然语言的理解和掌握在知识内容的解读和总结方面提供了强大的能力。 但是由于训练数据本身来自于公共领域,也就注定了无法在一些小众或者私有的领域能够足够的好的应答。 因此如何给LLM 提供足够多的信息上下文,就是如今的LLM AI应…

el-table合并表头、动态合并列、合并尾部合计

在有些情况下,我们会有合并表头、合并列、合并尾部合计的需求,这篇文章是为了记录,如何进行合并,方便日后翻阅。 效果图 el-table合并表头 el-table合并列(动态合并) el-table合并尾部合计 el-table合并表…

64x8com的LCD液晶屏驱动芯片IC,VK1625完美兼容市面所有1625驱动芯片

产品型号:VK1625 产品品牌:VINKA/元泰 封装形式:QFP100 LQFP100 DICE/裸片 COB邦定片 定制COG 专业工程服务,技术支持!用芯服务! 概述: VK1625B是一个64x8的LCD駆动器. 可软件程控使其适用于多样化的…

在 Amazon SageMaker 上使用 Amazon Inferentia2 实现 AI 作画

在前一篇文章中,我们介绍了如何使用 Amazon EC2 Inf2 实例部署大语言模型,有不少用户询问 Amazon Inf2 实例是否支持当下流行的 AIGC 模型,答案是肯定的。同时,图片生成时间、QPS、服务器推理成本、如何在云中部署,也是…

【数学建模】--聚类模型

聚类模型的定义: “物以类聚,人以群分”,所谓的聚类,就是将样本划分为由类似的对象组成的多个类的过程。聚类后,我们可以更加准确的在每个类中单独使用统计模型进行估计,分析或预测;也可以探究不…

bigemap如何添加高清在线地图?

说明:批量添加可以同时添加多个在线地图,一次性添加完成(批量添加无法验证地址是否可以访问) 添加后如下图: 第一步 : 制作地图配置文件:选择添加在线地图(查看帮助)。 …

Linux6.33 Kubernetes kubectl详解

文章目录 计算机系统5G云计算第三章 LINUX Kubernetes kubectl详解一、陈述式资源管理方法1.基本信息查看2.项目的生命周期:创建-->发布-->更新-->回滚-->删除 二、声明式管理方法 计算机系统 5G云计算 第三章 LINUX Kubernetes kubectl详解 一、陈述…

【力扣每日一题】2023.8.7 反转字符串

目录 题目: 示例: 分析: 代码: 题目: 示例: 分析: 题目给我们一个字符数组形式的字符串,让我们直接原地修改反转字符串,不必返回。 给出的条件是使用O(1)的额外空间…

JS进阶-Day3

🥔:永远做自己的聚光灯 JS进阶-Day1——点击此处(作用域、函数、解构赋值等) JS进阶-Day2——点击此处(深入对象之构造函数、实例成员、静态成员等;内置构造函数之引用类型、包装类型等) 更多JS…

工业以太网交换机-SCALANCE X200 环网组态

1.概述 SCALANCE X200 系列交换机自从2004年8月推入市场,当时交换机只能接入环网,不能做环网管理器。在各个工业现场得到了广泛的应用。2007年5月发布了X200系列新的硬件版本平台,普通交换机可以用HSR(高速冗余)方法做…

[虚幻引擎] UE DTBase64 插件说明 使用蓝图对字符串或文件进行Base64加密解密

本插件可以在虚幻引擎中使用蓝图对字符串,字节数组,文件进行Base64的加密和解密。 目录 1. 节点说明 String To Base64 Base64 To String Binary To Base64 Base64 To Binary File To Base64 Base64 To File 2. 案例演示 3. 插件下载 1. 节点说…

【用于全变分去噪的分裂布雷格曼方法】实施拆分布雷格曼方法进行总变异去噪研究(Matlab代码实现)

💥💥💞💞欢迎来到本博客❤️❤️💥💥 🏆博主优势:🌞🌞🌞博客内容尽量做到思维缜密,逻辑清晰,为了方便读者。 ⛳️座右铭&a…

FFmpeg 使用总结

FFmpeg 简介 FFmpeg的名称来自MPEG视频编码标准,前面的“FF”代表“Fast Forward”,FFmpeg是一套可以用来记录、转换数字音频、视频,并能将其转化为流的开源计算机程序。可以轻易地实现多种视频格式之间的相互转换。包括如下几个部分&#xf…