003.精读《MapReduce: Simplified Data Processing on Large Clusters》

news2024/9/20 12:40:20

文章目录

    • 1. 引言:
    • 2. 精读
      • 2.1 背景
      • 2.2 模型应用
      • 2.3 基本原理
      • 2.4 其他
    • 3. 总结

1. 引言:

在本期的精读会中,我们将深入探讨一篇具有里程碑意义的论文——《MapReduce: Simplified Data Processing on Large Clusters》。这篇论文不仅奠定了大数据时代分布式处理的基石,更以其创新的数据处理模式,成为大数据处理架构的核心组成部分。MapReduce的设计哲学和实现机制,对于揭示现代大规模数据处理的内在逻辑具有不可估量的价值。

本文将引导读者:

  • 探讨MapReduce在大规模数据集中的应用场景。
  • 深入剖析MapReduce的核心架构和基本原则。
  • 解析MapReduce在数据容错方面的挑战。
  • 展望MapReduce在未来技术发展中的潜在演变和应用。

无论您是大数据领域的资深专家,还是刚刚迈入数据科学领域的新兵,我们都将一同踏上这段探索之旅,深入挖掘MapReduce的深层次魅力和实用价值。

2. 精读

2.1 背景

Users specify a map function that processes a key/value pair to generate a set of intermediate key/value pairs, and a reduce function that merges all intermediate values associated with the same intermediate key.

首先,介绍了MapReduce是一种编程模型及其配套的实现框架,专门设计用于处理和生成大规模数据集。在这个模型中,用户定义两个关键函数:map函数和reduce函数。Map函数负责处理输入的键/值对,并通过一定的逻辑转换生成一组中间键/值对。随后,reduce函数的作用是将所有具有相同中间键的值合并起来,从而实现数据的汇总和归纳。

Hundreds of MapReduce programs have been implemented, and upwards of one thousand MapReduce jobs are executed on Google’s clusters every day.

然后,说了一下已经投入的使用情况,强调MapReduce在Google内部的广泛应用和高效性。具体来说:

  • 应用广泛:已经实现了数百个MapReduce程序,说明该模型被广泛用于各种任务。
  • 规模宏大:每天在Google集群上执行超过一千个MapReduce作业,显示出其在处理大规模数据时的效率和可靠性。

The issues of how to parallelize the computation, distribute the data, and handle failures conspire to obscure the original simple computation with large amounts of complex code to deal with these issues.

接着,指出,尽管计算本身可能很简单,但在并行化计算、分发数据和处理故障时,会产生大量复杂的代码,从而使得原本简单的计算变得复杂。这强调了在大规模数据处理中,基础设施管理和代码复杂性是主要挑战。这也是本文需要解决的问题。

We realized that most of our computations involved applying a map operation to each logical “record” in our input to compute a set of intermediate key/value pairs, and then applying a reduce operation to all the values that shared the same key, in order to combine the derived data appropriately.

随后,他们发现大多数计算任务可以通过两个步骤来完成:首先,对每个输入记录应用一个map操作,生成一组中间键值对;然后,对所有具有相同键的值应用reduce操作,以适当的方式合并派生的数据。这描述了MapReduce模型的核心流程,简化了复杂的数据处理任务。

The major contributions of this work are a simple and powerful interface that enables automatic parallelization and distribution of large-scale computations, combined with an implementation of this interface that achieves high performance on large clusters of commodity PCs.

最后,点出本文工作的主要贡献在于提供了一个简单而强大的接口,该接口能自动实现大规模计算的并行化和分布式处理。同时,这个接口的实现能够在由普通PC组成的大型集群上达到高性能。这强调了MapReduce模型的简洁性、易用性和高效性。

Section 2 describes the basic programming model and gives several examples.
Section 3 describes an implementation of the MapReduce interface tailored towards our cluster-based computing environment.
Section 4 describes several refinements of the programming model that we have found useful.
Section 5 presents performance measurements of our implementation for a variety of tasks.
Section 6 explores the use of MapReduce within Google, including our experiences in using it as the basis for a rewrite of our
production indexing system.
Section 7 discusses related and future work.

以及介绍了本文的论文结构,本文重点探讨第二、三章

  • 第2节:介绍了基本的编程模型,并给出了几个示例。
  • 第3节:描述了针对集群计算环境的MapReduce接口实现。
  • 第4节:介绍了在编程模型中的一些有用改进。
  • 第5节:展示了我们实现的各种任务的性能测量。
  • 第6节:探讨了MapReduce在Google内部的使用,包括将其用于改写生产索引系统的经验。
  • 第7节:讨论了相关工作和未来的发展方向。

2.2 模型应用

在MapReduce框架中,计算过程从一组输入键/值对开始,并最终产生一组输出键/值对。这一过程由用户通过定义两个关键函数来实现:MapReduce

Map函数由用户编写,它接收一个输入键/值对,并负责生成一组中间键/值对。MapReduce库随后负责将所有具有相同中间键的中间值聚集在一起,为下一步处理做好准备。

Reduce函数同样由用户定义,它接收一个中间键以及与该键相关联的所有中间值。Reduce函数的职责是将这些值进行合并处理,通常会产生一组数量更少的输出值。在通常情况下,每次Reduce函数调用仅生成零个或一个输出值。中间值通过迭代器的形式提供给用户的Reduce函数,这种设计允许MapReduce框架处理那些太大而无法一次性载入内存的值列表。

通过这种分阶段的处理模式,MapReduce库能够有效地处理大规模数据集,同时保持了用户代码的简洁性和易于管理。

// Map函数处理输入的文档,将每个单词映射为一个键/值对,其中值是“1”。
map(String key, String value) {
  // key: 文档名称
  // value: 文档内容
  for each word w in value:
    // 为每个单词w发射一个中间键/值对,键是单词本身,值是字符串"1"。
    EmitIntermediate(w, "1");
}

// Reduce函数接收一个单词和该单词所有出现次数的迭代器,
// 然后合并这些次数以产生最终的单词计数。
reduce(String key, Iterator values) {
  // key: 一个单词
  // values: 该单词出现次数的列表
  int result = 0;
  for each v in values:
    // 将字符串值解析为整数并累加到结果中
    result += ParseInt(v);
  // 生成最终的单词计数
  Emit(AsString(result));
}
map(k1,v1) -> list(k2,v2)
reduce(k2,list(v2)) -> list(v2)

还有其他的一些应用场景如下所示:

1. 分布式字符串匹配 grep

map 函数负责输出匹配某个模式的每一行,而 reduce 函数则不进行任何计算,仅将这一行输出。最终,得到的结果是所有匹配的文本行。

2. 计算 URL 的访问频率

map 函数记录每个请求,输出形式为 (url, 1);而 reduce 函数则将相同 URL 的访问计数相加,最终生成 (url, sum_of_count)

3. 倒转网络链接关系

搜索引擎排序算法 PageRank 需要使用爬虫获取所有页面的 source 及其内部链接 target。每个 source 内可能会有多个 target,在门户网站中,一个 source 拥有上千个 target 是很常见的。

这就要求网络爬虫统计每个链接 target 被哪些 source 引用。最初,我们得到的是 (source, target) 数据对,如何将其转换为 (target, list(source)) 呢?这时,MapReduce 的作用便凸显出来。

map 函数负责输出 (source, target) 对,而 reduce 函数则将相同的 target 进行归并,生成 (target, list(source))

4. 确定每个 Host 的检索词向量(Term-Vector)

检索词向量是一系列(单词,词频)对,这些数据能够总结一篇文档或一系列文章中最重要的单词(假设词频越高,单词越重要)。

一个 Host 可能包含大量文档,如何确定该 Host 的检索词向量呢?

map 函数负责输出每个输入文档的 (host, term-vector),而 reduce 函数则汇总给定 Host 的所有 term-vector,过滤掉低频词,最终输出唯一的 (host, term-vector)

5. 倒排索引

正排索引的形式为 (document, {keys}),从文档出发以检索关键词。

然而,正排索引在搜索引擎中的作用有限,因为我们需要根据关键词检索对应的所有文档。因此,更需要的是 (key, {documents}) 这种索引形式。

倒排索引是关键词到文档的映射,每个关键词都对应着一系列文档。

map 函数分析每个文档,为每个单词生成 (word, document) 的映射;而 reduce 函数则汇总所有相同单词的数据对,输出形式为 (word, {documents}),并可能进行排序。

2.3 基本原理


MapReduce框架的执行过程可以概述为以下几个关键步骤:

  1. 输入分割用户程序中的MapReduce库首先将输入文件分割成M个片段,每个片段通常大小在16MB到64MB之间,用户可以通过可选参数控制。

  2. 启动作业:程序在集群的多台机器上启动多个副本,其中一个机器作为master,其余作为worker

  3. 任务分配master负责分配M个map任务和R个reduce任务给空闲的worker

  4. Map任务执行:被分配map任务的worker读取相应输入片段的内容,解析出键/值对,并将其传递给用户定义的Map函数。Map函数生成的中间键/值对在内存中缓冲。

  5. 中间数据写入:缓冲的中间数据定期写入本地磁盘,并根据分区函数划分为R个区域。这些缓冲数据在本地磁盘上的位置信息被发送回master

  6. Reduce任务执行master通知reduce worker这些位置信息,reduce worker使用远程过程调用从map worker的本地磁盘读取缓冲数据。读取完所有中间数据后,reduce worker按中间键排序,并将每个唯一的中间键及其对应的值集合传递给用户定义的Reduce函数。

  7. 输出结果Reduce函数的输出被追加到最终输出文件中,每个reduce任务对应一个输出文件。

  8. 作业完成:所有mapreduce任务完成后,master唤醒用户程序,MapReduce调用在用户程序中返回。

MapReduce的工作流程就像是在厨房里准备一场大型宴会:首先,大厨(Master节点)将大量的食材(数据)切成小块(分割数据),然后分配给一群厨师(Worker节点)去处理。每个厨师根据食谱(Map函数)进行初步烹饪,比如统计每种食材的使用量。接着,他们将处理好的食材暂时存放起来。随后,大厨将相同类型的半成品收集起来,交给另一组厨师进行最终烹饪(Reduce函数),比如将所有相同的食材合并成一道菜。最后,当所有菜肴都准备好后,大厨将它们端上桌,供宾客享用(输出结果)。如果某个厨师无法完成任务,大厨会迅速找其他厨师来替补,确保宴会能够顺利进行。整个过程是自动化的,每个步骤都紧密协调,以确保最终的菜肴既美味又及时。

Hadoop MapReduce的执行流程与Google MapReduce有许多相似之处,因为Hadoop的设计受到了Google MapReduce论文的启发。以下是Hadoop MapReduce执行流程的概述图。


在 Hadoop 3.x 版本中,MapReduce 作业的执行流程分为两个主要阶段:Map 阶段和 Reduce 阶段。以下是这两个阶段的详细描述:

Map 阶段:

  1. 作业提交:用户通过客户端提交 MapReduce 作业,包括 MapReduce 任务。
  2. 资源申请ApplicationMasterResourceManager 申请执行 Map 任务所需的资源。
  3. 任务分配ResourceManager 根据集群资源情况,将 Map 任务分配给 NodeManager 执行。
  4. Map 任务执行NodeManager 在分配的容器中启动 Map 任务,Map 任务读取输入数据,处理后生成中间键/值对。
  5. 中间数据输出Map 任务将处理结果输出到本地磁盘,为后续的 Shuffle 和 Sort 阶段做准备。

Reduce 阶段:

  1. Shuffle 阶段Map 任务的输出被传输到 Reduce 任务。这个过程称为 Shuffle,它包括排序和合并 Map 任务的输出,以便为 Reduce 任务提供有序的输入。
  2. 资源申请ApplicationMasterResourceManager 申请执行 Reduce 任务所需的资源。
  3. 任务分配ResourceManagerReduce 任务分配给 NodeManager 执行。
  4. Reduce 任务执行NodeManager 在分配的容器中启动 Reduce 任务,Reduce 任务读取经过 Shuffle 阶段排序的中间数据,进行汇总和处理。
  5. 输出结果Reduce 任务将最终结果写入到 HDFS(Hadoop Distributed File System)中。

在整个过程中,ApplicationMaster 负责协调 MapReduce 任务的执行,监控任务进度,并与 ResourceManagerNodeManager 进行通信。此外,Hadoop 3.x 引入了更多的优化和改进,例如改进的 Shuffle 机制、更好的资源隔离和更高效的数据本地化,以提高 MapReduce 作业的性能和可靠性。

JobTracker 是 Hadoop 1.x 版本中的关键组件,它负责管理和调度 MapReduce 作业。在 Hadoop 1.x 版本中,JobTrackerTaskTracker 配合工作,其中 JobTracker 负责作业的调度和监控,而 TaskTracker 则在各个节点上执行实际的任务。
随着 Hadoop 生态系统的发展,为了解决 Hadoop 1.x 版本中的可扩展性和资源管理问题,Hadoop 2.x 版本引入了 YARN(Yet Another Resource Negotiator)作为集群资源管理器。在 Hadoop 2.x 版本中,JobTracker 的职责被拆分,其中作业调度和监控的职责由 ResourceManager 组件承担,而任务的执行则由 NodeManager 组件负责。

// 设置Hadoop用户名为"hadoop"
System.setProperty("HADOOP_USER_NAME","hadoop");
// 创建Hadoop配置对象
Configuration configuration= new Configuration();
// 设置默认的文件系统为HDFS,并指定HDFS的地址
configuration.set("fs.defaultFS","hdfs://192.168.1.200:8020");
// 创建一个Job对象
Job job = Job.getInstance(configuration);
// 设置Job的Mapper类
job.setMapperClass(WordCountMapper.class);
// 设置Job的Reducer类
job.setReducerClass(WordCountReducer.class);
// 设置Mapper输出的Key和Value类型
job.setMapOutputKeyClass(Text.class);
job.setMapOutputValueClass(IntWritable.class);
// 设置Reducer输出的Key和Value类型
job.setOutputKeyClass(Text.class);
job.setOutputValueClass(IntWritable.class);
// 获取FileSystem对象
FileSystem fs=FileSystem.get(new URI("hdfs://192.168.1.200:8020"),configuration,"hadoop");
// 设置输出路径
Path output=new Path("/map/output");
// 如果输出路径已存在,则删除它
if(fs.exists(output)){
    fs.delete(output,true);
}
// 设置作业的输入路径
FileInputFormat.setInputPaths(job,new Path("/map/input"));
// 设置作业的输出路径
FileOutputFormat.setOutputPath(job,new Path("/map/output"));
// 提交作业并等待作业完成
boolean result=job.waitForCompletion(true);
// 根据作业执行结果退出程序,成功返回0,失败返回-1
System.exit( result ? 0:-1);

详细见:Hadoop基础-07-MapReduce概述
https://blog.csdn.net/jankin6/article/details/109060857

2.4 其他

2.4.1 Master Data Structures

描述了 Master 节点在 MapReduce 框架中维护的数据结构。

  1. 任务状态信息Master节点记录每个MapReduce任务的状态,包括它们是否处于空闲、进行中或已完成。

  2. 工作节点信息Master节点跟踪每个Worker节点的状态,以便在它们空闲时分配任务。

  3. 中间数据位置:起到了一个管道的作用,对于每个完成的Map任务,Master节点存储了中间数据的位置和大小信息,这些信息对于后续的Reduce任务是必要的。

  4. 任务调度信息Master节点负责任务调度,确保任务在集群中的机器上得到有效分配。

  5. 容错机制Master节点处理节点故障,确保任务在失败时能够重新调度。

这些数据结构使得Master节点能够有效地管理和协调MapReduce作业的执行。

2.4.2 Fault Tolerance

描述了MapReduce框架如何处理故障,以确保数据处理的高可用性和容错性。

  1. Worker节点故障

    • Master节点定期向所有Worker节点发送心跳信号,以检测它们的状态。
    • 如果某个Worker节点在一定时间内没有响应,Master节点会将其标记为失败。
    • 失败的Worker节点上已完成的Map任务需要重新执行,因为它们的输出可能存储在失败节点的本地磁盘上,而无法访问。
    • 失败的Worker节点上正在进行的MapReduce任务会被重新调度到其他节点上执行。
  2. Master节点故障

    • Master节点会定期保存其数据结构的检查点(checkpoints),以便在Master节点失败时可以从最后一个检查点恢复。
    • 由于Master节点通常是单点,它的失败可能会影响整个作业的执行。当前的实现中,如果Master节点失败,MapReduce作业将被中止。
  3. 故障情况下的语义

    • 当用户提供的MapReduce操作是确定性的,即对于给定的输入总是产生相同的输出时,MapReduce的分布式实现将产生与无故障顺序执行相同的结果。
    • 为了实现这一属性,MapReduce依赖于原子提交任务输出。每个任务的输出被写入私有的临时文件中,任务完成时,这些文件会被原子地重命名或移动到最终位置。
  4. 数据完整性

    • 即使在出现故障的情况下,MapReduce也确保数据处理的原子性和一致性,从而保证了数据处理结果的正确性。

2.4.3 Refinements

描述了对基本MapReduce模型的一些扩展和改进,以提高其灵活性和实用性。

  1. 分区函数(Partitioning Function)

    • 用户可以指定一个分区函数来决定如何将中间键分配到不同的Reducer上。默认使用哈希函数,但也可以根据特定需求定制分区逻辑。
  2. 排序保证(Ordering Guarantees)

    • MapReduce保证了在同一个分区内的键/值对是按照键的顺序排序的。这有助于生成有序的输出文件,特别是当输出格式需要支持高效的随机访问查找时。
  3. 组合器函数(Combiner Function)

    • 为了减少网络传输量,用户可以定义一个Combiner函数在Map任务完成后进行局部聚合。这通常与Reducer函数使用相同的代码,但输出到中间文件而不是最终输出。
  4. 输入和输出类型(Input and Output Types)

    • MapReduce支持多种输入和输出格式,用户可以根据需要实现自定义的读写器。
  5. 副作用(Side-effects)

    • 用户的Map或Reduce函数可能会产生额外的输出文件。系统依赖于用户确保这些副作用是原子的和幂等的。
  6. 跳过错误的记录(Skipping Bad Records)

    • 当Map或Reduce函数因为某些输入记录而崩溃时,MapReduce提供了一种模式来检测并跳过这些记录,以便作业可以继续执行。
  7. 本地执行(Local Execution)

    • 为了便于调试和测试,MapReduce提供了一个可以在本地机器上顺序执行所有任务的模式。
  8. 状态信息(Status Information)

    • Master节点提供了状态页面,显示作业的进度和资源使用情况,帮助用户监控作业执行。
  9. 计数器(Counters)

    • MapReduce提供了一个计数器机制,允许用户在Map和Reduce函数中创建和更新计数器,以跟踪特定事件的发生次数。

3. 总结

综上所述,MapReduce编程模型通过用户定义的mapreduce函数,将复杂的数据处理任务转化为直观的操作,并自动并行化处理,极大提高了计算效率,尤其在大规模集群环境中表现出色。其内置的容错机制确保了数据处理的可靠性,使得MapReduce在文本分析、数据挖掘和网页索引等多个领域得到广泛应用。

更重要的是,MapReduce降低了大数据技术的使用门槛,推动了数据处理效率的提升,并促进了大数据生态系统的发展,催生了诸如Hadoop等关键技术框架,为大数据的发展做出了深远的贡献。

最后,由于篇幅限制,一些数据验证的深入讨论并未在此展开。对于有兴趣进一步探索的读者,我建议精读全文以获得更全面的了解。

获取原文

  • GItHub:https://github.com/hiszm/BigDataWeekly/tree/main/资料
  • 公众号回复:003

如果你想参与讨论,请 点击这里👉https://github.com/hiszm/BigDataWeekly,每周都有新的主题,周末或周一发布。

大数据精读,探索知识的深度。

关注 大数据精读周刊 微信公众号

版权声明:自由转载-非商用-非衍生-保持署名(创意共享 3.0 许可证)

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2095652.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

【AI音频处理】:重塑声音世界的无限可能

欢迎来到 破晓的历程的 博客 ⛺️不负时光,不负己✈️ 文章目录 引言一、语音识别:人机交互的新篇章二、语音合成:让机器“说话”的艺术三、音乐创作与推荐:AI赋予音乐新生命四、声音效果处理:让声音更加完美五、AI在…

浅谈维度建模、数据分析模型,何为数据仓库,与数据库的区别

往期推荐 大数据HBase图文简介-CSDN博客 数仓分层ODS、DWD、DWM、DWS、DIM、DM、ADS-CSDN博客 数仓常见名词解析和名词之间的关系-CSDN博客 数仓架构:离线数仓、实时数仓Lambda和Kappa、湖仓一体数据湖-CSDN博客 0. 前言 1991年,数据仓库之父 比尔恩门 著…

【C++ | 设计模式】代理模式的详解与实现

1. 概念 代理模式(Proxy Pattern)是一种结构型设计模式,用于控制对对象的访问。它通过引入代理对象,间接地操作目标对象,从而实现对目标对象的控制。代理模式的核心思想是通过代理对象来控制对目标对象的访问。代理对…

坐标系的那些事儿

哈喽,大家好!地理坐标系、投影坐标系等知识是地图学、GIS和地图发布、应用等绕不开的话题,今天我们一起聊一聊坐标系的那些事儿! 1.地理坐标系 为了确定地面点在地球椭球体表面位置而定义的空间参考系,主要用经纬度来…

软件设计师笔记-多媒体基础知识

媒体 感觉媒体(使人产生感觉的媒体)表示媒体(传输感觉媒体的中介媒体)表现媒体(进行信息输入和输出的媒体)存储媒体(用于存储表示媒体的物理介质)传输媒体(传输表示媒体…

酿酒师的匠心独运:白酒酿造的不同工艺

在华夏大地的深处,一群酿酒师用他们的匠心独运,将大自然的馈赠转化为琼浆玉液,那便是豪迈白酒(HOMANLISM)。每一滴酒液都承载着酿酒师们的智慧和汗水,每一瓶豪迈白酒(HOMANLISM)都是…

Disjoint-set data structure--并查集

Disjoint-set data structure 不相交集, 通常称作并查集的一种数据结构。 应用范围:处理不相交集合的合并查询问题,它在处理这两种的时间复杂度在实际应用上往往认为是 O ( 1 ) O(1) O(1),稍后本篇会略加说明。接受两种操作:判断两元素是否…

【进程间通信】管道应用场景---简易进程池

#include<iostream> #include<vector> #include<string> #include<cstring> #include<cstdlib> #include<unistd.h> #include<sys/stat.h> #include<sys/wait.h>//把5个子进程要管理起来&#xff0c;要先描述再组织 const int…

SPI驱动学习二(驱动框架)

目录 一、回顾平台总线设备驱动模型二、SPI设备驱动1. 数据结构1.1 SPI控制器数据结构1.2 SPI设备数据结构1.3 SPI设备驱动 2. SPI驱动框架2.1 SPI控制器驱动程序2.2 SPI设备驱动程序 三、SPI设备树处理过程1. SPI Master2. SPI Device3. 设备树示例4. 设备树实例4.1 使用GPIO模…

leetcode 899. Orderly Queue

原题链接 You are given a string s and an integer k. You can choose one of the first k letters of s and append it at the end of the string. Return the lexicographically smallest string you could have after applying the mentioned step any number of moves. …

Java集合类之Collection

文章目录 1 准备部分1.1 数据结构1.1.1 数组1.1.2 链表 1.2 集合是什么 2 Collection2.1 特点2.2 常用API2.3 遍历Collection的方法2.3.1 toArray方法2.2.2 iterator方法2.3.3 foreach2.3.4 总结 3 List 接口3.1 内容提要3.2 特点3.3 List的API3.3.1 listIterator方法3.3.4 sub…

【RabbitMQ应用篇】常见应用问题

1. 消息幂等性保障 1.1 幂等性介绍 幂等性&#xff1a;这个概念在数学和计算机领域中相当常见&#xff0c;表示可以被应用多次但是不会改变初始应用结果的性质。 应用程序的幂等性&#xff1a;指的是在一个应用系统中&#xff0c;重复调用多次请求&#xff08;相同参数&#…

【Python机器学习】神经网络的组成

目录 感知机 数字感知机 认识偏置 Python版神经元 “课堂时间” 有趣的逻辑学习问题 下一步 代价函数 反向传播算法 求导 误差曲面 不同类型的误差曲面 多种梯度下降算法 Keras&#xff1a;用Python实现神经网络 展望 归一化&#xff1a;格式化输入 神经网络对…

C语言 面向对象编程

注意事项 在使用面向对象编程的时候&#xff0c;我们得问自己&#xff1a;任务中有什么对象&#xff0c;对象应该怎么使用 项目中文档体系 我们可以规划一下任务得文档&#xff0c;可以为每一个对象的类单独编写源码&#xff0c;并发布对应的头文件作为接口&#xff0c;主控…

Android CCodec Codec2 (六)C2InterfaceHelper

通过前面几篇文章的学习&#xff0c;我们知道了Codec2参数结构&#xff0c;以及如何定义一个Codec2参数。接下来的几篇文章我们将简单了解上层是如何请求组件支持的参数、如何配置参数&#xff0c;以及参数是如何反射给上层的。本篇文章我们将了解接口参数实例化。 1、C2Interf…

Linux零基础到精通(二)-vmware虚拟机使用教程及Centos7操作系统安装

目录 前言Linux 操作系统运用领域vmware虚拟机安装与使用电脑硬件环境要求vmware虚拟机软件安装创建一个虚拟机配置vmware的虚拟化网络 通过vmware虚拟机安装操作系统下载Centos7系统镜像安装Centos7操作系统配置网络和主机名称信息配置系统分区软件包选择设置用户密码进入Cent…

入门Java编程的知识点—>静态方法(day11)

重点掌握final关键字特点&#xff1f;final的语法使用?重点掌握静态变量是什么&#xff1f;静态变量的语法与使用?了解方法区内存图执行过程?重点掌握静态方法是什么&#xff1f;静态方法的语法特点与使用?重点掌握常量语法如何定义与使用? final(最终) final可以用于修…

IT运维问题深度剖析与一体化解决方案探索

在当今信息化高速发展的时代&#xff0c;IT运维作为保障企业业务连续性和稳定性的关键环节&#xff0c;其重要性日益凸显。然而&#xff0c;随着企业规模的扩大和业务的复杂化&#xff0c;IT运维面临着诸多挑战和问题。本文旨在深度剖析当前IT运维中的紧迫性问题与需求&#xf…

C++学习, 指针的指针

指针的指针&#xff1a; 是一种间接寻址的形式&#xff0c;指针的指针就是将指针的地址存放在另一个指针里面。一般&#xff0c;指针包含一个变量的地址&#xff0c;当定义一个指向指针的指针时&#xff0c;第一个指针包含了第二个指针的地址&#xff0c;第二个指针指向实际值…

day35-测试之性能测试JMeter的测试报告、并发数计算和性能监控

目录 一、JMeter的测试报告 1.1.聚合报告 1.2.html报告 二、JMeter的并发数计算 2.1.性能测试时的TPS&#xff0c;大都是根据用户真实的业务数据&#xff08;运营数据&#xff09;来计算的 2.2.运营数据 2.3.普通计算方法 2.4.二八原则计算方法 2.5.计算稳定性测试并发量 2.6…