【大数据分析机器学习】分布式机器学习

news2024/11/25 13:27:36

在这里插入图片描述

【作者主页】Francek Chen
【专栏介绍】 ⌈ ⌈ 智能大数据分析 ⌋ ⌋ 智能大数据分析是指利用先进的技术和算法对大规模数据进行深入分析和挖掘,以提取有价值的信息和洞察。它结合了大数据技术、人工智能(AI)、机器学习(ML)和数据挖掘等多种方法,旨在通过自动化的方式分析复杂数据集,发现潜在的价值和关联性,实现数据的自动化处理和分析,从而支持决策和优化业务流程。与传统的人工分析相比,智能大数据分析具有自动化、深度挖掘、实时性和可视化等特点。智能大数据分析广泛应用于各个领域,包括金融服务、医疗健康、零售、市场营销等,帮助企业做出更为精准的决策,提升竞争力。
【GitCode】专栏资源保存在我的GitCode仓库:https://gitcode.com/Morse_Chen/Intelligent_bigdata_analysis。

文章目录

    • 一、分布式机器学习基础
      • (一)参数服务器
      • (二)分布式并行计算框架
    • 二、分布式机器学习框架
      • (一)MapReduce编程模型
      • (二)Hadoop MapReduce框架
      • (三)Spark
      • (四)TensorFlow
    • 三、并行决策树
      • (一)并行决策树算法
      • (二)并行化的随机森林——并行CART决策树算法
    • 四、并行k-均值算法
      • (一)k-均值算法算例
      • (二)多元线性回归模型


  机器学习方法是计算机利用已有的数据生成某种模型,并利用此模型预测的一种方法。在确定模型结构之后,根据已知模型寻找模型参数的过程就是训练,训练过程中不断依据训练数据来迭代调整模型的参数值,从而使模型的预测结果更为准确。在现实应用中,要达到好的效果,训练数据集可能很大,模型参数量剧增,会带来很多性能和算法设计问题,单台机器难以胜任,需要分布式的机器学习架构。本文主要介绍分布式机器学习基础知识,并介绍主流的分布式机器学习框架,结合实例介绍一些机器学习算法。

一、分布式机器学习基础

分布式机器学习中的一些核心问题:
(1)如何提高各分布式任务节点之间的网络传输效率;
(2)如何解决参数同步问题,传统训练模型是采用同步方法,如果机器性能不统一,必然会产生训练任务之间的协作;
(3)分布式环境下如何提高容错能力,需要避免单点故障,并能合理处理异常,训练子节点出错不影响全局任务。

(一)参数服务器

  应用传统的大数据处理框架训练大型的机器学习模型时,由于数据量比较大并且训练方法多样,存在着一致性、扩展性、稳定性的问题。较大的模型也意味着参数较多,因而需要实现分布式并行训练,参数服务器是分布式并行训练框架之一,存储着模型的参数和状态。参数服务器具有如下特点:高效通信、宽松一致性、灵活可扩展、容错能力强、易用。

  训练过程中支持动态扩展节点,不需要重启训练任务就可以动态插入新节点到集合中,这一特性无疑有利于那些训练周期较长(长达数天或数周)的机器学习项目,可节省大量训练时间。

  在大型服务器集群中,由于节点较多,小概率故障往往常态化,所以需要节点的恢复(状态清理、任务重启)时间要短,而且不能中断训练过程,这就要求并行化系统具有较强的容错能力。

  目前机器学习项目开发者数量较少,为了减少学习难度,需要尽可能的使用常用语言或将参数表示成通用的形式,如向量、矩阵等,并与现有机器学习框架无缝拼接。

(二)分布式并行计算框架

  分布式并行计算的类型一般分为三种:模型并行、数据并行、混合并行。

1. 模型并行

  模型并行是指将模型按照其结构放在不同的分布式机器上进行训练,一般用在那些内存要求较高的机器学习项目,例如,单机训练一个1000层的DNN网络,内存容易溢出,而使用模型并行,用不同的机器负责不同的层进行训练,通过维护各层间参数同步实现整个DNN网络的并行训练。

在这里插入图片描述
2. 数据并行

  数据并行是指各机器上的模型相同,对训练数据进行分割,并分配到各机器上,最后将计算结果按照某种方式合并。该方法主要应用在海量训练数据的情况,数据以并行化方式训练,训练过程中组合各工作节点的结果,实现模型参数的更新。参数并行常用的方法有参数平均和异步梯度下降的方法。

在这里插入图片描述
(1)参数平均:参数平均是在每次训练迭代完成后计算各节点各模型参数平均值,这一方法操作简单,主要依赖网络同步更新,如果更新频率较慢会导致参数差别较大,平均之后的模型参数的局部差异化被抵消,效果较差,影响模型的精确性。反之,如果更新较快,对网络压力较大,通信和同步的成本较高,所以在应用中需要结合模型复杂度和优化方法进行平衡。

(2)异步梯度下降:异步梯度下降是一种基于更新的数据并行化,它传递的是模型训练过程中的梯度、动量等信息,而没有直接传递参数值,这样一方面可以减少传输数据量,提高网络传输效率;另一方面不同计算节点通过共享梯度,可以提高模型收敛速度。该方法的不足之处在于会随着引入参数数量的增多出现梯度值过时的问题。

3. 混合并行

  混合并行的方式是指综合应用模型并行和数据并行,在训练集群的设计中,将上述两种方式进行合并,各取所长,形成互补。例如,可以在同一台机器上采用模型并行化,在GPU和CPU之间使用模型并行。然后在机器之间采用数据并行化,将数据分配在不同的机器上,既实现了计算资源利用的最大化,也减少了数据分发的压力。

二、分布式机器学习框架

  分布式机器学习是机器学习领域的一大主要研究方向,其中MapReduce适合做离线计算,Storm适合做流式计算,Spark是内存计算框架,能快速得到计算结果。分布式机器学习平台归类为三种基本设计方法:基本数据流、参数服务器模型以及高级数据流。基于这三种方法来介绍分布式机器学习框架。

(一)MapReduce编程模型

  MapReduce是一个能处理和生成超大数据集的算法模型,该架构能够在大量硬件配置不高的计算机上实现并行化处理,这一编程模型结合用户自定义的Map和Reduce函数。Map函数处理一个输入的基于<Key,value>对的集合,输出中间基于<Key,value>对的集合,Reduce函数是将所有具有相同key值的value值进行合并,将数据集合进行压缩。

  一个典型的MapReduce程序的执行流程如下图所示。

在这里插入图片描述

(二)Hadoop MapReduce框架

  Hadoop MapReduce是Hadoop三大组件之一,包括JobTracker和一定数量的TaskTracker。JobTracker负责任务分配和调度,一个MapReduce作业通常会把输入的数据集切分为若干独立的数据块,由Map任务以并行方式处理它们,框架会对Map的输出先进行排序,然后把结果输入到Reduce任务中。通常作业的输入和输出都会被存储在文件系统HDFS中,由JobTracker负责任务的调度和监控,以及重新执行已经失败的任务。

在这里插入图片描述
  Hadoop MapReduce框架由一个单独的主JobTracker和每个集群节点对应一个备TaskTracker组成。JobTracker负责调度作业的所有任务,并监控它们的执行,这些任务分布在不同的备TaskTracker上。如果TaskTracker上的任务执行失败,还会调度其重新执行。而TaskTracker仅负责执行指派的任务。

在这里插入图片描述
在这里插入图片描述

(三)Spark

  与Hadoop MapReduce相比,Spark的优势在于处理迭代计算的机器学习任务,尤其是内存要求小的应用,性能提升很大,Spark还可以进行批处理、实时数据处理、机器学习以及图算法等计算模块。使用Spark平台无需关心分布式并行计算的细节,可以智能地进行数据切分、算法复制、分布执行、结果合并,以支持数据分析人员快速开发分布式应用。

在这里插入图片描述
  Spark的基本框架如下图所示:

在这里插入图片描述
  Spark应用核心由启动环境和执行程序两部分组成,其中执行程序负责执行任务,运行执行程序的机器是工作节点,而启动环境由用户程序启动,通过集群管理器与各个执行程序进行通信。集群管理器主要负责集群的资源管理和调度,目前支持Standalone、Apache Mesos和YARN三种类型的管理器。

在这里插入图片描述
  Spark使用弹性分布式数据集(RDD)抽象分布式计算,RDD是Spark并行数据处理的基础,它是一种只读的分区记录的集合,用户可以通过RDD对数据显示地控制存储位置和选择数据的分区。RDD主要通过转换和动作操作来进行分布式计算,转换是根据现有数据集创建新数据集,动作是在数据集上进行计算后返回值给Driver程序。使用RDD可以用基本一致的方式应对不同的大数据处理场景,还能够提高分布式计算的容错性。

import org.apache.spark.SparkContext
import org.apache.spark.SparkConf

// Create SparkContext
val conf = new SparkConf().setAppName("WordCountApp").setMaster("local")
val sc = new SparkContext(conf)

// Read text file from HDFS
val file = sc.textFile("hdfs://<path-to-your-file>", 5)

// Split lines into words and map each word to (word, 1)
val words = file.flatMap(line => line.split(" ")).map(word => (word, 1))

// Cache the RDD for better performance
words.cache()

// Reduce by key to get the word counts
val counts = words.reduceByKey(_ + _)

// Get the top 10 words by count
val top = counts.top(10)(Ordering.by(f => f._2))

// Print the top 10 words
println(top.mkString("\n"))

  Spark是一种粗粒度、基于数据集的并行计算框架。其计算范式是数据集上的计算,在使用Spark的时候,要按照这一范式编写算法。所谓的数据集操作,就是成堆的数据,如果源数据集是按行存储的话,就需要对其进行适配,将若干记录组成一个集合。因此在提交给Spark任务时,需要先构建数据集,然后通过数据集的操作,实现目标任务。

(四)TensorFlow

  TensorFlow为用户封装了底层的分布式操作,使其可以专注于编写机器学习代码。使用数据流图进行数值计算,用有向图中的节点表示,节点的状态是可变的,边是张量,对应为多维数组。TensorFlow中数据并行化的方式由In-graph、Between-graph、异步训练、同步训练几种方式,通过将模型训练分配给不同的工作节点,并使用参数服务器共享参数。

三、并行决策树

  随着大数据时代的到来,算法需要处理的数据量急剧增加,仅依靠原始的决策树算法进行分类无论在效率上还是准确性上都不足以满足需求。高效出色的在大数据量下使用决策树算法,需要将决策树算法并行化。

  并行决策树算法基于MapReduce框架,核心思想是分而治之的策略。MapReduce通过将海量数据集分割成多个小数据集交给多台不同计算机进行处理,实现并行化数据处理。应用到决策树算法上,通过MapReduce将决策树算法并行处理,将耗时的属性相似度计算的步骤并行执行。Map阶段,以单元组形式分解数据,计算属性相似度,以<属性名,相似度>形式输出。Reduce阶段,汇总所有局部结果,找到最大相似度属性名,以这个属性作为测试节点,若是叶子节点,则返回,否则执行分裂,将其录入待计算数据库中进行存储。不断重复上述过程完成决策树的构建。

(一)并行决策树算法

在这里插入图片描述
上图展示了并行决策树算法的主要流程,通过划分和并行化处理训练数据集,利用MapReduce等机制来构建决策树的过程。以下是主要步骤的解析:

1. 数据划分

  • 水平划分

    • 数据集被水平切分为多个子数据集(如图中rid 0-4rid 5-9),每个分区的数据可以独立进行处理。
    • 这样做的目的是便于数据分布到不同的计算节点上,实现并行化处理。
  • 垂直划分

    • 将数据集中的属性(如age, credit等)单独拆分,计算每个属性的条件概率或信息增益,以便构建决策树的分裂点。
    • 每个属性在不同节点上处理,形成<key, value, value2>的键值对结构。

2. Map阶段

  • 生成键值对

    • 每个分区独立对数据集进行处理,将数据映射为键值对形式:<特征, 类别, 记录数>
    • 示例:
      • age的键值对:<youth, no, 3>表示age = youth且分类为no的记录有3条。
      • credit的键值对:<fair, no, 3>表示credit = fair且分类为no的记录有3条。
  • 并行计算特征与类别分布

    • 每个计算节点独立统计对应特征值和类别之间的分布关系。

3. Reduce 阶段

  • 合并统计结果

    • 对同一特征的所有分布进行全局统计,例如age = youth的分类noyes的总数分别为3和1。
    • 通过这些统计值计算各特征的分裂指标(如信息增益、基尼系数等),选择最佳分裂特征。
  • 构建分裂节点

    • Reduce阶段汇总后,确定当前节点的分裂点(如选择agecredit),并将子节点继续递归处理。

4. 并行处理的优势

  • 任务分解

    • 水平划分实现了数据集的分片处理,减少了单个计算节点的内存压力。
    • 垂直划分实现了特征的独立统计,进一步提升了计算效率。
  • 完全并行化

    • 每个节点(数据分片)可以独立构建其子树,直到最终形成完整的决策树。

5. 总结

  • 关键思想:利用MapReduce将数据的水平和垂直处理并行化。
  • 应用场景:适用于大规模数据集和高维特征场景,充分利用分布式计算的能力。
  • 优势
    • 减少单节点计算负担;
    • 提高训练效率;
    • 支持海量数据和特征处理。

图中展示的具体示例(如<key, value, value2>和Reduce的结果)形象地说明了如何通过分布式统计和并行计算快速构建决策树。

(二)并行化的随机森林——并行CART决策树算法

在这里插入图片描述
上图描述了随机森林(Random Forest)算法的并行化实现过程,特别是基于CART(分类回归树)算法构建的随机森林。以下是主要步骤的解析:

1. 原始数据集的处理

  • 步骤①:从原始数据集 D D D中,基于随机抽样的方法生成多个随机数据集(即子样本数据集 D 1 , D 2 , … , D k D_1, D_2, \dots, D_k D1,D2,,Dk)。
    • 这种随机抽样采用的是有放回的随机采样方法(Bootstrap),每个子数据集和原始数据集大小相同,但样本可能重复。

2. 构建子数据集

  • 步骤②:对每个子数据集 D i D_i Di,随机选择原始数据集中的 M M M个特征,而非使用全部特征(即进行特征随机选择)。
    • 在每个节点分裂时,只考虑 M M M个特征中的最佳分裂,而不是所有特征,从而增加模型的多样性。

3. 构建决策树

  • 步骤③:基于CART算法,在每个子数据集 D i D_i Di上构建决策树 T 1 , T 2 , … , T k T_1, T_2, \dots, T_k T1,T2,,Tk
    • 注意:CART决策树一般会完全生长(无剪枝),以最大程度保留样本数据的特征。

4. 并行化的树构建过程

  • 并行实现
    • 每个决策树 T i T_i Ti的构建过程可以在不同的计算节点或线程上独立并行进行,因为每棵树仅依赖于其对应的随机样本数据 D i D_i Di和随机特征选择,不需要与其他树通信。
    • 并行化大大提升了随机森林训练的效率,尤其在大规模数据集的场景中。

5. 集成决策与投票

  • 步骤④:训练完成后,将所有决策树 T 1 , T 2 , … , T k T_1, T_2, \dots, T_k T1,T2,,Tk组成随机森林。
  • 步骤⑤:输入新的预测数据,随机森林会让所有决策树分别对输入数据进行预测,得到多个分类结果 R 1 , R 2 , … , R k R_1, R_2, \dots, R_k R1,R2,,Rk
  • 步骤⑥:通过投票机制(分类问题)或平均机制(回归问题),对所有树的预测结果进行综合处理,得出最终的预测结果。

总结

  • 并行化:随机森林利用数据样本的独立性和树的构建独立性,天然适合并行化。
  • CART决策树:作为随机森林的基本组成部分,使用了随机特征选择,进一步增强模型的多样性和泛化能力。
  • 投票机制:通过多树投票,随机森林具备较强的鲁棒性和抗过拟合能力。

该方法广泛应用于分类、回归等任务,是一种高效且效果优异的集成学习方法。

四、并行k-均值算法

  k-均值算法是应用最广泛的聚类算法之一,随着大数据的发展,在实际使用过程中如何提升该算法的性能成为了一个有挑战性的任务。可以基于Map Reduce实现k-均值算法,在Hadoop环境中并行运行,能够高效且廉价的处理大型数据集。

  在具体实现该算法时,将输入数据集存储在分布式文件系统HDFS中,作为<key,value>的序列文件,每个键值对代表数据集的一条记录,其中key记录的是数据文件距离起始位置的偏移量,value是该条记录的内容。将迭代后或初始化后的k个聚类中心放到Configuration中,然后在Mapper的setUp计算读取这k个聚类中心。Mapper会将同一类的数据发送至同一个Reducer。在Reducer中,只需要根据数据重新计算聚类中心即可。

  使用MapReduce框架实现k-均值聚类算法时,需要将每一次迭代作为一个MapReduce Job进行计算,通过多次运行该Job达到迭代的效果,最终得到k个聚类中心。基于MapReduce的并行k-均值算法,可以在廉价机器上有效处理大型数据集。

(一)k-均值算法算例

进行k-均值聚类的数据如下表:

x 1 x_1 x1 x 2 x_2 x2 x 3 x_3 x3 x 4 x_4 x4 x 5 x_5 x5 x 6 x_6 x6 x 7 x_7 x7 x 8 x_8 x8 x 9 x_9 x9 x 10 x_{10} x10 x 11 x_{11} x11
12239101011151616
225314131516658

x 1 x_1 x1 x 6 x_6 x6分配给node1,将 x 7 x_7 x7 x 11 x_{11} x11分配给node2,选择k=3,在开始阶段,创建一个如下表的全局文件。

在这里插入图片描述
Map阶段对于数据集中的每一个节点,读取全局文件,获得上一轮迭代生成的簇中心信息,计算样本点到簇中心的距离。在Reduce阶段reduce程序收到关于某一个簇的信息,包括该簇的ID和簇的中心以及包含的样本个数。具体如下表。

在这里插入图片描述
一次迭代完成后,进入下一次迭代,直到聚类结果不再发生变化,输出最终得到的聚类结果如下表。

在这里插入图片描述
在这里插入图片描述

(二)多元线性回归模型

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2247323.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SOL链上的 Meme 生态发展:从文化到创新的融合#dapp开发#

一、引言 随着区块链技术的不断发展&#xff0c;Meme 文化在去中心化领域逐渐崭露头角。从 Dogecoin 到 Shiba Inu&#xff0c;再到更多细分的 Meme 项目&#xff0c;这类基于网络文化的加密货币因其幽默和社区驱动力吸引了广泛关注。作为近年来备受瞩目的区块链平台之一&…

一篇保姆式centos/ubuntu安装docker

前言&#xff1a; 本章节分别演示centos虚拟机&#xff0c;ubuntu虚拟机进行安装docker。 上一篇介绍&#xff1a;docker一键部署springboot项目 一&#xff1a;centos 1.卸载旧版本 yum remove docker docker-client docker-client-latest docker-common docker-latest doc…

Dubbo源码解析-Dubbo的线程模型(九)

一、Dubbo线程模型 首先明确一个基本概念&#xff1a;IO 线程和业务线程的区别 IO 线程&#xff1a;配置在netty 连接点的用于处理网络数据的线程&#xff0c;主要处理编解码等直接与网络数据 打交道的事件。 业务线程&#xff1a;用于处理具体业务逻辑的线程&#xff0c;可以…

前端全栈 === 快速入 门 Redis

目录 简介 通过 docker 的形式来跑&#xff1a; set、get 都挺简单&#xff1a; incr 是用于递增的&#xff1a; keys 来查询有哪些 key: redis insight GUI 工具。 list 类型 left push rpush lpop 和 rpop 自然是从左边和从右边删除数据。​编辑 如果想查看数据…

Python MySQL SQLServer操作

Python MySQL SQLServer操作 Python 可以通过 pymysql 连接 MySQL&#xff0c;通过 pymssql 连接 SQL Server。以下是基础操作和代码实战示例&#xff1a; 一、操作 MySQL&#xff1a;使用 pymysql python 操作数据库流程 1. 安装库 pip install pymysql2. 连接 MySQL 示例 …

编程语言之C++诞生记!

成长路上不孤单&#x1f60a;&#x1f60a;&#x1f60a;&#x1f60a;&#x1f60a;&#x1f60a; 【14后&#x1f60a;///C爱好者&#x1f60a;///持续分享所学&#x1f60a;///如有需要欢迎收藏转发///&#x1f60a;】 今日分享关于C诞生的相关内容&#xff01; 关于【C诞…

核心差异:知识VS文档管理(+工具软件安利)

在讨论知识管理和文档管理时&#xff0c;我们经常会听到这两种说法被混淆使用。然而&#xff0c;它们各自服务于不同的目的&#xff0c;这一点至关重要。 想象一下&#xff0c;你是一名项目经理&#xff0c;面临以下两项任务&#xff1a; 存储最新的项目计划捕捉团队讨论中获…

医院挂号就诊系统(源码+数据库+报告)

基于SpringBoot的医院挂号就诊系统&#xff0c;系统包含三种角色&#xff1a;管理员、医生、用户,系统分为前台和后台两大模块&#xff0c;主要功能如下。 前台&#xff1a; - 首页&#xff1a;展示医院相关信息、推荐医生等内容。 - 健康教育&#xff1a;提供健康知识、文章等…

【热门主题】000065 探索人工智能学习框架:开启智能未来的钥匙

前言&#xff1a;哈喽&#xff0c;大家好&#xff0c;今天给大家分享一篇文章&#xff01;并提供具体代码帮助大家深入理解&#xff0c;彻底掌握&#xff01;创作不易&#xff0c;如果能帮助到大家或者给大家一些灵感和启发&#xff0c;欢迎收藏关注哦 &#x1f495; 目录 【热…

《智慧教育实时数据分析推荐项目》详细分析

一、项目介绍 1、背景介绍 在互联网、移动互联网的带动下&#xff0c;教育逐渐从线下走向线上&#xff0c;在线教育近几年一直处于行业的风口浪尖&#xff0c;那随着基础设施的不断完善&#xff0c;用户需求也发生不少变化&#xff0c;因此传统教育机构、新兴互联网企业都在探…

使用LUKS对Linux磁盘进行加密

前言 本实验用于日常学习用&#xff0c;如需对存有重要数据的磁盘进行操作&#xff0c;请做好数据备份工作。 此实验只是使用LUKS工具的冰山一角&#xff0c;后续还会有更多功能等待探索。 LUKS&#xff08;Linux Unified Key Setup&#xff09;是Linux系统中用于磁盘加密的一…

在 cmd 输入 python.exe 后不报错也无反应的问题

在 cmd 输入 python.exe 后不报错&#xff1a;‘python.exe ’不是内部或外部命令&#xff0c;也不是可运行的程序或批处理文件&#xff0c;也无反应。只是显示这样一个弹窗&#xff1a; 查了下环境变量path&#xff0c;看看有什么地方有python.exe&#xff0c;发现原来在C:\Us…

10、PyTorch autograd使用教程

文章目录 1. 相关思考 1. 相关思考

如何在 Ubuntu 22 04 上安装和配置 Ansible 自动化平台

如何在 Ubuntu 22.04 上安装和配置 Ansible 自动化平台 简介 Ansible 是一个开源项目&#xff0c;并在 Github 上收获了 63k 的 star 。它是一个极其简单的 IT 自动化平台&#xff0c;使您的应用程序和系统更易于部署和维护。使用 SSH&#xff0c;以接近简单英语的语言实现从…

PowerMILL 客制化宏 - 用户菜单定义

用户右键菜单 在PowerMILL元素浏览器空白的地方右键弹出的菜单叫用户右键菜单。用户右键菜单可以调用宏或命令或用户二次开发的应用或批处理等等。 用户右键菜单定义 用户右键菜单需要建立一个没有扩展名的 “user_menu” 名称的文件&#xff0c;一般存放在 “C:\dcam\pmill2…

006 单片机嵌入式中的C语言与代码风格规范——常识

00 环境准备&#xff1a; 配置MDK支持C99 内置stdint.h介绍 stdint.h 是从 C99 中引进的一个标准 C 库的文件 路径&#xff1a;D:\MDK\ARM\ARMCC\include 01 C语言基础语法 一般的bug很有可能是C语言功底不扎实导致…… 1.结构体 由若干基本数据类型集合组成的一种自定义数…

《生成式 AI》课程 作业6 大语言模型(LLM)的训练微调 Fine Tuning -- part1

资料来自李宏毅老师《生成式 AI》课程&#xff0c;如有侵权请通知下线 Introduction to Generative AI 2024 Spring 该文档主要介绍了国立台湾大学&#xff08;NTU&#xff09;2024 年春季 “生成式人工智能&#xff08;GenAI&#xff09;” 课程的作业 5&#xff08;GenAI HW…

ZYNQ-7020嵌入式系统学习笔记(1)——使用ARM核配置UART发送Helloworld

本工程实现调用ZYNQ-7000的内部ARM处理器&#xff0c;通过UART给电脑发送字符串。 硬件&#xff1a;正点原子领航者-7020 开发平台&#xff1a;Vivado 2018、 SDK 1 Vivado部分操作 1.1 新建工程 设置工程名&#xff0c;选择芯片型号。 1.2 添加和配置PS IP 点击IP INTEGR…

JSONCPP 数据解析与序列化

常用类接口 Json::Value 类 用于存储 JSON 数据的核心类。它支持将数据解析为对象、数组或基本类型&#xff08;如字符串、数值等&#xff09; 赋值操作符&#xff1a;Value& operator(Value other); 用于将一个 JSON 值赋给另一个 JSON 值 Json::Value value; value &…

排序(Java数据结构)

1. 排序的概念及引用 1.1 排序的概念 排序&#xff1a;所谓排序&#xff0c;就是使一串记录&#xff0c;按照其中的某个或某些关键字的大小&#xff0c;递增或递减的排列起来的操作。(所有的排序都是默认从小到大排序) 稳定性&#xff1a;假定在待排序的记录序列中&#xff…