大数据-93 Spark 集群 Spark SQL 概述 基本概念 SparkSQL对比 架构 抽象

news2024/11/25 4:20:13

点一下关注吧!!!非常感谢!!持续更新!!!

目前已经更新到了:

  • Hadoop(已更完)
  • HDFS(已更完)
  • MapReduce(已更完)
  • Hive(已更完)
  • Flume(已更完)
  • Sqoop(已更完)
  • Zookeeper(已更完)
  • HBase(已更完)
  • Redis (已更完)
  • Kafka(已更完)
  • Spark(正在更新!)

章节内容

上节完成的内容如下:

  • Standalone提交
  • SparkContext相关概念
  • Shuffle 概念、历史、V1和V2对比

在这里插入图片描述

SparkSQL 概述

简单介绍

SparkSQL 是 Apache Spark 中用于处理结构化数据的模块。它不仅支持 SQL 查询,还允许你将 SQL 查询与 Spark 的其他强大功能结合使用,如数据流处理和机器学习。SparkSQL 提供了对数据的高度优化的访问方式,可以处理大量的结构化和半结构化数据集。

核心功能

  • SQL 支持:SparkSQL 允许用户使用标准的 SQL 语句查询数据,类似于传统的关系型数据库。它支持基本的 SQL 操作,如 SELECT、JOIN、GROUP BY 等。
  • 数据框 API:数据框(DataFrame)是 SparkSQL 中最重要的概念之一。它是一个分布式的数据集,类似于关系数据库中的表。数据框提供了一个统一的接口来处理不同的数据源,如 Hive、Parquet、JSON、CSV 等。你可以用类似 SQL 的方式对数据框进行操作,如过滤、聚合等。
  • 与其他 Spark 组件的集成:SparkSQL 无缝集成了 Spark 的其他组件,如 Spark Streaming 和 Spark MLlib。你可以将结构化数据处理与流数据处理或机器学习算法结合在一起。
  • Catalyst 优化器:SparkSQL 使用 Catalyst 优化器来自动优化 SQL 查询。这是一个强大的查询优化器,可以对查询执行计划进行转换和优化,从而提高查询的执行效率。
  • 统一的数据访问:SparkSQL 提供了一种统一的数据访问方式,可以处理结构化、半结构化和非结构化数据。它支持多种数据源,如关系数据库(通过 JDBC)、Hive、HDFS、Amazon S3 等。

使用场景

  • 数据仓库和商业智能:利用 SparkSQL 可以对大规模数据集进行复杂的查询和分析,非常适合用于数据仓库和商业智能场景。
  • 数据集成:SparkSQL 可以集成多个不同的数据源,将它们整合成一个统一的视图进行处理。
  • 数据管道:在数据管道中,SparkSQL 常用于数据的清洗、转换和聚合。

Hive

  • Hive的诞生,主要是因为MapReduce程序对Java的要求比较高,为了他们能够操作HDFS上的数据,推出了Hive。
  • Hive 和 RDBMS 的 SQL模型比较类似,容易掌握。
  • Hive 的主要缺陷在于它的底层是基于MapReduce的,执行比较慢。

Spark 0.x: Shark

在Spark 0.x版的时候推出了Shark,Shark与Hive是紧密关联的,Shark底层很多东西还是依赖于Hive,修改了内存管理、物理计划、执行三个模块,底层使用Spark基于内存的计算模型,性能上比Hive提升了很多倍。
Shark更多的是对Hive的改造,替换了Hive的物理执行引擎,提高了执行速度。但Shark继承了大量的Hive代码,因为给优化和维护带来了大量的麻烦。

Spark 1.x: Shark

在Spark1.x版本时Shark被淘汰,在2014年7月1日的SparkSummit上,Databricks宣布终止对于Shark的开发,将重点放到了 SparkSQL 上。
Shark终止后,产生了两个分支:

  • Hive On Spark:Hive社区的,源码在Hive中
  • Spark SQL (Spark On Hive):Spark社区的,源码在Spark中

Spark 3.0

Spark3.0 超过3400个Jira问题被解决,下面是各个核心组件中分布情况:
在这里插入图片描述

Spark SQL 特点

Spark SQL 从面世以来不仅结果了 Shark 的接力棒,为Spark用户提高高性能的 SQL On Hadoop 的解决方案,换为Spark带来了通用的、高效的、多元一体的结构化的数据处理能力。
Spark SQL 的优势:

  • 写更少的代码
  • 读更少的数据(Spark SQL的表数据在内存中存储不使用原生态JVM对象存储方式,而是内存列存储)
  • 提供更好的性能(字节码生成技术、SQL优化)

Spark SQL 数据抽象

Spark SQL 提供了两个新的抽象,分别是:

  • DataFrame
  • DataSet

DataFrame

DataFrame 的前身是SchemaRDD,Spark 1.3更名为 DataFrame,不继承RDD,自己实现了RDD的大部分功能。
与RDD类似,DataFrame也是一个分布式的数据集:

  • DataFrame可以看做分布式Row对象的集合,提供了由列组成的详细模式信息,使其可以得到优化-
  • DataFrame不仅有比RDD更多的算子,还可以进行执行计划的优化
  • DataFrame更像传统数据的二维表格,除了数据以外,还记录数据的结构信息,即 Schema
  • DataFrame支持嵌套数据类型(struct、array、map)
  • DataFrame API 提供了一套高层的关系操作,比函数式的RDD API要更加友好,门槛更低。
  • DataFrame 的劣势在于编译期间缺少安全检查,导致运行时出错。

下图是RDD存储和DataFrame存储的对比图:
在这里插入图片描述

Dataset

Dataset是在Spark1.6中添加的新的接口

  • 与RDD相比,保存了更多的描述信息,概念上等同于关系型数据库中的二维表
  • 与DataFrame相比,保存了类型信息,是强类型的,提供了编译时类型检查
  • 调用Dataset的方法先会生成逻辑计划,然后Spark的优化器进行优化,最终生成物理计划,然后提交到集群中运行
  • Dataset包含了DataFrame的功能,在Spark2.0中两者得到了统一,DataFrame表示为Dataset[Row],即Dataset的子集

在这里插入图片描述

Row & Schema

DataFrame = RDD[Row] + Schema。DataFrame的前身是 SchemaRDD
Row是一个泛化、无类型的JVM Object

我们可以启动 spark-shell 进行直观的体验:

spark-shell --master local[*]

尝试运行下面的代码:

import org.apache.spark.sql.Row

val row1 = Row(1, "abc", 1.2)

row1(0)
row1(1)
row1(2)

row1.getInt(0)
row1.getString(1)
row1.getDouble(2)

row1.getAs[Int](0)
row1.getAs[String](1)
row1.getAs[Double](2)

运行过程如下所示:
在这里插入图片描述

三者共性

  • RDD、DataFrame、Dataset是Spark平台下的分布式弹性数据集,为处理海量数据提供便利
  • 三者都有许多相同的概念,如分区、持久化、容错等,有许多共同的函数,如 Map、Filter、SortBy
  • 三者都有惰性机制,只有在遇到Action算子时,才会开始真正的计算。
  • 对DataFrame和Dataset进行操作许多操作都需要这个包进行支持(import spark.implicits._)

三者区别

DataFrame(DataFrame = RDD[Row] + Schema)

  • 与RDD和DataSet不同,DataFrame每一行的类型固定为Row,只有通过解析才能获取各个字段的值
  • DataFrame与Dataset均支持SparkSQL的操作

Dataset(Dataset = RDD[case class].toDS)

  • Dataset和DataFrame拥有完全相同的成员函数,区别只是每一行的数据类型不同
  • DataFrame 定义为 Dataset[Row],每一行的类型是Row,每一行究竟有哪些字段,各个字段又是什么类型都无从得知,只能用前面的提到的getAs的方式来拿出字段
  • Dataset每一行的类型都是一个 case class,在自定义了 case class之后可以很自由的获得每一行的信息

数据类型

SparkSQL 支持多种数据类型,这些数据类型可以表示不同种类的结构化数据。理解这些数据类型有助于你在使用 SparkSQL 进行数据处理时,正确地定义和操作数据。

基本类型

  • StringType:表示字符串类型的数据。用于存储文本数据。
  • BinaryType:表示二进制数据类型,用于存储字节数组。
  • BooleanType:表示布尔类型的数据,只有两个可能的值:true 和 false。
  • DateType:表示日期类型的数据,不包含时间部分。格式通常为 YYYY-MM-DD。
  • TimestampType:表示时间戳类型的数据,包含日期和时间。格式通常为 YYYY-MM-DD HH:MM:SS.SSSSSS。
  • DoubleType:表示双精度浮点数类型的数据。用于存储高精度的数值。
  • FloatType:表示单精度浮点数类型的数据。比 DoubleType 占用更少的存储空间,但精度较低。
  • ByteType:表示一个 8 位有符号整数的数据类型。取值范围为 -128 到 127。
  • ShortType:表示一个 16 位有符号整数的数据类型。取值范围为 -32768 到 32767。
  • IntegerType:表示一个 32 位有符号整数的数据类型。取值范围为 -2147483648 到 2147483647。
  • LongType:表示一个 64 位有符号整数的数据类型。用于存储长整型数据。
  • DecimalType:表示精确的小数类型的数据。通常用于存储货币或需要精确计算的小数。

复杂类型

  • ArrayType:表示一个数组类型,可以存储相同数据类型的多个值。它的元素类型可以是任何数据类型(包括嵌套的复杂类型)。
  • MapType:表示键值对(key-value pairs)的集合,类似于哈希表或字典。键和值都可以是任意数据类型。
  • StructType:表示一个结构体类型,类似于关系数据库中的行。它由一组字段组成,每个字段都有一个名称和类型。StructType 是用来定义表的模式的主要方式。

特殊类型

  • NullType:表示空值的类型,通常在处理空数据或缺失数据时使用。
  • CalendarIntervalType:表示一个时间间隔,用于存储时间差异,例如几年几个月几天。

在这里插入图片描述

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2061547.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

VMware虚拟机nat无法联通主机

VMware在nat模式下主机无法ping通虚拟机 原因: 虚拟机和对应的网卡不在一个网段 虚拟机开启了防火墙 解决方法: 首先判断虚拟机的网络ip是否和网卡在一个网段上 判断虚拟机使用的网卡 nat模式在VMware虚拟机中一般只有一个对应的网卡 如图笔者的nat网卡为VM…

基于机器学习的二手房房价数据分析与价格预测模型

有需要本项目的可以私信博主,提供远程部署讲解 本研究聚焦重庆二手房市场,通过创新的数据采集和分析方法,深入探讨影响房价的关键因素,并开发了预测模型。 我们首先利用Python编写的爬虫程序,巧妙规避了链家网站的反…

ClickHouse实时探索与实践 京东云

1 前言 京喜达技术部在社区团购场景下采用JDQFlinkElasticsearch架构来打造实时数据报表。随着业务的发展 Elasticsearch开始暴露出一些弊端,不适合大批量的数据查询,高频次深度分页导出导致ES宕机、不能精确去重统计,多个字段聚合计算时性能…

初识Linux · 权限

目录 前言: 1 预备知识 2 权限 2.1 文件的基本权限 2.2 修改权限的第一种做法 2.3 修改权限的第二种做法 2.4 权限的对比 2.5 文件类型 前言: 继上文我们将常用的指令介绍的七七八八了,本文着重探索Linux文件中的权限部分&#xff0…

docker部署postgresSQL 并做持久化

先安装docker,安装docker 方法自行寻找方法 然后安装pgsql 拉取镜像 docker pull registry.cn-hangzhou.aliyuncs.com/qiluo-images/postgres:latest运行容器 docker run -it --name postgres --privileged --restart always -e POSTGRES_PASSWORDZ6n8g4zJzC3mr…

手动与自动修复mfc140u.dll丢失的解决方法,mfc140u.dll在电脑中是什么样的存在

当您遇到“mfc140u.dll丢失”的错误时,通常意味着计算机上缺少Microsoft Foundation Class (MFC) 库的特定版本,该库是Visual Studio 2015的一部分。这种问题往往在启动某些应用程序或游戏时出现,并显示如“无法启动该程序,因为计…

可变参数模板(C++11)

这篇文章讲解的是C11的特性之一——可变参数模板,适合有一定基础的同学学习,如果是刚入门的同学可以看我过往的文章:C基础入门 可变参数模板(Variadic Templates)是C的一种高级特性,它允许你编写接受任意数…

8.20T3 无损加密(线性代数转LGV+状压dp+高维前缀和)

http://cplusoj.com/d/senior/p/NODSX2301C 对于式子: 这个神秘的线性代数形式比较难处理,但我们可以考虑其组合意义。行列式现存的可用组合意义之一就是LGV(矩阵式不太可用) 先把原先的矩阵转化为一个有向图。现在我们要构造一…

笔记本电脑无线网卡突然没有了

目录 笔记本电脑无线网卡突然没有了最优解决方案 笔记本电脑无线网卡突然没有了 记录一次笔记本无线网卡突然没有了的解决方案 显示黄色感叹号,试了几个安装驱动的软件都不行 最优解决方案 找到网卡的厂商官网,官网上下载驱动 比如我的无线网卡是Int…

【Hot100】LeetCode—146. LRU 缓存

目录 1-思路1-1 LRU知识点1-2 实现思路LRU的子数据结构① 双向链表 DLinkedNode 结点定义② 其他字段 LRU实现的方法① 初始化——LRUCache中初始化② public int get(int key) 取元素方法③ public void put(int key, int value) 存元素方法 2-实现⭐146. LRU 缓存——题解思路…

rufus制作ubantu的U盘安装介质时,rufus界面上的分区类型选什么?

rufus制作ubantu的U盘安装介质时,rufus软件界面上的分区类型选什么(如下图)? 在使用Rufus制作Ubuntu的U盘安装介质时,分区类型的选择取决于我们的计算机的引导方式。 以下是具体的选择建议: 1、查看计算机的引导方式…

JAVA设计模式之【单例模式】

1 类图 2 饿汉式单例 例如:静态块、静态成员 2.1 概念 类加载的时候就立即初始化,并且创建单例对象 2.2 优点 没有加任何的锁、执行效率比较高 2.3 缺点 类加载的时候就初始化,不管用与不用都占着空间,浪费了内存。 3 懒汉…

Java之迭代器的使用

Java之迭代器的使用 摘要基础知识List迭代器Map迭代器 摘要 本博客主要讲解容器的迭代器的使用,包括List、Set和Map等容器 基础知识 这是类的继承关系图 迭代器的原理(一开始迭代器并不指向任何有效元素): List迭代器 public class TestIterator …

VMware vSphere Client无法访问和连接ESXi虚拟主机解决思路

文章目录 前言1. 问题现象2. 问题原因3. 解决方法4. 参考文章 前言 注意 : 可以先看看参考文章那里,在回过来看 1 、 2 、3 1. 问题现象 版本:VMware vCenter Server 5.5.0 build-2442329 问题描述:用VMware vSphere Client 登录ESXI主机出…

【Linux —— 线程互斥】

Linux —— 线程互斥 1. 临界资源与临界区2. 互斥的定义3. 原子性4. 互斥量(Mutex)5. 互斥的实现示例 1. 临界资源与临界区 临界资源: 指的是多个线程或进程共享的资源,例如全局变量、文件、数据库等。由于这些资源的共享,可能会导致数据不一致或程序崩…

git commit 时发生:fatal: cannot lock HEAD ref

.git目录探析_.git文件在哪-CSDN博客https://blog.csdn.net/luofeng457/article/details/117577275 tree .git .git ├── branches ├── COMMIT_EDITMSG ├── config ├── description ├── FETCH_HEAD ├── HEAD ├── hooks │ ├── applypatch-msg.sample…

STM32的GPIO

GPIO基本控制 GPIO(General-Purpose input/output,通用输入/输出接口) 用于感知外部信号(输入模式)和控制外部设备(输出模式) 简单模块:LED,按键,蜂鸣器,温度传感器,使用一个GPIO…

qt-PLC可视化编辑器

qt-PLC可视化编辑器 一、演示效果二、核心代码三、下载链接 一、演示效果 二、核心代码 #include "diagramitem.h" #include "arrow.h"#include <QDebug> #include <QGraphicsScene> #include <QGraphicsSceneContextMenuEvent> #includ…

1 Kubeflow总体介绍-学习笔记

1 什么是 Kubeflow Kubeflow 是一个开源项目社区和生态系统&#xff0c;支持机器学习 (ML) 生命周期中的每个阶段 &#xff0c;并支持相关的开源 工具和框架&#xff0c;Kubeflow 使 Kubernetes 上的 AI/ML 变得简单、可移植且可扩展。 Kubeflow 都能提供模块化、可扩展的工具…

C语言第17篇

1.在C语言中,全局变量的存储类别是_________. A) static B) extern C) void D) register 提示&#xff1a;extern adj.外来的 register n.登记表&#xff0c;v.登记 提示与本题无关 2.在一个C源程序文件中,要定义一个只允许本源文件中所有函数使用的全局变…