2024-02-29(Flink)

news2024/11/16 5:30:56

1.Flink原理(角色分工)

2.Flink执行流程

on yarn版:

3.相关概念

1)DataFlow:Flink程序在执行的时候会被映射成一个数据流模型;
2)Operator:数据流模型中的每一个操作被称作Operator,Operator分为:Source,Transform,Sink;
3)Partition:数据流模型是分布式和并行的,执行中会形成1-n个分区
4)Subtask:多个分区任务可以并行,每一个都是独立运行在一个线程中的,也就是一个SubTask子任务;
5)Parallelism:并行度,就是可以同时真正执行的子任务数/分区数。

6)Operator传递模式
6-1)One to One模式:两个operator用此模式传递的时候,会保持数据的分区数和数据的排序(类似于spark中的窄依赖),多个one to one 的operator可以合并为一个operator chain。

6-2)Redistributing模式:此模式会改变数据的分区数(类似于Spark中的宽依赖
7)TaskSlot and Slot Sharing
7-1)TaskSlot(任务槽)

每个TaskManager是一个JVM进程,为了控制一个TaskManager(worker)能接收多少task,Flink通过Task slot来进行控制。TaskSlot数量是用来限制一个TaskManager工作进程中可以同时运行多少个工作线程,TaskSlot是一个TaskManager中的最小资源分配单位,一个TaskManager中有多少个TaskSlot就意味着能支持多少并发的Task处理。

7-2)Slot Sharing(槽共享)

前面的Task Slot跑完一些线程任务之后,Task Slot可以给其他线程任务使用,这就是槽共享,这样的好处是可以避免线程的重复创建和销毁。

8)ExecutionGraph(Flink执行图)

解释上图:

流程化)StreamGraph:最初的程序执行逻辑,也就是算子之间的前后顺序 ---- 在Client上生成

优化合并)JobGraph:将One to One的Operator合并为OperatorChain ---- 在Client上生成

并行化)ExecutionGraph:将JobGraph根据代码中设置的并行度和请求的资源进行并行化规划 ---- 在JobManager上生成

将任务分配给具体的TaskSlot执行---落实执行线程化)物理执行图:将ExecutionGraph的并行计划,落实到具体的TaskManager上,将具体的SubTask落实到具体的TaskSlot内进行运行。

4.Flink流批一体API

前置知识:

{

Flink把流分为:

有边界的流(bounded Stream):批数据

无边界的流(unbounded Steam):真正的流数据

流计算和批计算对比:

数据时效性:流式计算实时,批计算非实时,高延迟;

数据特征不同:流式计算的数据一般是动态的,没有边界的,而批处理的数据一般则是静态数据。

应用场景不同:流式计算应用在实时场景,时效性要求比较高的场景,如实时推荐,业务监控等,批处理应用在实时性要求不高,离线计算的场景下,数据分析,离线报表等。

运行方式不同:流式计算的任务持续进行的,批量计算的任务则一次性完成。

}

4-1)Source(数据从哪来)

File-based基于文件:

env.readTextFile(本地/HDFS文件/文件夹);

Socket-based基于Socket连接:

env.socketTextStream(主机名,端口号);

Collection-based基于集合:

env.fromElemnts();
env.fromCollection();
env.generateSequence();
env.fromSequence();

Custom自定义:

Flink还提供了数据源接口,我们实现了这些接口就可以实现自定义数据源获取数据,不同接口有不同的功能,接口如下:

SourceFunction:非并行数据源(并行度=1)

RichSourceFunction:多功能非并行数据源(并行度=1)

ParallelSourceFunction:并行数据源(并行度可以 > 1)

RichParallelSourceFunction:多功能并行数据源(并行度可以 > 1)--- kafka数据源就使用该接口

---------------------------------------------------------------------------------------------------------------------------------

4-2)Transformation(数据做怎样的操作处理)

Transformation基本操作

map:j将函数作用在集合中的每一个元素上,并返回作用后的结果。

flat Map:将集合中的每个元素变成一个或者多个元素,并返回扁平化之后的结果

keyBy:按照指定的key来对流中的数据进行分组。注意:流中没有groupBy,而是keyBy

filter:按照指定的条件对集合中的元素进行过滤,过滤出返回true/符合条件的元素

sum:按照指定的字段对集合中的元素进行求和

reduce:对集合中的元素进行聚合

Transformation合并和拆分:

union:union算子可以合并多个同类型的数据流,并生成同类型的数据流,即可以将多个DataStream[T]合并成为一个新的DataStream[T]。数据按照先进先出FIFO的模式合并。

connect:

和union类似,用来连接两个数据流,区别在于:connect只可以连接两个数据流,union可以连接多个;connect所连接的两个数据流的数据类型可以不一样,unions所连接的两个数据流的数据类型必须一样

split(已废除),select,side output:

split就是将一个流分成多个流;

select就是获取分流后对应的数据;

side output:可以使用process方法对流中的数据进行处理,并针对不同的处理结果将数据收集到不同的OuputTag中。

rebalance(重平衡分区):

类似于Spark中的repartition算子,功能更强,可以直接解决数据倾斜(Flink也有数据倾斜的情况,如下图),在内部使用round robin方法将数据均匀打散。

其他分区API:

dataStream.global();   全部发往第一个Task
dataStream.broadcast();   广播
dataStream.forward();   上下游并发度一样时一对一发送
dataStream.shuffle();   随即均匀分配
dataStream.rebalance();   轮流分配
dataStream.recale();   本地轮流分配
dataStream.partitionCustom();   自定义单播

-------------------------------------------------------------------------------------------------------------------------------- 

4-3)Sink(数据做怎样的输出)

基于控制台和文件的Sink

ds.print(); 直接输出到控制台

ds.printErr(); 直接输出到控制台,用红色

ds.writeAsText().setParallelism(); 以多少并行度输出到某个文件路径 

自定义的Sink

--------------------------------------------------------------------------------------------------------------------------------

4-4)Connectors(连接外部的工具)

Connectors-JDBC

Flink内已经提供了一些绑定的Connector,例如Kafka source和sink,Es sink等。读写Kafka,es,rabiitMQ时可以直接使用相应的connector的API就可以了。

同样Flink内也提供了专门操作redis的RedisSink。查询接口文档使用就行了。

5.Flink高级API

Flink四大基石

Flink流行的原因,就是这四大基石:CheckPoint,State,Time,Window。

a.Flink-Windows操作

使用场景:在流式处理中,数据是源源不断的,有时候我们需要做一些聚合类的处理。例如,在过去一分钟内有多少用户点击了网页。此时我们可以定义一个窗口/window,用来收集1分钟内的数据,并对这个窗口内的数据进行计算。

Flink支持按照

(用的多)时间time:每xx分钟统计最近xx分钟的数据

数量count:每xx个数据统计最近xx个数据

两种类型的窗口形式

按照窗口的形式进行组合有四种窗口:

基于时间的滑动窗口,基于时间的滚动窗口,基于数量的滑动窗口,基于数量的滚动窗口。

---------------------------------------------------------------------------------------------------------------------------------

b.Flink-Time和Watermark

在Flink的流式处理中,会涉及到时间的不同概念

事件时间EventTime:事件真真正正发生/产生的时间(重点关注事件时间)

摄入时间IngestionTime:事件到达Flink的事件

处理时间ProcessingTime:事件真正被处理/计算的时间

事件时间能够真正反映/代表事件的本质!所以一般在实际开发中会以事件时间作为计算标准

总结

        实际开发中我们希望基于事件时间来处理数据,但因为数据可能因为网络延迟等原因,出现了乱序或延迟到达,那么可能处理的结果不是我们想要的甚至出现数据丢失的情况,所以需要一种机制来解决一定程度上的数据乱序或延迟到底的问题!也就是Watermaker水印机制/水位线机制

什么是Watermark?

就是给数据额外的加的一个时间列,也就是个时间戳。

Watermark = 当前窗口的最大事件事件 - 最大允许的延迟时间或者乱序时间

这样可以保证Watermaker水位线会一直上升(变大),不会下降。

Watermark的作用:用来触发窗口计算,通过改变触发窗口计算的时机,从而在一定程度上解决数据乱序的问题

---------------------------------------------------------------------------------------------------------------------------------

c.Fink-状态管理

Flink支持状态的自动管理。在绝大多数情况下使用Flink提供的自动管理就行了,极少数使用手动的状态管理。

无状态计算是什么意思:就是不需要考虑历史的数据,相同的输入得到相同的输出。

有状态计算(Flink有自动状态管理了,就少手动去维护状态管理了吧)就是要考虑历史的数据,相同而输入不一定得到相同的输出。

---------------------------------------------------------------------------------------------------------------------------------

d.Flink-容错机制

State和CheckPoint的区别:

State

维护/存储的是某一个Operator的运行的状态/历史值,是维护在内存中!

一般指一个具体的Operator的状态(operator的状态表示一些算子在运行的过程中会产生的一些历史结果如前面的maxBy底层会维护当前的最大值,也就是会维护一个keyedOperator,这个State里面存放就是maxBy这个Operator中的最大值)

CheckPoint

某一时刻,Flink中所有的Operator的当前State的全局快照,一般存在磁盘上(一般放HDFS上)。

表示了一个Flink Job在一个特定时刻的一份全局状态快照,即包含了所有Operator的状态可以理解为Checkpoint是把State数据定时持久化存储了。

比如KafkaConsumer算子中维护的Offset状态,当任务重新恢复的时候可以从Checkpoint中获取。

6.状态恢复和重启策略

重启策略分类:

默认重启策略:配置了Checkpoint的情况下不做任务配置,默认是无限重启并自动恢复,可以解决小问题,但是可能会隐藏掉真正的bug。

无重启策略:使用API配置不重启即可。

固定延迟重启策略(开发中使用):调用API,配置固定时间or多少次数重启

失败率重启策略(开发偶尔使用):调用API,可以选择每个测量阶段内最大失败次数;失败率测量的时间间隔;两次连续重启的时间间隔来重启。

7.SavePoint(本质就是手动的CheckPoint)

实际开发中,如果要对集群进行停机维护/扩容,这个时候需要执行一次SavePoint,也就是执行一次手动的CheckPoint,那么这样的话,程序所有的状态都会被执行快照并保存。当扩容/维护完毕后,可以从上一次的checkpoint的目录中恢复。

8.Flink Table API 和 SQL(重点)

和Hive,Spark SQL一样,Flink也选择用SQL语言来进行业务程序的编写,为什么?

因为Java,Scala等开发语言难度较高,SQL语言简单,能迅速上手,因此Flink也是将Flink Table API & SQL作为未来的核心API。

Flink Table API & SQL的特点:

声明式 --- 用户只关心做什么,不用关心怎么去做

高性能 --- 支持查询优化,可以获取更好的执行性能

流批统一 --- 相同的统计逻辑,既可以支持流模式运行,也可以支持批模式运行

标准稳定 --- 语音遵循SQL标准,不易变动

易理解 --- 语义明确,所见即所得

9.动态表和连续查询

动态表:就是源源不断地数据不断地添加到表的末尾

连续查询:连续查询需要借助state状态管理

10.Spark vs Flink

1)应用场景

Spark主要做离线批处理,对延时要求不高的实时处理(微批)

Flink主要用于实时处理,Flink 1.12支持流批一体

2)API上

Spark:RDD(不推荐)/ DSteam(不推荐)/  DataFrame和DataSet

Flink:DataSet(软弃用)和DataSteam / Tabel API & SQL

3)核心角色和原理

Spark:

Flink:

4)时间机制

Spark:SparkSteaming只支持处理时间,StructuredSteaming开始支持事件时间

Flink:直接支持事件时间/处理时间/摄入时间

5)容错机制

Spark:缓存/ 持久化+ checkpoint(应用级别)

Flink:State + CheckPoint(Operator级别,颗粒度更小) + 自动重启策略 + SavePoint

6)窗口

Spark中支持时间,数量的滑动和滚动窗口,要求windowDuration和SlideDuration必须是batchDuration的倍数

Flink中的窗口机制更加灵活/功能更多,支持基于时间/数量的滑动/滚动 和 会话窗口

Flink保姆级教程,超全五万字,学习与面试收藏这一篇就够了_flink 教程-CSDN博客

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1479682.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

rtu遥测终端介绍(智能rtu数据采集终端使用案例参考)

​随着工业互联网的快速发展,各类智能终端逐渐应用于工业现场,实现对设备和过程的智能监控。其中,RTU(遥测终端)凭借采集控制一体化的优势,在提升工作效率的同时降低了系统集成的复杂度,成为工业物联网建设中必不可少的重要组件之一。今天,我们就来看看厦门星创易联这一工业物联…

深度学习_15_过拟合欠拟合

过拟合和欠拟合 过拟合和欠拟合是训练模型中常会发生的事,如所要识别手势过于复杂,如五角星手势,那就需要更改高级更复杂的模型去训练,若用比较简单模型去训练,就会导致模型未能抓住手势的全部特征,那简单…

【OCR识别】使用OCR技术还原加密字体文字

文章目录 1. 写在前面2. 页面分析3. 字符知识4. 加密分析 【作者主页】:吴秋霖 【作者介绍】:Python领域优质创作者、阿里云博客专家、华为云享专家。长期致力于Python与爬虫领域研究与开发工作! 【作者推荐】:对JS逆向感兴趣的朋…

The Era of 1-bit LLMs: All Large Language Models are in 1.58 Bits

The Era of 1-bit LLMs: All Large Language Models Are in 1.58 Bits 相关链接:arxiv、github 关键字:1-bit LLMs、BitNet、模型压缩、能耗效率、模型性能 摘要 近期的研究,例如BitNet,正在为1-bit大型语言模型(LLMs…

网站文章被百度快速收录的工具

百度是中国最主要的搜索引擎之一,对于网站管理员来说,网站文章被百度快速收录是至关重要的,因为这直接影响着文章的曝光和网站的流量。然而,许多网站管理员都会问一个常见的问题:文章百度收录需要几天?在这…

ISP代理是什么?怎么用?

在跨境出海业务中,代理IP对于您的在线任务至关重要,尤其是对于那些运行多个帐户的人来说。为您的帐户选择正确类型的代理对于确保帐户安全非常重要,劣质的IP容易使账号遭受封号风险。IPFoxy的多种代理IP类型应用范围各有侧重,其中…

项目实现json字段

有些很复杂的信息,我们一般会用扩展字段传一个json串,字段一般用text类型存在数据库。mysql5.7以后支持json类型的字段,还可以进行sql查询与修改json内的某个字段的能力。 1.json字段定义 ip_info json DEFAULT NULL COMMENT ip信息, 2.按…

C语言学习笔记(二)

C语言学习 学习笔记(一) 学习笔记(二) 文章目录 C语言学习一、C语言中的数据类型进制二进制八进制十六进制进制转换表 单位换算寻址 数据类型基本类型整数类型整数的有符号和无符号实数类型字符型 构造类型指针类型空类型总结 常量直接常量符号常量转义符 符号常量…

Java配置49-nginx 反向代理 sftp 服务器

1. 背景 后端服务需要通过部署在跳板机上的 nginx 访问一个外网的 SFTP 服务器。 2. 方法 nginx从 1.9.0 开始,新增加了一个stream模块,用来实现四层协议的转发、代理或者负载均衡等。 首先检查 nginx 版本信息及是否安装了 stream 模块。 进入 ngi…

java程序员面试笔试宝典答案,java面试框架问题

目录 由于文档内容过多,共计有500页,因此为了避免影响到大家的阅读体验,在此只以截图展示部分内容,详细完整版的可以在文末获取! 部分内容展示 深入浅出索引(上) 索引的常见模型InnoDB 的索引…

回溯 Leetcode 332 重新安排行程

重新安排行程 Leetcode 332 学习记录自代码随想录 给你一份航线列表 tickets ,其中 tickets[i] [fromi, toi] 表示飞机出发和降落的机场地点。请你对该行程进行重新规划排序。 所有这些机票都属于一个从 JFK(肯尼迪国际机场)出发的先生&a…

使用R语言进行主成分和因子分析

一、数据描述 数据来源2013年各地区水泥制造业规模以上企业的各主要经济指标,原始数据来源于2014年(《中国水泥统计年鉴》),试对用主成分和因子进行经济效益评价。 地区,企业个数(亿元),流动资产合计&…

亚信安慧AntDB之国密算法介绍

近年来,为摆脱对国外技术和产品的过度依赖,建设行业网络安全环境,增强我国行业信息系统安全、可靠的能力,国家有关机关和监管机构站在国家安全和长远战略的高度提出了“推动国密算法应用实施、加强行业安全可控”的要求。 密码算…

感谢信∣企企通再获肯定,中国煤科【天玛智控】SRM项目成功上线,推动煤矿供应链智能化高效协同发展

近日,煤矿智能无人化开采技术引领者【北京天玛智控科技股份有限公司】(以下简称“天玛智控”)携手企企通打造的SRM数字化采购平台成功上线。系统上线后,实现了天玛智控与供应商之间的信息共享和业务协作,提升采购业务效…

解决android studio build Output中文乱码

1.效果如下所示: 代码运行报错的时候,Build Output报的错误日志中中文部分出现乱码,导致看不到到底报的什么错。 2.解决办法如下: 点击Android studio开发工具栏的Help-Edit Custom VM Options....,Android studio会…

Node.js中的并发和多线程处理

在Node.js中,处理并发和多线程是一个非常重要的话题。由于Node.js是单线程的,这意味着它在任何给定时间内只能执行一个任务。然而,Node.js的事件驱动和非阻塞I/O模型使得处理并发和多线程变得更加高效和简单。在本文中,我们将探讨…

继承-学习2

this关键字:指向调用该方法的对象,一般我们是在当前类中使用this关键字,所以我们常说代表本类对象的引用 super关键字:代表父类存储空间的标识(可看作父类对象的引用) 父类: package ven;public class Fu {//父类成员…

Jenkins笔记(一)

个人学习笔记(整理不易,有帮助点个赞) 笔记目录:学习笔记目录_pytest和unittest、airtest_weixin_42717928的博客-CSDN博客 目录 一:简单了解 二:什么是DevOps 三:安装Jenkins 四&#xff1…

uniapp实现-审批流程效果

一、实现思路 需要要定义一个变量, 记录当前激活的步骤。通过数组的长度来循环数据,如果有就采用3元一次进行选择。 把循环里面的变量【name、status、time】, 全部替换为取出的那一项的值。然后继续下一次循环。 虚拟的数据都是请求来的, 组装为好渲染的格式。 二…

Diffusion Models/Score-based Generative Models背后的深度学习原理(5):伪似然和蒙特卡洛近似配分函数

Diffusion Models专栏文章汇总:入门与实战 前言:有不少订阅我专栏的读者问diffusion models很深奥读不懂,需要先看一些什么知识打下基础?虽然diffusion models是一个非常前沿的工作,但肯定不是凭空产生的,背…