PyFlink1.16.0 使用说明:建表及连接Mysql数据库

news2024/9/22 16:10:06

PyFlink1.16.0 使用说明:建表及连接Mysql数据库

  • 引言
  • 安装运行环境
  • PyFlink创建作业环境
    • 一、创建一个 Table API 批处理表环境
    • 二、创建一个 Table API 流处理表环境
    • 三、创建一个 DataStream API 数据流处理环境
  • PyFlink建表
    • 一、从Python List对象创建一个 Table
    • 二、创建具有显式架构的 Table
    • 三、从pandas DataFrame创建一个table
    • 四、从DDL语句创建 Table
    • 五、从 TableDescriptor 创建数据源表
    • 六、从 DataStream 创建 数据源表
    • 七、从Catalog 创建数据源表
  • PyFlink连接Mysql数据库
  • PyFlink同步Mysql表数据到另一张表
    • 一、创建表环境并添加数据库连接依赖
    • 二、创建数据源表
    • 三、创建接收数据表
    • 三、执行数据同步

引言

Flink已经成为 大数据开发 领域举足轻重的存在

直到 PyFlink1.16.0 版本,python已经支持95%以上的Fink功能

最好的学习办法是通过官方文档进行学习

但是官方文档中使用的例子,往往跑不通

需要有一定的经验积累,再进行不断调试,才能摸索到一定的门道

安装运行环境

环境根据最新的版本安装即可,需要注意最新的PyFlink支持的最大Python版本

如:PyFlink1.16.0 支持Python 3.6, 3.7, 3.8 or 3.9,大于3.9的版本就不支持了


PyFlink创建作业环境

PyFlink分为 DataStream API 和 Table API & SQL

在创建环境的方式上大概分为三种:

一、创建一个 Table API 批处理表环境

from pyflink.table import EnvironmentSettings, TableEnvironment
batch_env_settings = EnvironmentSettings.in_batch_mode()
batch_table_env = TableEnvironment.create(batch_env_settings)

二、创建一个 Table API 流处理表环境

from pyflink.table import EnvironmentSettings, TableEnvironment
stream_env_settings = EnvironmentSettings.in_streaming_mode()
stream_table_env = TableEnvironment.create(stream_env_settings)

三、创建一个 DataStream API 数据流处理环境

from pyflink.datastream import StreamExecutionEnvironment
from pyflink.table import StreamTableEnvironment
data_stream_env = StreamExecutionEnvironment.get_execution_environment()
data_stream_table_env = StreamTableEnvironment.create(data_stream_env)

PyFlink建表

Table 是 python table api的核心组件

对象描述数据转换的通道

它不以任何方式包含数据本身

相反,它描述了如何从表源读取数据

如何对数据添加一些计算以及如何最终将数据写入表接收器

声明管道可以 打印、优化并最终在集群中执行

管道可以使用有界或无界流

一、从Python List对象创建一个 Table

def create_table_from_list():
    """
    根据list数据,创建数据源表

    流模式、批模式 均可以创建成功
    :return:
    """
    table = batch_table_env.from_elements([(1, 'Hi'), (2, "Hello")])
    # table = stream_table_env.from_elements([(1,'Hi'),(2,"Hello")])
    print(table.get_schema())
    table.execute().print()

二、创建具有显式架构的 Table

def create_table_from_type():
    """
    在创建数据源表的时候,设置好字段类型和字段名称

    流模式、批模式 均可以创建成功
    :return:
    """
    # table = batch_table_env.from_elements([
    #     (1,"hi"),(2,"Hello")
    # ],
    # DataTypes.ROW([
    #     DataTypes.FIELD("id",DataTypes.TINYINT()),
    #     DataTypes.FIELD('data',DataTypes.STRING())
    # ]))
    table = stream_table_env.from_elements([
        (1, "hi"), (2, "Hello")
    ],
        DataTypes.ROW([
            DataTypes.FIELD("id", DataTypes.TINYINT()),
            DataTypes.FIELD('data', DataTypes.STRING())
        ]))
    print(table.get_schema())
    table.execute().print()

三、从pandas DataFrame创建一个table

def create_tabel_from_pandas():
    """
    pandas设置表数据

    流模式、批模式 均可以创建成功
    :return:
    """
    df = pd.DataFrame({
        'id': [1, 2],
        'data': ['Hi', 'Hello']
    })
    # table = batch_table_env.from_pandas(df)
    table = stream_table_env.from_pandas(df)
    print(table.get_schema())
    table.execute().print()

四、从DDL语句创建 Table

注意点:使用 批处理环境的时候,无法执行成功 ,必须使用 流处理环境
使用批处理环境报错信息:

Querying an unbounded table 'default_catalog.default_database.random_source' in batch mode is not allowed. The table source is unbounded.
def create_table_from_ddl():
    """
    使用sql语句创建数据源表

    注意点:使用 批处理环境的时候,无法执行成功
    必须使用 流处理环境
    :return:
    """
    create_sql = """
    CREATE TABLE random_source (
        id TINYINT,
        data STRING
    ) WITH (
        'connector' = 'datagen',
        'fields.id.kind' = 'sequence',
        'fields.id.start' = '1',
        'fields.id.end' = '2',
        'fields.data.kind' = 'random'
    )
    """

    # batch_table_env.execute_sql(create_sql )
    # table = batch_table_env.from_path("random_source")
    # table.get_schema()
    # table.execute().print()
    # 以上失败

    # 以下成功
    # stream_table_env.execute_sql(create_sql )
    # table = stream_table_env.from_path("random_source")
    # table.execute().print()
    data_stream_table_env.execute_sql(create_sql)
    table = data_stream_table_env.from_path("random_source")
    table.execute().print()

五、从 TableDescriptor 创建数据源表

注意点:使用 批处理环境的时候,无法执行成功 ,必须使用 流处理环境

def create_table_from_descriptor():
    """
    使用TableDescriptor,创建数据源表

    注意点:使用 批处理环境的时候,无法执行成功
    必须使用 流处理环境
    :return:
    """
    schema = (Schema.new_builder()
              .column('id', DataTypes.TINYINT())
              .column('data', DataTypes.STRING())
              .build())

    # table = batch_table_env.from_descriptor(
    # 以上失败

    # 以下成功
    table = stream_table_env.from_descriptor(
        TableDescriptor
        .for_connector('datagen')
        .option('fields.id.kind', 'sequence')
        .option('fields.id.start', '1')
        .option('fields.id.end', '2')
        .option('fields.data.kind', 'random')
        .schema(schema)
        .build()
    )
    table.get_schema()
    table.execute().print()

六、从 DataStream 创建 数据源表

def create_table_from_data_stream():
    """
    使用DataStream 创建数据源表
    创建方式与以上都不相同。
    环境设置数据和数据类型及字段名
    表环境设置数据源表
    :return:
    """
    data_stream_env = StreamExecutionEnvironment.get_execution_environment()
    data_stream_table_env = StreamTableEnvironment.create(data_stream_env)

    ds = data_stream_env.from_collection(
        [(1, 'Hi'), (2, 'Hello')],
        type_info=Types.ROW_NAMED(
            ['id', 'data'],
            [Types.BYTE(), Types.STRING()]
        )
    )

    table = data_stream_table_env.from_data_stream(
        ds,
        Schema.new_builder()
        .column('id', DataTypes.TINYINT())
        .column('data', DataTypes.STRING())
        .build()
    )
    table.get_schema()
    table.execute().print()

七、从Catalog 创建数据源表

def create_table_from_catalog():
    """
    流模式、批模式 均可以创建成功
    :return:
    """

    # old_table = batch_table_env.from_elements(
    old_table = stream_table_env.from_elements(
        [(1, "Hi"), (2, "Hello")],
        ["id", "data"]
    )
    # 创建临时 视图表
    # batch_table_env.create_temporary_view("source_table",old_table)
    stream_table_env.create_temporary_view("source_table", old_table)

    # table = batch_table_env.from_path("source_table")
    table = stream_table_env.from_path("source_table")

    table.get_schema()
    # table.execute().print()

PyFlink连接Mysql数据库

如果使用第三方 JAR,则可以在 Python 表 API 中指定 JAR

环境:
PyFlink版本是1.16.0,所以需要下载 :flink-connector-jdbc-1.16.0.jar
flink-connector-jdbc-1.16.0.jar下载地址

Mysql版本是8.0.30,所以需要下载:mysql-connector-java-8.0.30.jar
mysql-connector-java-8.0.30.jar下载地址

在这里插入图片描述

在创建表环境时,将 JAR 依赖添加到表环境

from pyflink.table import EnvironmentSettings, TableEnvironment

env_settings = EnvironmentSettings.in_streaming_mode()
table_env = TableEnvironment.create(env_settings)

jars = []
for file in os.listdir(os.path.abspath(os.path.dirname(__file__))):
    if file.endswith('.jar'):
        file_path = os.path.abspath(file)
        jars.append(file_path)

str_jars = ';'.join(['file:///' + jar for jar in jars])
table_env.get_config().get_configuration().set_string("pipeline.jars", str_jars)

不报错就是正确

PyFlink同步Mysql表数据到另一张表

思路:
1、需要创建一张数据源表,数据源表需要连接到数据库中的表
2、需要创建一张接收数据表,用于接收同步过来的数据
3、执行数据同步的sql语句或者table sql

注意点:
需要提前在数据库中建立好这两张表

一、创建表环境并添加数据库连接依赖

from pyflink.table import EnvironmentSettings, TableEnvironment

env_settings = EnvironmentSettings.in_streaming_mode()
table_env = TableEnvironment.create(env_settings)

jars = []
for file in os.listdir(os.path.abspath(os.path.dirname(__file__))):
    if file.endswith('.jar'):
        file_path = os.path.abspath(file)
        jars.append(file_path)

str_jars = ';'.join(['file:///' + jar for jar in jars])
table_env.get_config().get_configuration().set_string("pipeline.jars", str_jars)

二、创建数据源表

# 创建数据源表
create_source_table_sql = """
        CREATE TABLE source (
            user_id STRING,
            name STRING,
            telephone STRING,
            is_del STRING,
            PRIMARY KEY (user_id) NOT ENFORCED
        ) WITH (
            'connector' = 'jdbc',
            'url' = 'jdbc:mysql://******:33066/dim',
            'table-name' = 'source',
            'username' = '******',
            'password' = '******',
            'driver' = 'com.mysql.cj.jdbc.Driver'
        )
    """
table_env.execute_sql(create_source_table_sql)

三、创建接收数据表

# 创建接收结果表
create_sink_table_sql = """
        CREATE TABLE sink (
            user_id STRING,
            name STRING,
            telephone STRING,
            is_del STRING,
            PRIMARY KEY (user_id) NOT ENFORCED
        ) WITH (
            'connector' = 'jdbc',
            'url' = 'jdbc:mysql://******:3306/tmp',
            'table-name' = 'sink',
            'username' = '******',
            'password' = '******',
            'driver' = 'com.mysql.cj.jdbc.Driver'
        )
    """
table_env.execute_sql(create_sink_table_sql)

三、执行数据同步

table_env.execute_sql("INSERT INTO sink SELECT * FROM source").wait()

如有提示:

Loading class `com.mysql.jdbc.Driver'. This is deprecated. The new driver class is `com.mysql.cj.jdbc.Driver'. The driver is automatically registered via the SPI and manual loading of the driver class is generally unnecessary.

只需要在 WITH 中 添加 ‘driver’ = ‘com.mysql.cj.jdbc.Driver’ 即可

完整代码,将以上代码,按照顺序copy到编译器即可

不报错则表示运行成功

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/138050.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

理解Cookie 和 Session 的工作流程

又是一年初,首先祝大家新年快乐!!!Cookie什么是Cookie?由于HTTP是一种无状态的协议, 服务器单从网络连接上是无法知道用户身份的. 这时候服务器就需要给客户端发一个cooki, 用来确认用户的身份.简单的来说, cookie就是客户端保存用户信息的一种机制, 用来记录用户的一些信息.找…

基于JAVA的数据可视化分析平台,自由制作任何您想要的数据看板,支持接入SQL、CSV、Excel、HTTP接口、JSON等

数据可视化分析平台 自由制作任何您想要的数据看板 简介 DataGear是一款数据可视化分析平台,自由制作任何您想要的数据看板,支持接入SQL、CSV、Excel、HTTP接口、JSON等多种数据源。 完整代码下载地址:基于JAVA的数据可视化分析平台&…

Python模块与包(八)

python学习之旅(八) 👍查看更多可以关注查看首页或点击下方专栏目录 一.模块 (1) 什么是模块 一个Python文件,以.py 结尾,能定义函数,类和变量,也能包含可执行的代码 作用:我们可以认为不同的模块就是不同工具包,每一个工具包中都有各种不同的工具(如函…

Vue初识系列【2】

一 Vue入门 1.1 Vue简介 Vue 是一套用于构建用户界面的渐进式框架,发布于 2014 年 2 月。与其它大型框架不同的是,Vue 被设计为可以自底向上逐层应用。Vue 的核心库只关注视图层,不仅易于上手,还便于与第三方库(如&a…

ZYNQ printk 缓冲区读取

之前调试kenel ,如果kenenl崩溃会,通过内核system.map定位log_buf变量地址,给cpu复位,在u-boot中读取对应的物理地址,即可知道最终内核崩溃最后打出的消息。 我在使用 5.4.154这个内核版本,中没有log_buf这…

金蝶附件上传接口开发思路

1️⃣需求描述:需要通过调用金蝶API接口实现指定单据的附件上传。本文以收料通知单为例,以Java代码示例进行讲解。 tips:阅读本文开始前,希望你是一名开发者同时阅读过: https://vip.kingdee.com/article/872325739310…

【小知识点】为爬虫训练场项目添加 Bootstrap5 时间轴

爬虫训练场建站时间轴:https://pachong.vip/timeline 背景 为了便于记录爬虫训练场项目更新日志,所以集成该功能,实现效果如下所示。 特别备注一下,时间轴是什么? 时间轴是一种常用的网站布局元素,通常用…

Forexclub:特斯拉四季度交付车辆创纪录,你认为2023年特斯拉销量如何

周一特斯拉宣布其2022年第四季度交付了创纪录的405278辆汽车。这一数字创下了该公司的纪录,但低于华尔街的估计。据报道,报告中对交付量的普遍估计为420760。特斯拉称:“2022年,汽车交付量同比增长40%,达到131万辆。”…

基于Vue和SpringBoot的论文检测系统的设计与实现

作者主页:Designer 小郑 作者简介:Java全栈软件工程师一枚,来自浙江宁波,负责开发管理公司OA项目,专注软件前后端开发(Vue、SpringBoot和微信小程序)、系统定制、远程技术指导。CSDN学院、蓝桥云…

【信息论与编码 沈连丰】第七章:信息率失真理论及其应用

【信息论与编码 沈连丰】第七章:信息率失真理论及其应用第七章 信息率失真理论及其应用7.1 失真函数和平均失真度7.2 信息率失真函数7.3 信息率失真函数R(D)的计算7.4 保真度准则下的信源编码定理7.5 信息率失真函数与信息价值第七章 信息率失真理论及其应用 香农第…

网工、运维必备的免费在线画图工具,真的很好用!

都说一图胜千言,一个IT工程师如果能画的一手好图,无论是在方案选项、还是技术交流,都能快速表达自己的想法,让你的思路更加的直观明了;市面上的制图工具有很多,下面就推荐几款好用且免费的工具,…

SaaS服务最大的优势是哪些?(附免费试用)

SaaS服务十大优势 近些年来,SaaS(Software-as-a-Service)成为整个IT领域中最受欢迎的业务模型之一。由于SaaS的市场每年以近60%的速度增长,因此它正在取代更传统的应用市场,并将在未来几年内成为主导模式。…

【非侵入式负载监测】低采样率电动汽车充电的无训练非侵入式负载监测(Matlab代码实现)

💥💥💞💞欢迎来到本博客❤️❤️💥💥 🏆博主优势:🌞🌞🌞博客内容尽量做到思维缜密,逻辑清晰,为了方便读者。 ⛳️座右铭&a…

一、TTY子系统介绍

个人主页:董哥聊技术我是董哥,嵌入式领域新星创作者创作理念:专注分享高质量嵌入式文章,让大家读有所得!文章目录1、TTY介绍2、控制台终端2.1 系统控制台2.2 当前控制台2.3 虚拟控制台3、伪终端4、串口终端5. 其它类型…

《移动安全》(10)Frida第一篇之环境搭建

0x00 前言 Frida是一款轻量级HOOK框架,我们在电脑上安装Frida环境后,还需要将frida-server上传到目标机器上运行(需要Root),通过它来注入进程完成hook操作。本文主要讲述Frida环境的搭建。 0x01 Frida环境搭建 &…

node.js创建网站实例3

node.js访问mysql数据库并把查询结果返回给前端 1.cmd中运行:npm install mysql -s 2.修改api.js的代码 // 1.先引入express模块,express是一个函数 var express require("express") //2.执行express函数;用变量接收express函数…

概论_第2章_重点_随机变量函数的概率分布___定理法和分布函数法的应用

一 定义 概括地说: 随机变量Y是随机变量X的函数。 设g(x) 是一给定的连续函数, 称Yg(X) 为随机变量X的一个函数, Y也是一个随机变量。当X取值 时,Y取值 . ~~~~~~~~~~~~~~ 本文讨论连续型随机变量函数。 定理1: 设X为连续型…

【3.2】Eureka-搭建注册中心/服务注册/服务发现

【3.2】Eureka-搭建注册中心/服务注册/服务发现1 搭建EurekaServer1.1 详细步骤1.2 搭建EurekaServer小结2 服务注册2.1 详细步骤(踩坑点!解决)2.2 模拟多实例部署2.3 服务注册小结3 服务发现3.1 详细步骤4 总结1 搭建EurekaServer 搭建Eure…

2022年,我每天都会用的linux常用命令

作者简介:一名在校云计算网络运维学生、每天分享网络运维的学习经验、和学习笔记。 座右铭:低头赶路,敬事如仪 个人主页:网络豆的主页​​​​​​ 目录 前言 一.Linux常用命令 1.Linux命令概述 2.Linux命令的分类 &#…

科研 | 学生研究方向指导 | 技术路线 | 相关学习资源

1. AI某领域 1.1 Python基础 慕课教程:Python 入门语法教程 哔哩哔哩:3小时快速入门Python 1.2 机器学习框架 sklearn框架:菜菜的机器学习sklearn 1.3 深度学习框架 慕课教程:TensorFlow 入门教程 PyTorch官方教程中文版 不…