DataX(Doris同步数据到SelectDB)

news2024/11/17 21:30:22

背景

由于之前的doris数仓在本地的服务器,当数据量越来越大,服务器的性能达不到要求,查询数据经常超时,故需要把本地的doris数仓部署到云上,本文以阿里云为例,迁移工具使用的阿里开源的datax
datax官方文档

准备

首先使用navicat连接上源数据库目标数据库

在这里插入图片描述
阿里云数仓
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述

在目标数据创建需要迁移的表

源数据库上面执行下面的语句得到建表语句

show CREATE TABLE your_table;

在这里插入图片描述

然后拿到建表语句去目标数据库执行。

datax工具安装

环境

Linux或者windows
JDK(1.8以上,推荐1.8)
Python(2或3都可以)
Apache Maven 3.x (Compile DataX)

方法一、直接下载DataX工具包:DataX下载地址

下载后解压至本地某个目录,进入bin目录,即可运行同步作业:

$ cd  {YOUR_DATAX_HOME}/bin
$ python datax.py {YOUR_JOB.json}

自检脚本: python {YOUR_DATAX_HOME}/bin/datax.py {YOUR_DATAX_HOME}/job/job.json

方法二、下载DataX源码,自己编译:DataX源码

(1)、下载DataX源码:

$ git clone git@github.com:alibaba/DataX.git

(2)、通过maven打包:

$ cd  {DataX_source_code_home}
$ mvn -U clean package assembly:assembly -Dmaven.test.skip=true

打包成功,日志显示如下:

[INFO] BUILD SUCCESS
[INFO] -----------------------------------------------------------------
[INFO] Total time: 08:12 min
[INFO] Finished at: 2015-12-13T16:26:48+08:00
[INFO] Final Memory: 133M/960M
[INFO] -----------------------------------------------------------------

打包成功后的DataX包位于 {DataX_source_code_home}/target/datax/datax/,结构如下:

$ cd  {DataX_source_code_home}
$ ls ./target/datax/datax/
bin		conf		job		lib		log		log_perf	plugin		script		tmp

配置示例:从stream读取数据并打印到控制台

第一步、创建作业的配置文件(json格式)

可以通过命令查看配置模板: python datax.py -r {YOUR_READER} -w {YOUR_WRITER}

$ cd {YOUR_DATAX_HOME}/bin
$ python datax.py -r streamreader -w selectdbwriter

PS C:\Users\zhubayi\Downloads\datax\datax\bin> python datax.py -r streamreader -w selectdbwriter

DataX (DATAX-OPENSOURCE-3.0), From Alibaba !
Copyright (C) 2010-2017, Alibaba Group. All Rights Reserved.


Please refer to the streamreader document:
     https://github.com/alibaba/DataX/blob/master/streamreader/doc/streamreader.md

Please refer to the selectdbwriter document:
     https://github.com/alibaba/DataX/blob/master/selectdbwriter/doc/selectdbwriter.md

Please save the following configuration as a json file and  use
     python {DATAX_HOME}/bin/datax.py {JSON_FILE_NAME}.json
to run the job.

{
    "job": {
        "content": [
            {
                "reader": {
                    "name": "streamreader",
                    "parameter": {
                        "column": [],
                        "sliceRecordCount": ""
                    }
                },
                "writer": {
                    "name": "selectdbwriter",
                    "parameter": {
                        "column": [],
                        "connection": [
                            {
                                "jdbcUrl": "",
                                "selectedDatabase": "",
                                "table": []
                            }
                        ],
                        "loadProps": {},
                        "loadUrl": [],
                        "password": "",
                        "postSql": [],
                        "preSql": [],
                        "username": ""
                    }
                }
            }
        ],
        "setting": {
            "speed": {
                "channel": ""
            }
        }
    }
}

dorisreader和selectdbwriter配置

{
 "core":{
    "transport": {
      "channel": {
        "speed": {
          "byte": 536870912000,
          "record": 1000000
        }
      }
    }
  },
  "job": {
    "content": [{
      "reader": {
        "name": "dorisreader",
        "parameter": {
          "column": ["id", "name", "nick_name", "age"],
          "connection": [{
            "jdbcUrl": ["jdbc:mysql://127.0.0.1:9030/test?useSSL=false"],
            "table": ["t1"]
          }],
          "username": "root",
          "password": "123456",
          "splitPk": "id",
          "where": ""
        }
      },
      "writer": {
        "name": "selectdbwriter",
        "parameter": {
          "loadUrl": [
            "192.168.3.123:8080"
          ],
          "loadProps": {
            "file.type": "json",
            "file.strip_outer_array": true
          },
          "column": ["id", "name", "nick_name", "age"],
          "username": "admin",
          "password": "123456",
          "postSql": [

          ],
          "preSql": [

          ],
          "connection": [{
            "jdbcUrl": "jdbc:mysql://192.168.3.123:9030/test?useSSL=false",
            "table": [
              "t1"
            ],
            "selectedDatabase": "test"
          }],
          "maxBatchRows": 1000000,
          "maxBatchByteSize": 536870912000
        }
      }
    }],
    "setting": {
      "speed": {
        "channel": "1"
      },
      "errorLimit": {
        "record": 0,
        "percentage": 0
      }
    }
  }
}


这个任务配置文件包含了一个名为“job”的任务,它有两个子节点:setting和content。其中,setting节点包含了任务的一些设置,例如并发通道数;content节点则包含了数据读取和写入的详细配置信息。

core与job参数介绍

配置说明
core.transport.channel.speed.byte单个channel容纳最多的字节数
core.transport.channel.speed.record单个channel容纳最多的record数
job.setting.speed.channel该job所需要的channel的个数
job.setting.speed.byte该job最大的流量
job.setting.speed.record该job最大的record流量

reader参数说明

官方dorisreader配置地址

  • jdbcUrl

    • 描述:描述的是到对端数据库的JDBC连接信息,使用JSON的数组描述,并支持一个库填写多个连接地址。之所以使用JSON数组描述连接信息,是因为阿里集团内部支持多个IP探测,如果配置了多个,DorisReader可以依次探测ip的可连接性,直到选择一个合法的IP。如果全部连接失败,DorisReader报错。 注意,jdbcUrl必须包含在connection配置单元中。对于阿里集团外部使用情况,JSON数组填写一个JDBC连接即可。

    • 必选:是

    • 默认值:无

  • username

    • 描述:数据源的用户名

    • 必选:是

    • 默认值:无

  • password

    • 描述:数据源指定用户名的密码

    • 必选:是

    • 默认值:无

  • table

    • 描述:所选取的需要同步的表。使用JSON的数组描述,因此支持多张表同时抽取。当配置为多张表时,用户自己需保证多张表是同一schema结构,DorisReader不予检查表是否同一逻辑表。注意,table必须包含在connection配置单元中。

    • 必选:是

    • 默认值:无

  • column

    • 描述:所配置的表中需要同步的列名集合,使用JSON的数组描述字段信息。用户使用代表默认使用所有列配置,例如['']。
      支持列裁剪,即列可以挑选部分列进行导出。
      支持列换序,即列可以不按照表schema信息进行导出。
      支持常量配置,用户需要按照Doris SQL语法格式: [“id”, “table”, “1”, “‘bazhen.csy’”, “null”, “to_char(a + 1)”, “2.3” , “true”] id为普通列名,table为包含保留字的列名,1为整形数字常量,'bazhen.csy’为字符串常量,null为空指针,to_char(a + 1)为表达式,2.3为浮点数,true为布尔值。

    • 必选:是

    • 默认值:无

  • splitPk

    • 描述:DorisReader进行数据抽取时,如果指定splitPk,表示用户希望使用splitPk代表的字段进行数据分片,DataX因此会启动并发任务进行数据同步,这样可以大大提供数据同步的效能。
      推荐splitPk用户使用表主键,因为表主键通常情况下比较均匀,因此切分出来的分片也不容易出现数据热点。
      目前splitPk仅支持整形数据切分,不支持浮点、字符串、日期等其他类型。如果用户指定其他非支持类型,DorisReader将报错!
      如果splitPk不填写,包括不提供splitPk或者splitPk值为空,DataX视作使用单通道同步该表数据。

    • 必选:否

    • 默认值:空

  • where

    • 描述:筛选条件,DorisReader根据指定的column、table、where条件拼接SQL,并根据这个SQL进行数据抽取。在实际业务场景中,往往会选择当天的数据进行同步,可以将where条件指定为gmt_create > $bizdate 。注意:不可以将where条件指定为limit 10,limit不是SQL的合法where子句。
      where条件可以有效地进行业务增量同步。如果不填写where语句,包括不提供where的key或者value,DataX均视作同步全量数据。

    • 必选:否

    • 默认值:无

  • querySql

    • 描述:在有些业务场景下,where这一配置项不足以描述所筛选的条件,用户可以通过该配置型来自定义筛选SQL。当用户配置了这一项之后,DataX系统就会忽略table,column这些配置型,直接使用这个配置项的内容对数据进行筛选,例如需要进行多表join后同步数据,使用select a,b from table_a join table_b on table_a.id = table_b.id
      当用户配置querySql时,DorisReader直接忽略table、column、where条件的配置,querySql优先级大于table、column、where选项。

    • 必选:否

    • 默认值:无

类型转换
目前DorisReader支持大部分Doris类型,但也存在部分个别类型没有支持的情况,请注意检查你的类型。

下面列出DorisReaderr针对Doris类型转换列表:

DataX 内部类型doris 数据类型
Longint, tinyint, smallint, int, bigint,Largint
Doublefloat, double, decimal
Stringvarchar, char, text, string, map, json, array, struct
Datedate, datetime
BooleanBoolean

请注意:

tinyint(1) DataX视作为整形。

writer配置参数说明

官方selectdbwriter配置地址

  • jdbcUrl

    • 描述:selectdb 的 JDBC 连接串,用户执行 preSql 或 postSQL。
    • 必选:是
    • 默认值:无
  • loadUrl

    • 描述:作为 selecdb 的连接目标。格式为 “ip:port”。其中 IP 是 selectdb的private-link,port 是selectdb 集群的 http_port
    • 必选:是
    • 默认值:无
  • username

    • 描述:访问selectdb数据库的用户名
    • 必选:是
    • 默认值:无
  • password

    • 描述:访问selectdb数据库的密码
    • 必选:否
    • 默认值:空
  • connection.selectedDatabase

    • 描述:需要写入的selectdb数据库名称。
    • 必选:是
    • 默认值:无
  • connection.table

    • 描述:需要写入的selectdb表名称。
      • 必选:是
      • 默认值:无
  • column

    • 描述:目的表需要写入数据的字段,这些字段将作为生成的 Json 数据的字段名。字段之间用英文逗号分隔。例如: “column”: [“id”,“name”,“age”]。
    • 必选:是
    • 默认值:否
  • preSql

    • 描述:写入数据到目的表前,会先执行这里的标准语句。
    • 必选:否
    • 默认值:无
  • postSql

    • 描述:写入数据到目的表后,会执行这里的标准语句。
    • 必选:否
    • 默认值:无
  • maxBatchRows

    • 描述:每批次导入数据的最大行数。和 batchSize 共同控制每批次的导入数量。每批次数据达到两个阈值之一,即开始导入这一批次的数据。
    • 必选:否
    • 默认值:500000
  • batchSize

    • 描述:每批次导入数据的最大数据量。和 maxBatchRows 共同控制每批次的导入数量。每批次数据达到两个阈值之一,即开始导入这一批次的数据。
    • 必选:否
    • 默认值:90M
  • maxRetries

    • 描述:每批次导入数据失败后的重试次数。
    • 必选:否
    • 默认值:3
  • labelPrefix

    • 描述:每批次上传文件的 label 前缀。最终的 label 将有 labelPrefix + UUID 组成全局唯一的 label,确保数据不会重复导入
    • 必选:否
    • 默认值:datax_selectdb_writer_
  • loadProps

    • 描述:COPY INOT 的请求参数

      这里包括导入的数据格式:file.type等,导入数据格式默认我们使用csv,支持JSON,具体可以参照下面类型转换部分

    • 必选:否

    • 默认值:无

  • clusterName

    • 描述:selectdb could 集群名称

    • 必选:否

    • 默认值:无

  • flushQueueLength

    • 描述:队列长度

    • 必选:否

    • 默认值:1

  • flushInterval

    • 描述:数据写入批次的时间间隔,如果maxBatchRows 和 batchSize 参数设置的有很大,那么很可能达不到你这设置的数据量大小,会执行导入。

    • 必选:否

    • 默认值:30000ms

类型转换
默认传入的数据均会被转为字符串,并以\t作为列分隔符,\n作为行分隔符,组成csv文件进行Selectdb导入操作。

默认是csv格式导入,如需更改列分隔符, 则正确配置 loadProps 即可:

"loadProps": {
    "file.column_separator": "\\x01",
    "file.line_delimiter": "\\x02"
}

如需更改导入格式为json, 则正确配置 loadProps 即可:

"loadProps": {
    "file.type": "json",
    "file.strip_outer_array": true
}

启动DataX

$ cd {YOUR_DATAX_DIR_BIN}
$ python datax.py ./doris2selecdb.json 

同步结束,显示日志如下:

2024-08-26 17:10:18.721 [job-0] INFO  JobContainer - PerfTrace not enable!
2024-08-26 17:10:18.721 [job-0] INFO  StandAloneJobContainerCommunicator - Total 12976386 records, 1444190303 bytes | Speed 2.33MB/s, 21993 records/s | Error 0 records, 0 bytes |  All Task WaitWriterTime 28.820s |  All Task WaitReaderTime 308.386s | Percentage 100.00%
2024-08-26 17:10:18.722 [job-0] INFO  JobContainer -
任务启动时刻                    : 2024-08-26 17:00:24
任务结束时刻                    : 2024-08-26 17:10:18
任务总计耗时                    :                593s
任务平均流量                    :            2.33MB/s
记录写入速度                    :          21993rec/s
读出记录总数                    :            12976386
读写失败总数                    :                   0

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2075886.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot集成kafka开发-消息消费的分区策略(消费者如何判断从哪个分区中消费消息的?)

这里写目录标题 1、kafak消息者消费消息的4种分区策略2、kafka默认的消费分区策略1-RangeAssignor(均匀分配、默认分配策略)2.1、代码验证RangeAssignor的消息分区策略2.1.1、消费者2.1.2、生产者2.1.3、kafak配置类2.1.4、对象实体类2.1.5、项目配置文件…

LD3600F断路器LD3600F模块

LD3600F断路器LD3600F模块 LD3600F断路器LD3600F模块 LD3600F断路器LD3600F模块 LD3600F断路器LD3600F模块引脚线 LD3600F断路器LD3600F模块说明书 LD3600F断路器LD3600F模块接线图 LD3600F断路器是指能够关合、承载和开断正常回路条件下的电流并能在规定的时间内关合、承…

一款可以发送弹幕的播放器,快来看看

目录 介绍 一、基础使用 二、播放器配置 三、实现弹幕功能 四、总结 介绍 NPlayer是一款功能强大、响应式、可定制的播放器,基于TypeScript和Sass编写。NPlayer支持高定制,你可以轻松定制图标、主题颜色等,还可以集成插件,实…

C语言如何快速求值

题目:一个整数,它加上100后是一个完全平方数,再加上168又是一个完全平方数,请问该数是多少? 程序分析: 假设该数为 x。 1、则:x 100 n2, x 100 168 m2 2、计算等式:m2 - n2…

WPS 备注白条,演讲者模式看不到

问题描述: 演讲者模式的样子会变成白条,如: 解决方案: 清楚格式----清除备注的格式。因为之所以会出现这种情况,应该是备注变成了某种格式。 实现方式:

武汉流星汇聚:亚马逊跨境电商领航者,推动全球商业影响力新篇章

在全球化浪潮席卷而来的今天,跨境电商已成为推动世界经济一体化的重要力量,而亚马逊,作为这一领域的先驱与巨头,凭借其独特的商业模式、庞大的市场覆盖以及卓越的客户服务,在跨境电商市场中占据了举足轻重的地位。 亚…

28 支付服务Payment kit基本使用

新增订单(后续所有的操作都是基于订单) > 请求后端接口支付 携带订单id 请求后端支付接口(web组件的src)后端接受到请求后 会整合该笔订单所有信息 请求支付宝支付宝会返回一个该笔订单的支付链接由于我们使用的是web组件 这个支付链接会被打开 进入到支付流程支付完成后 支…

青龙面板本地部署流程结合内网穿透使用手机远程本地服务器薅羊毛

文章目录 前言一、前期准备本教程环境为:Centos7,可以跑Docker的系统都可以使用。本教程使用Docker部署青龙,如何安装Docker详见: 二、安装青龙面板三、映射本地部署的青龙面板至公网四、使用固定公网地址访问本地部署的青龙面板 …

NLP发展脉络-->特征优化阶段

NLP特征优化阶段 文本预处理特征提取降维与特征选择特征组合与扩展特征选择与评估特征工程的优化模型可解释性偏统计和规则的特征化阶段优缺点优点缺点 这是NLP的一个发展阶段。今天,我们就来了解一下NLP的特征优化阶段。特征优化在NLP的发展中曾经是一个至关重要的…

【案例58】WebSphere输出日志输出慢导致线程被阻塞

问题现象 系统非常卡顿 问题分析 分析javacore文件,寻找关键字,Flat locked by 3LKMONOBJECT org/apache/logging/log4j/core/appender/OutputStreamManager0x000000060FB6B3C0: Flat locked by "WebContainer : 3" (J9VMThread:0x0…

Ubuntu22.04安装深度学习的GPU环境详细教程(小白图文,显卡驱动、CUDA、cuDNN、PyTorch一步到位)

摘要:本博客详细介绍了如何在 Ubuntu 22.04 系统上安装和配置深度学习环境,包括 NVIDIA 驱动、CUDA Toolkit、cuDNN、Miniconda 及 PyTorch 等关键组件。文章从安装前的注意事项开始,逐步讲解了如何切换国内软件源以提升下载速度,…

【Android Studio】Webview 内核升级得三种方法(续)

【Android Studio】Webview 内核升级得三种方法(续) 前言对原理学习中对应的重点进行一个记录针对网页加载流量进行一个监控 前言 在之前的博文【Android Studio】Webview 内核升级得三种方法中,介绍了内核升级的三种方法,并提出…

ECCV2024|港中文提出文本生成3D方法DreamDissector,能够生成具有交互的多个独立对象。

DreamDissector 是一种文本生成3D对象的方法,通过将多对象文本生成的NeRF输入并生成独立的纹理网格,提供了对象级别的控制和多种应用可能性。 DreamDissector 可以生成具有合理交互的多个独立纹理网格,方便各种应用,包括对象级别的…

NFTScan | 08.19~08.25 NFT 市场热点汇总

欢迎来到由 NFT 基础设施 NFTScan 出品的 NFT 生态热点事件每周汇总。 周期:2024.08.19~ 2024.08.25 NFT Hot News 01/ CryptoPunk 5822 今日以未公开价格售出,曾在 2022 年以 8000 ETH 售出 8 月 19 日,据 nft now,CryptoPun…

企业终端电脑监控管理系统有哪些?推荐四款全功能级的电脑监控管理系统

企业终端电脑监控管理系统是现代企业管理中不可或缺的一部分,它们主要用于提升信息安全、防止数据泄露、提高工作效率,并确保企业合规性。以下是一些常见的企业终端电脑监控管理系统: 1. 安企神 7天试用免费版https://work.weixin.qq.com/ca…

学习笔记——IP组播——IP组播基本概述

二、IP组播基本概述 IP组播技术有效地解决了单播和广播在点到多点应用中的问题。组播源只发送一份数据,数据在网络节点间被复制、分发(PIM),且只发送给需要该信息的接收者。 1、前言 网络中存在各种各样的业务,从流…

★ OJ题 ★ 二叉树

Ciallo&#xff5e;(∠・ω< )⌒☆ ~ 今天&#xff0c;我将和大家一起做一些二叉树的OJ题~ 目录 一 单值二叉树 二 相同的树 三 对称二叉树 四 二叉树的前序遍历 五 另一颗树的子树 六 二叉树遍历 一 单值二叉树 965. 单值二叉树 - 力扣&#xff08;LeetCode…

Android平台原生音视频编解码MediaCodec

MediaCodec介绍 MediaCodec是Android平台上的一个多媒体编解码器&#xff0c;它可以用于对音频和视频进行编解码。通过MediaCodec&#xff0c;开发者可以直接访问底层的编解码器&#xff0c;实现更高效的音视频处理。同时&#xff0c;MediaCodec也支持硬件加速&#xff0c;可以…

java中的Opencv:Opencv简介与开发环境部署

文章目录 1.Opencv简介Opencv的应用 2.Java使用OpenCV进行图像操作opencv安装java项目中集成Opencv 3.Opencv常用的API 1.Opencv简介 OpenCV &#xff08; Open Source Computer Vision Library &#xff09;是一个广泛应用于计算机视觉和图像处理领域的开源库。它提供了丰富的…

Android12上调试nxp的wifi模块支持5G频段的ap和sta同时共存

我们使用的是nxp的88W8987模块 在使用过程中发现,不能分享出5g的热点,通过log发现国家码没有正常设置,驱动那边加载相关数据库失败 通过与供应商和度娘等排查,需要下载regulatory.db,进行insmod加载才可以,rk默认没有处理,因为rk默认适配的博通的模块,自带了国家码相关…