云原生丨DataX在数据迁移中的应用与实践

news2024/11/17 12:27:14

文章目录

  • 一、前言
  • 二、准备工作
  • 三、安装工具与数据迁移Demo
    • 安装工具与数据迁移
  • 三、使用Datax抽取移动云上的gauss数据库
  • 四、Datax工具逻辑说明
    • 整体框架
    • 核心模板介绍
    • 流程调度
    • 数据库类型插件读、写说明
  • 五、Datax工具参数说明
    • Setting
    • Reader& writer
    • jdbcUrl
    • username
    • password
    • table
    • colum
    • splitPk
    • where
    • querySql
    • fetchSize
    • session
    • preSql
    • postSql
    • writeMode
    • batchSize
  • 总结


一、前言

在做系统重构时,我们无法避免数据迁移,对于可以直接复制的数据,我们通常会考虑性能稳定的DataX作为迁移工具。

DataX 作为阿里开源的一个异构数据源离线同步工具,能够支持各种异构数据源之间稳定高效的数据同步功能。

本期就来跟大家分享一下DataX数据迁移在实践中的应用。


二、准备工作

项目地址:https://github.com/alibaba/DataX

环境准备:Linux操作系统机器、Java环境(1.8以上,推荐1.8)、python(2或3都可以)


三、安装工具与数据迁移Demo

安装工具与数据迁移

Step1:下载

使用wget工具下载

https://datax-opensource.oss-cn-hangzhou.aliyuncs.com/202210/datax.tar.gz

在这里插入图片描述

Step2:解压

使用tar命令解压 tar -zxvf datax.tar.gz
在这里插入图片描述

Step3:使用docker命令分别启动一个MySQL容器和OpenGauss容器

1. 启动MySQL容器

docker run -d --name mysql -v /mysql/data:/var/lib/mysql  -e MYSQL_ROOT_PASSWORD=123456 -p 3306:3306  mysql:5.7.37

2. 启动OpenGauss容器

docker run --name opengauss --privileged=true -d -e GS_PASSWORD=Enmo@123 -p 15432:5432 enmotech/opengauss:latest

Step4:使用数据库连接工具连接数据库并创建数据表

1. 连接MySQL
在这里插入图片描述

2. 连接OpenGauss
在这里插入图片描述

Step5:在MySQL中生成demo数据

1. 创建test数据库

create datebase test;

如果数据库中表存在,则删除表:

DROP TABLE IF EXISTS user;

如果存储过程存在,则删除存储过程:

DROP PROCEDURE IF EXISTS prc_crt_user;

2. 创建MySQL表

CREATE TABLE test.user (
  uid int(11) NOT NULL auto_increment,
  mobile char(11) DEFAULT NULL,
  passwd varchar(50) DEFAULT NULL,
  name varchar(50) DEFAULT NULL,
  sex tinyint DEFAULT NULL,
  birthday datetime DEFAULT NULL,
  updated_time datetime DEFAULT NULL,
  PRIMARY KEY (uid)
) ENGINE=InnoDB DEFAULT CHARSET=utf8;

3. 创建存储过程

CREATE PROCEDURE prc_crt_user(l_cnt int)
BEGIN
    -- 定义两个变量,一个整型的x默认值为0,另一个char类型的p
   DECLARE x INT DEFAULT 0;
   DECLARE p char(11);
   -- 开始进入循环体,目的是为了生成够输入参数的条数数据
   WHILE x < l_cnt
       -- 开始执行内容
   DO
       -- 行数的自增控制标志
      SET x = x + 1;
       -- 生成手机号 ,如果看不懂的话,多查查这几个函数,太多了解释不过来,下边用到的会在下面解释
      SET p =
             concat('1',
                    substring(cast(3 + (rand() * 10) % 7 AS char(50)), 1, 1),
                    right(left(trim(cast(rand() AS char(50))), 11), 9));
-- 执行插入user表动作 ,因为uid是自增
      INSERT INTO user(mobile,
                            passwd,
                            name,
                            sex,
                            birthday,
                            updated_time)
         VALUES (
                   p,
                 -- rand()会生成一个小于1的随机小数 ,ceiling()向上取整,md5()求这个随机整数的md5值当作密码
                   md5(ceiling(rand() * 1000000)),
                 -- concat()函数就是拼接函数,它会将里面的参数拼接成一个字符串
                   concat(
                       -- substring()求子串,这里是将第一个参数字符串在第二个参数值的位置截取一位
                      substring(
                         '赵钱孙李周吴郑王冯陈诸卫蒋沈韩杨朱秦尤许何吕施张孔曹严华金魏陶姜戚谢邹喻柏水窦章云苏潘葛奚范彭郎鲁韦昌马苗凤花方俞任袁柳酆鲍史唐费廉岑薛雷贺倪汤滕殷罗毕郝邬安常乐于时傅皮齐康伍余元卜顾孟平黄和穆萧尹姚邵堪汪祁毛禹狄米贝明臧计伏成戴谈宋茅庞熊纪舒屈项祝董粱杜阮蓝闵席季麻强贾路娄危江童颜郭梅盛林刁钟徐邱骆高夏蔡田樊胡凌霍虞万支柯咎管卢莫经房裘干解应宗丁宣单杭洪包诸左石崔吉钮龚兴位零',
                          -- 总共有190个字符,为了避免越界需要用190相乘,floor()函数是向下取整
                         floor(1 + 190 * rand()),
                         1),
                      substring(
                         '明国华建文平志伟东海强晓生光林小民永杰军金健一忠洪江福祥中正振勇耀春大宁亮宇兴宝少剑云学仁涛瑞飞鹏安亚泽世汉达卫利胜敏群波成荣新峰刚家龙德庆斌辉良玉俊立浩天宏子松克清长嘉红山贤阳乐锋智青跃元武广思雄锦威启昌铭维义宗英凯鸿森超坚旭政传康继翔栋仲权奇礼楠炜友年震鑫雷兵万星骏伦绍麟雨行才希彦兆贵源有景升惠臣慧开章润高佳虎根远力进泉茂毅富博霖顺信凡豪树和恩向道川彬柏磊敬书鸣芳培全炳基冠晖京欣廷哲保秋君劲轩帆若连勋祖锡吉崇钧田石奕发洲彪钢运伯满庭申湘皓承梓雪孟其潮冰怀鲁裕翰征谦航士尧标洁城寿枫革纯风化逸腾岳银鹤琳显焕来心凤睿勤延凌昊西羽百捷定琦圣佩麒虹如靖日咏会久昕黎桂玮燕可越彤雁孝宪萌颖艺夏桐月瑜沛诚夫声冬奎扬双坤镇楚水铁喜之迪泰方同滨邦先聪朝善非恒晋汝丹为晨乃秀岩辰洋然厚灿卓杨钰兰怡灵淇美琪亦晶舒菁真涵爽雅爱依静棋宜男蔚芝菲露娜珊雯淑曼萍珠诗璇琴素梅玲蕾艳紫珍丽仪梦倩伊茜妍碧芬儿岚婷菊妮媛莲娟一',
                         floor(1 + 400 * rand()),
                         1),
                      substring(
                         '明国华建文平志伟东海强晓生光林小民永杰军金健一忠洪江福祥中正振勇耀春大宁亮宇兴宝少剑云学仁涛瑞飞鹏安亚泽世汉达卫利胜敏群波成荣新峰刚家龙德庆斌辉良玉俊立浩天宏子松克清长嘉红山贤阳乐锋智青跃元武广思雄锦威启昌铭维义宗英凯鸿森超坚旭政传康继翔栋仲权奇礼楠炜友年震鑫雷兵万星骏伦绍麟雨行才希彦兆贵源有景升惠臣慧开章润高佳虎根远力进泉茂毅富博霖顺信凡豪树和恩向道川彬柏磊敬书鸣芳培全炳基冠晖京欣廷哲保秋君劲轩帆若连勋祖锡吉崇钧田石奕发洲彪钢运伯满庭申湘皓承梓雪孟其潮冰怀鲁裕翰征谦航士尧标洁城寿枫革纯风化逸腾岳银鹤琳显焕来心凤睿勤延凌昊西羽百捷定琦圣佩麒虹如靖日咏会久昕黎桂玮燕可越彤雁孝宪萌颖艺夏桐月瑜沛诚夫声冬奎扬双坤镇楚水铁喜之迪泰方同滨邦先聪朝善非恒晋汝丹为晨乃秀岩辰洋然厚灿卓杨钰兰怡灵淇美琪亦晶舒菁真涵爽雅爱依静棋宜男蔚芝菲露娜珊雯淑曼萍珠诗璇琴素梅玲蕾艳紫珍丽仪梦倩伊茜妍碧芬儿岚婷菊妮媛莲娟一',
                         floor(1 + 400 * rand()),
                         1)),
                 -- %的意思是取余,很明显值要么是1,要么是0
                   ceiling(rand() * 10) % 2,
                 -- 这个是拿现在时间减去 一个随机的年份(2060之间),再获取日期
                   date(
                        now()
                      - INTERVAL (20 + ceiling(rand() * 100) % 40) YEAR),
                   concat('2018-',
                       -- 月份 112
                          1 + ceiling(rand() * 100) % 12,
                          '-',
                       -- 天数 ,%28 这个值就只能从一号到281 + ceiling(rand() * 100) % 28))
                          -- 更新时间取现在时间
      ON DUPLICATE KEY UPDATE updated_time = now();
       -- 与上面的while对应
   END WHILE;
END;

4. 调用存储过程

call prc_crt_user(18535);

5. 查询生成数据

在这里插入图片描述
在这里插入图片描述

Step6:在gauss数据库中创建目标表


CREATE TABLE "user" (
  uid int8 NOT NULL,
  mobile char(11) DEFAULT NULL,
  passwd varchar(50) DEFAULT NULL,
  "name" varchar(50) DEFAULT NULL,
  sex int2 DEFAULT NULL,
  birthday date DEFAULT NULL,
  updated_time date DEFAULT NULL,
  PRIMARY KEY (uid)
)

Step7:生成任务模板


python datax.py -r {YOUR_READER} -w {YOUR_WRITER}

在这里插入图片描述
在这里插入图片描述

这里生成数据源为MySQL,写入为postgresql的模板。

在这里插入图片描述
在这里插入图片描述

修改其中的reader和writer的配置项,将jdbc串以及数据库用户名密码写入。
在这里插入图片描述

执行datax.py脚本,开始抽取。

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

可以观察到记录的条数和源数据库的条数相同,通过SQL查询:

在这里插入图片描述

三、使用Datax抽取移动云上的gauss数据库

根据数据源以及gauss(postgresql)为目标端的模板,写入源端和目标端的参数。

在这里插入图片描述

这里,由于移动云网络问题,可能会导致写入速度为0。

在这里插入图片描述

所以这里仅为了实验工具可行性,只读取一条数据:

在这里插入图片描述

四、Datax工具逻辑说明

整体框架

在这里插入图片描述

DataX本身作为离线数据同步框架,采用Framework + plugin架构构建。将数据源读取和写入抽象成为Reader/Writer插件,纳入到整个同步框架中。

1、Reader:Reader为数据采集模块,负责采集数据源的数据,将数据发送给Framework。

2、Writer: Writer为数据写入模块,负责不断向Framework取数据,并将数据写入到目的端。

3、Framework:Framework用于连接reader和writer,作为两者的数据传输通道,并处理缓冲,流控,并发,数据转换等核心技术问题。

在这里插入图片描述

核心模板介绍

1、DataX完成单个数据同步的作业,我们称之为Job,DataX接受到一个Job之后,将启动一个进程来完成整个作业同步过程。DataX Job模块是单个作业的中枢管理节点,承担了数据清理、子任务切分(将单一作业计算转化为多个子Task)、TaskGroup管理等功能。

2、DataXJob启动后,会根据不同的源端切分策略,将Job切分成多个小的Task(子任务),以便于并发执行。Task便是DataX作业的最小单元,每一个Task都会负责一部分数据的同步工作。

3、切分多个Task之后,DataX Job会调用Scheduler模块,根据配置的并发数据量,将拆分成的Task重新组合,组装成TaskGroup(任务组)。每一个TaskGroup负责以一定的并发运行完毕分配好的所有Task,默认单个任务组的并发数量为5

4、每一个Task都由TaskGroup负责启动,Task启动后,会固定启动Reader—>Channel—>Writer的线程来完成任务同步工作。

5、DataX作业运行起来之后, Job监控并等待多个TaskGroup模块任务完成,等待所有TaskGroup任务完成后Job成功退出。否则,异常退出,进程退出值非0。

流程调度

1、DataXJob根据分库分表切分成了100个Task。

2、根据20个并发,DataX计算共需要分配4个TaskGroup。

3、4个TaskGroup平分切分好的100个Task,每一个TaskGroup负责以5个并发共计运行25个Task。

数据库类型插件读、写说明

数据库类型插件,实际是使用jdbc来进行数据的读取插入。
在这里插入图片描述

可以看到,在数据写入时,实际是通过一条条的SQl来进行插入的。而读取数据的部分,实际也是通过具体的SQL来进行执行的,可以同过MySQL的日志来查看。

所以,实际的使用过程中,可以将配置文件当作一个SQL来进行编写即可。

对具体字段的去特殊字符操作,可使用replace函数,以及限制只迁移某个时间段的数据,则可以在where条件中,限制具体的业务字段在某个时间段。

同时,任务要求读写的字段应该一致,通过字段的顺序来达到字段映射的作用。

因此在实际使用的过程中,可以构建一些指定字段,如在多表迁移到一张表的情况下,每张表代表的是某一天的数据。

但是字段中并没有时间字段,则可以构建静态值为字段插入到配置中,来达成多表合一时,做到数据的时序性

五、Datax工具参数说明

Setting

Setting参数设置的是整体的任务执行的一些配置,如启动几个channel来运行,或者限制具体的速度等。如下:

"speed": {
   "channel": 5,
   "byte": 1048576,
   "record": 10000
}

speed参数为设置具体的速度;

Channel为运行的并发数(最好根据运行机器的物理限制配置,最好不超过32);

Byte为字节流(数据大小);

Record为记录流(即条数);

"errorLimit": {
   "record": 0,
   "percentage": 0.02
}


errorLimit参数为容错率;

record为允许的错误条数;

percentage为允许的错误率,即整体的任务在出现错误的条数或者错误率超过预设是进行中断报错;

Reader& writer

这里仅介绍通用的字段,如果需要详细的参数配置可以参考

*https://github.com/alibaba/DataX#support-data-channels中的具体文档

jdbcUrl

· 描述:描述的是到对端数据库的JDBC连接信息,使用JSON的数组描述,并支持一个库填写多个连接地址。

之所以使用JSON数组描述连接信息,是因为阿里集团内部支持多个IP探测,如果配置了多个,PostgresqlReader可以依次探测ip的可连接性,直到选择一个合法的IP。如果全部连接失败,PostgresqlReader报错。

注意:jdbcUrl必须包含在connection配置单元中。对于阿里集团外部使用情况,JSON数组填写一个JDBC连接即可。jdbcUrl按照PostgreSQL官方规范,并可以填写连接附件控制信息

· 必选:是;
· 默认值:无;

username

· 描述:数据源的用户名;
· 必选:是;
· 默认值:无;

password

· 描述:数据源指定用户名的密码;
· 必选:是;
· 默认值:无;

table

· 描述:所选取的需要同步的表。使用JSON的数组描述,因此支持多张表同时抽取。当配置为多张表时,用户自己需保证多张表是同一schema结构,PostgresqlReader不予检查表是否同一逻辑表。注意,table必须包含在connection配置单元中
· 必选:是
· 默认值:无

colum

· 描述:所配置的表中需要同步的列名集合,使用JSON的数组描述字段信息。用户使用代表默认使用所有列配置,例如['']。

支持列裁剪,即列可以挑选部分列进行导出。支持列换序,即列可以不按照表schema信息进行导出。支持常量配置,用户需要按照PostgreSQL语法格式:

[“id”, “‘hello’::varchar”, “true”, “2.5::real”, “power(2,3)”] id为普通列名,

‘hello’::varchar为字符串常量,true为布尔值,2.5为浮点数, power(2,3)为函数。

注意:column必须用户显示指定同步的列集合,不允许为空!

· 必选:是;
· 默认值:无;

splitPk

· 描述:PostgresqlReader进行数据抽取时,如果指定splitPk,表示用户希望使用splitPk代表的字段进行数据分片。DataX因此会启动并发任务进行数据同步,这样可以大大提供数据同步的效能。推荐splitPk用户使用表主键,因为表主键通常情况下比较均匀,因此切分出来的分片也不容易出现数据热点。

目前splitPk仅支持整形数据切分,不支持浮点、字符串型、日期等其他类型。如果用户指定其他非支持类型,PostgresqlReader将报错!splitPk设置为空,底层将视作用户不允许对单表进行切分,因此使用单通道进行抽取

· 必选:否;
· 默认值:空;

where

· 描述:筛选条件,MysqlReader根据指定的column、table、where条件拼接SQL,并根据这个SQL进行数据抽取。在实际业务场景中,往往会选择当天的数据进行同步,可以将where条件指定为gmt_create > $bizdate 。

注意:不可以将where条件指定为limit 10,limit不是SQL的合法where子句。

· 必选:否
· 默认值:无

querySql

where条件可以有效地进行业务增量同步。where条件不配置或者为空,视作全表同步数据。

· 描述:在有些业务场景下,where这一配置项不足以描述所筛选的条件,用户可以通过该配置型来自定义筛选SQL。当用户配置了这一项之后,DataX系统就会忽略table,column这些配置型,直接使用这个配置项的内容对数据进行筛选。例如需要进行多表join后同步数据,使用select a,b from table_a join table_b on table_a.id = table_b.id

当用户配置querySql时,PostgresqlReader直接忽略table、column、where条件的配置。

· 必选:否;
· 默认值:无;

fetchSize

· 描述:该配置项定义了插件和数据库服务器端,每次批量数据获取条数,该值决定了DataX和服务器端的网络交互次数,能够较大的提升数据抽取性能。

注意,该值过大(>2048)可能造成DataX进程OOM。

· 必选:否;
· 默认值:1024;

session

· 描述: DataX在获取Mysql连接时,执行session指定的SQL语句,修改当前connection session属性
· 必须: 否
· 默认值: 空

preSql

· 描述:写入数据到目的表前,会先执行这里的标准语句。如果 Sql 中有你需要操作到的表名称,请使用 @table 表示,这样在实际执行 Sql 语句时,会对变量按照实际表名称进行替换。

比如你的任务是要写入到目的端的100个同构分表(表名称为:datax_00,datax01, … datax_98,datax_99),并且你希望导入数据前,先对表中数据进行删除操作。那么你可以这样配置:“preSql”:[“delete from 表名”],效果是:在执行到每个表写入数据前,会先执行对应的 delete from 对应表名称。

必选:否;
默认值:无;

postSql

· 描述:写入数据到目的表后,会执行这里的标准语句。(原理同 preSql );
· 必选:否;
· 默认值:无;

writeMode

· 描述:控制写入数据到目标表采用 insert into 或者 replace into 或者 ON DUPLICATE KEY UPDATE 语句;
· 必选:是,所有选项:insert/replace/update;
· 默认值:insert;

batchSize

· 描述:一次性批量提交的记录数大小,该值可以极大减少DataX与Mysql的网络交互次数,并提升整体吞吐量。但是该值设置过大可能会造成DataX运行进程OOM情况。

· 必选:否;
· 默认值:1024;

综上介绍,我们来看一段配置样例:


{

    "job": {

        "setting": {

            "speed": {

                "channel": 1

            }

        },

        "content": [

            {

                 "reader": {

                    "name": "streamreader",

                    "parameter": {

                        "column" : [

                            {

                                "value": "DataX",

                                "type": "string"

                            },

                            {

                                "value": 19880808,

                                "type": "long"

                            },

                            {

                                "value": "1988-08-08 08:08:08",

                                "type": "date"

                            },

                            {

                                "value": true,

                                "type": "bool"

                            },

                            {

                                "value": "test",

                                "type": "bytes"

                            }

                        ],

                        "sliceRecordCount": 1000

                    }

                },

                "writer": {

                    "name": "mysqlwriter",

                    "parameter": {

                        "writeMode": "insert",

                        "username": "root",

                        "password": "root",

                        "column": [

                            "id",

                            "name"

                        ],

                        "session": [

                               "set session sql_mode='ANSI'"

                        ],

                        "preSql": [

                            "delete from test"

                        ],

                        "connection": [

                            {

                                "jdbcUrl": "jdbc:mysql://127.0.0.1:3306/datax?useUnicode=true&characterEncoding=gbk",

                                "table": [

                                    "test"

                                ]

                            }

                        ]

                    }

                }

            }

        ]

    }

}
}



总结

今天的分享就到这儿了,希望通过本期全面的介绍后,往后在进行DataX数据迁移的时候,可以参考上述方式,根据实际情况进行操作~!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/107628.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

数据人PK也无人,为什么业务部门的数据需求都是急活?

**导读&#xff1a;**你是不是经常听到数据开发吐槽业务部门&#xff1a;我可以理解业务部门数据需求多&#xff0c;但为什么经常要得这么急呢&#xff1f; 作为一个数据开发者&#xff0c;可以回想一下&#xff0c;当初是怎么进入数据行业的。 是不是也是听一些大V忽悠&…

Java Swing JSlider:滑块组件

在前面的章节中&#xff0c;我们介绍了 Swing 设计简单界面所需的窗口、布局组件以及如何响应事件。Swing 还提供了很多高级组件&#xff0c;如菜单栏、工具栏、文件选择器、表格以及树等。使用这些高级组件可以实现更为复杂的布局&#xff0c;也可以使程序界面更加人性化&…

颜色分析.

介绍 宽光谱光源对许多光学系统都很重要&#xff0c;应用范围包括白光照明、分光计等。Fred中的颜色图像分析&#xff0c;是通过计算每个像素的色度坐标并在表面上显示生成的RGB值来生成颜色分布。此外&#xff0c;FRED还可以显示彩色色度图&#xff0c;并在用户移动光标时指…

CSS -- CSS选择器精讲(基础选择器,符合选择器,属性选择器,结构伪类选择器,伪选择器)

文章目录1 CSS基础选择器1.1 选择器的分类1.2 标签选择器1.3 类选择器1.4 id选择器1.5 通配符选择器1.6 基础选择器总结2 CSS的复合选择器2.1 什么是复合选择器2.2 后代选择器2.3 子选择器2.4 并集选择器2.5 伪类选择器2.6 链接伪类选择器2.7 :focus 伪类选择器2.8 复合选择器总…

正点原子-Linux嵌入式开发学习-第二期04

第十一讲&#xff1a;BSP工程管理 BSP管理其实就是以前学stm32一样的单独为led写.h和.c&#xff0c;并且文件夹有很多种 使用ubuntu的vscode创建bsp文件 第一步&#xff1a;新建bsp文件夹&#xff0c;在bsp文件夹新建各个外设或者功能的文件夹&#xff08;一定是在相应的文件夹…

nodejs+vue+elementui鲜花销售商城管理系统410

前台&#xff1a; (1) 用户注册&#xff1a;用户名&#xff0c;密码&#xff0c;确认密码&#xff0c;邮箱&#xff0c;手机号&#xff0c;真实姓名&#xff0c;收货地址 (2) 用户登录&#xff1a;用户名&#xff0c;密码&#xff0c;验证码 登录后在主页显示欢迎信息&am…

2022年保险行业和产品研究报告

第一章 行业概况 保险业是经营风险的特殊行业。保险是以契约形式确立双方经济关系&#xff0c;以缴纳保险费建立起来的保险基金&#xff0c;对保险合同规定范围内的灾害事故所造成的损失&#xff0c;进行经济补偿或给付的一种经济形式。 保险是专门以风险为经营对象、为人们提…

RK3568开发环境搭建

前面我给大家展示了RK3568的开发板&#xff0c;但是并没有对RK3568的芯片资源进行描述&#xff0c;这里简单给大家看下该芯片的资源&#xff0c;具体的请看瑞芯微官网https://www.rock-chips.com/ 对芯片有了写了解之后&#xff0c;下面就开始搭建开发环境&#xff0c;让我们早…

Databend 开源周报 #72

Databend 是一款强大的云数仓。专为弹性和高效设计&#xff0c;自由且开源。 即刻体验云服务&#xff1a;https://app.databend.com。 What’s New 探索 Databend 本周新进展&#xff0c;遇到更贴近你心意的 Databend 。 Features & Improvements Multiple Catalogs …

操作系统:虚拟存储器 练习题(带有答案和解析)

文章目录1.虚拟存储器概述1.1.常规存储管理方式的特征和局部性原理1.2.虚拟存储器的定义和特征1.3.虚拟存储器的实现方法2.请求分页存储管理方式2.1.请求分页中的硬件支持2.2.请求分页中的内存分配3.页面置换算法3.1.最佳置换算法和先进先出置换算法3.2.最近最久未使用和最少使…

Spring事件处理

在实际业务开发中&#xff0c;有时候复杂性的业务之间需要解耦&#xff0c;常用的方法&#xff1a;同步、异步、MQ。但 MQ 重啊&#xff0c;非必要不提升架构复杂度。 针对同步和异步使用方式&#xff1a;&#xff11;.定时器 &#xff12;.Spring Event. Spring Event: 观察者…

网站反爬指南:政府网站篇

目录 前言 黑灰产为何盯上政务网站&#xff1f; 如何反爬&#xff1f; 前言 网络爬虫正在成为政务网站们最大的威胁之一。 随着网络安全被提升到国家层面&#xff0c;网站安全管理和防护日趋重要&#xff0c;政务网站既要确保网站信息的及时和准确&#xff0c;又要能应对网络…

15. Spring事务管理

1. Spring事务简介 事务作用&#xff1a;在数据层保障一系列的数据库操作同成功同失败Spring事务作用&#xff1a;在数据层或**业务层**保障一系列的数据库操作同成功同失败 2. 案例 2.1 需求和分析 需求&#xff1a;实现任意两个账户间转账操作需求微缩&#xff1a;A账户减…

如何使用 SAP OData 服务向 ABAP 服务器上传文件试读版

本教程到目前为止开发的 OData 图书管理服务&#xff0c;可以在 ABAP 系统里对图书数据进行增删改查。 本步骤我们继续介绍如何通过 SAP OData 服务&#xff0c;实现向 ABAP 系统上传文件的需求。我们采取 Postman 进行文件上传。 先看一下通过本文介绍的步骤&#xff0c;实现…

word基础功能应用:带圈字符如此妙法,好玩有趣

很多人把Word当成码字的记事本&#xff0c;其实它的逆天操作&#xff0c;远比你想象得还要强大。比如&#xff0c;Word中的“带圈字符”功能。 01、基本用法 Word中&#xff0c;点击【开始】-【带圈字符】按钮&#xff0c;即可启用“带圈字符”功能。 比如&#xff0c;我们可…

自然语言处理学习笔记-lecture10-机器翻译01

机器翻译的产生与发展 机器翻译 (machine translation, MT) 是用计算机把一种语言(源语言, source language) 翻译成另一种语言(目标语言, target language) 的一门学科和技术。 机器翻译的困难如下&#xff1a; 自然语言中普遍存在的歧义和未知现象机器翻译不仅仅是字符串的…

Spring IOC和Bean生命周期以及源码分析

这篇文章主要讲解 IOC 容器的创建过程&#xff0c;让大家对整体有一个全局的认识,文章目录如图: 1. 基础知识 1.1 什么是 Spring IOC &#xff1f; IOC 不是一种技术&#xff0c;只是一种思想&#xff0c;一个重要的面向对象编程的法则&#xff0c;它能指导我们如何设计出松耦…

springboot小区物业管理系统maven idea1562

本小区物业管理系统以springboot作为框架&#xff0c;以MySql作为后台运行的数据库&#xff0c;使用Tomcat用为系统的服务器&#xff0c;同时使用JSP显示业主界面。本系统主要包括以下功能模块&#xff1a;个人中心、业主管理、费用缴纳管理、疫情防控管理、小区车位管理、车位…

基于 Traefik 的 Basic Auth 配置

前言 Traefik是一个现代的HTTP反向代理和负载均衡器&#xff0c;使部署微服务变得容易。 Traefik可以与现有的多种基础设施组件&#xff08;Docker、Swarm模式、Kubernetes、Marathon、Consul、Etcd、Rancher、Amazon ECS...&#xff09;集成&#xff0c;并自动和动态地配置自…

Allegro如何快速统计串阻前后端的长度操作指导

Allegro如何快速统计串阻前后端的长度操作指导 Allegro可以快捷的统计出串阻前后端的长度,并且归一到一个网络中,方便查看 比如需要统计1-3的总长 具体操作如下 选择Analyze-Model Assignment出现SI Design Audit窗口,直接点击ok<