Java开发 - Canal进阶之和Redis的数据同步

news2025/2/23 20:16:26

前言

Canal在数据同步中是非常常见的,一般我们会用它来做MySQL和Redis之间、MySQL和ES之间的数据同步,否则就是手动通过代码进行同步,造成代码耦合度高的问题,这并不是我们愿意看见的,今天这篇博客博主将给大家演示Canal的数据同步做法,敲小黑板了啊,实战中基本也是这么做的,有需要的小伙伴可以仔细研究。

前文回顾

前文中,我们讲解了Canal的基本用法,用来监听数据库的变化,对数据库和Canal的一些基础配置都在这里:
Java开发 - Canal的基本用法

如果你对Canal还不了解,那么你有必要先去看这篇博客,再来学习这里的实战内容。 这很有必要,当然如果你对MySQL主从也不了解的话,那么你也有必要去看上一篇博客,里面有提到MySQL主从的博客地址,也可以前往博主的博客首页去向下翻找。同时,还有Redis主从,Redis集群的博客,你想知道的,博主都有,自行去查找。

基础架构

所以,本文中我们要使用到的技术就是以上几种了,而MySQL前文中已经配置过,此处不再重复,可自行前往查看。Canal虽然也配置过,但要做到和Kafka配合还需要额外的配置,而Kafka的使用必然是脱离不开Zookeeper的,这个自不必多说,最后就是同步了,还有点小期待呢,下面我们就一起动动小手开始进行今天的学习吧。 

Canal配置

Canal的下载使用前文中有部分,希望大家在看此篇博客前先去查看上一篇,在上一篇中,我们仅对conf/example/instance.properties文件进行了配置,在配合MQ的时候,还需要对conf/canal.properties文件进行配置,不仅如此,instance.properties中也要补充一些配置。

下面,我们先来配置canal.properties这个文件:

# tcp, kafka, RocketMQ 这里选择kafka模式
canal.serverMode = kafka
# 解析器的线程数,默认是注释的,不打开可能会出现阻塞或者不进行解析的情况
canal.instance.parser.parallelThreadSize = 16
# MQ的服务地址,这里是kafka对应的地址和端口
canal.mq.servers = 127.0.0.1:9092
# 在conf目录下要有example同名的目录,可以配置多个,这也是上一篇中配置的文件生效的关键
canal.destinations = example

配置instance.properties文件,再原先配置的基础上增加MQ相关的配置:

#MQ队列名称
canal.mq.topic=canal_topic
#单队列模式的分区下标
canal.mq.partition=0

 此时,名为canal_topic的队列我们还没有创建,等下开启Kafka之后,我们就创建。

Zookeeper、Kafka、Redis、Canal启动

Zookeeper&Kafka启动

ZooKeeper是一个分布式的,开放源码的分布式应用程序协调服务,是Google的Chubby一个开源的实现,是Hadoop和Hbase的重要组件。它是一个为分布式应用提供一致性服务的软件,提供的功能包括:配置维护、域名服务、分布式同步、组服务等。

要想启动Kafka,就要先启动Zookeeper,电脑终端进入Kafka的bin文件目录下:

# 进入Kafka文件夹
cd Desktop/JAVATOOL/kafka/kafka_2.13-2.4.1/bin
# 启动Zookeeper服务
./zookeeper-server-start.sh ../config/zookeeper.properties 
# 启动Kafka服务
./kafka-server-start.sh ../config/server.properties 

然后你就看到了一堆的输出......

如果需要关闭,命令如下:

使用命令进行监听消费:

需要先关闭Kafka,再关闭zookeeper,否则Kafka会一直报断开连接的错。 

文件路径写你自己的,不要写博主的,两个服务启动用两个窗口来运行命令,运行期间窗口不要关闭。

Windows电脑需要进入到kafka/bin/windows目录下,接着输入以下命令:

启动zookeeper:

zookeeper-server-start.bat ..\..\config\zookeeper.properties

启动kafka: 

kafka-server-start.bat ..\..\config\server.properties

 我们需要先把前面配置Kafka未创建的队列先创建一下,首先进入Kafka的bin目录下,然后执行以下命令:

./kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic canal_topic

Redis启动

找到Redis所在的目录,将redis-server直接拖到终端即可启动:

进入Redis安装目录:

cd /Users/Codeliu/Desktop/JAVATOOL/redis/src

执行以下命令:

redis-server redis.conf

  

通过命令可以查看Redis运行状态:

可以看到Redis已经在6379端口运行。 

Canal启动

和Redis一样,将canal下bin文件夹内的startup.sh文件拖动到终端即可启动:

/Users/Codeliu/Desktop/JAVATOOL/canal/bin/startup.sh

前文中我们也多有演示,要想停止,只需要把stop.sh拖进去回车就可以了。 

简单测试一下

现在,我们依赖的服务都已启动,我们简单通过命令来测试一下,使用命令进行监听消费:

./kafka-console-consumer.sh --bootstrap-server 127.0.0.1:9092 --from-beginning --topic canal_topic

我们向MySQL插入数据:

insert into user value(null ,'小花','123456',20,'13812345678');

 看看控制台会有什么输出:

哇,这就是我们刚刚插入的数据,到此,起码表明我们的配置都是成功的。

注意:因为是本地配置,一个服务一个控制台,不要共用,看看博主的控制台:

虽然乱了些,但是生产环境......好吧,博主也不敢保证生产环境能好好的,主要还是看你用多少台服务器,肯定比本地强。 

项目阶段

下面,我们进入项目阶段,在上一篇的项目基础上继续搞。

添加依赖

主要是Kafka和Redis的依赖:

<dependency>
    <groupId>org.springframework.kafka</groupId>
    <artifactId>spring-kafka</artifactId>
</dependency>
<dependency>
    <groupId>org.springframework.boot</groupId>
    <artifactId>spring-boot-starter-data-redis</artifactId>
</dependency>

版本号大家要选择对应服务的版本号,博主这里不再给,以免误导大家。 

添加配置

spring:
  redis:
    host: 127.0.0.1
    port: 6379
    database: 0
  kafka:
    # Kafka服务地址
    bootstrap-servers: 127.0.0.1:9092
    consumer:
      # 指定一个默认的组名
      group-id: consumer-group1
      #序列化反序列化
      key-deserializer: org.apache.kafka.common.serialization.StringDeserializer
      value-deserializer: org.apache.kafka.common.serialization.StringDeserializer
    producer:
      key-serializer: org.apache.kafka.common.serialization.StringDeserializer
      value-serializer: org.apache.kafka.common.serialization.StringDeserializer
      # 批量抓取
      batch-size: 65536
      # 缓存容量
      buffer-memory: 524288

canal:
  serverAddress: 127.0.0.1
  serverPort: 11111
  instance: #多个instance
    - example

创建Redis工具类

package com.codingfire.canal.Client;

import org.springframework.data.redis.core.StringRedisTemplate;
import org.springframework.stereotype.Component;

import javax.annotation.Resource;
import java.util.concurrent.TimeUnit;

@Component
public class RedisClient {

    /**
     * 获取redis模版
     */
    @Resource
    private StringRedisTemplate stringRedisTemplate;

    /**
     * 设置redis的key-value
     */
    public void setString(String key, String value) {
        setString(key, value, null);
    }

    /**
     * 设置redis的key-value,带过期时间
     */
    public void setString(String key, String value, Long timeOut) {
        stringRedisTemplate.opsForValue().set(key, value);
        if (timeOut != null) {
            stringRedisTemplate.expire(key, timeOut, TimeUnit.SECONDS);
        }
    }

    /**
     * 获取redis中key对应的值
     */
    public String getString(String key) {
        return stringRedisTemplate.opsForValue().get(key);
    }

    /**
     * 删除redis中key对应的值
     */
    public Boolean deleteKey(String key) {
        return stringRedisTemplate.delete(key);
    }
}

这是一个比较通用的redis的存储工具类,很多佬都用这个类,没啥特色,直接贴就行。 

创建数据模型

创建Canal抓取数据的实体类:

package com.codingfire.canal.entity;

import java.util.List;

public class CanalEntity {
    //数据
    private List<UserType> data;
    //数据库名称
    private String database;
    private long es;
    //递增,从1开始
    private int id;
    //是否是DDL语句
    private boolean isDdl;
    //表结构的字段类型
    private SqlType sqlType;
    //UPDATE语句,旧数据
    private String old;
    //主键名称
    private List<String> pkNames;
    //sql语句
    private String sql;
    private UserType userType;
    //表名
    private String table;
    private long ts;
    //(新增)INSERT、(更新)UPDATE、(删除)DELETE、(删除表)ERASE等等
    private String type;

}

创建用户信息表实体类:

package com.codingfire.canal.entity;

public class UserType {
    private Long id;
    private String username;
    private String password;
    private int age;
    private String phone;
}

创建MQ的消费者

package com.codingfire.canal.consumer;

import com.alibaba.fastjson.JSONObject;
import com.codingfire.canal.Client.RedisClient;
import com.codingfire.canal.entity.CanalEntity;
import com.codingfire.canal.entity.UserType;
import org.apache.kafka.clients.consumer.ConsumerRecord;
import org.slf4j.Logger;
import org.slf4j.LoggerFactory;
import org.springframework.kafka.annotation.KafkaListener;
import org.springframework.stereotype.Component;

import javax.annotation.Resource;
import java.util.List;

@Component
public class CanalConsumer {
    //日志记录
    private static Logger log = LoggerFactory.getLogger(CanalConsumer.class);
    //redis操作工具类
    @Resource
    private RedisClient redisClient;
    //监听的队列名称为:canal_topic
    @KafkaListener(topics = "canal_topic")
    public void receive(ConsumerRecord<?, ?> consumer) {
        String value = (String) consumer.value();
        log.info("topic名称:{},key:{},分区位置:{},下标:{},value:{}", consumer.topic(), consumer.key(),consumer.partition(), consumer.offset(), value);
        //转换为javaBean
        CanalEntity canalEntity = JSONObject.parseObject(value, CanalEntity.class);
        //获取是否是DDL语句
        boolean isDdl = canalEntity.isDdl();
        //获取类型
        String type = canalEntity.getType();
        //不是DDL语句
        if (!isDdl) {
            List<UserType> userTypeList = canalEntity.getData();
            //过期时间
            long TIME_OUT = 180L;
            if ("INSERT".equals(type)) {
                //新增语句
                for (UserType userType : userTypeList) {
                    //此处id需要注意,由于是演示项目,博主用的是自增id,实际应用中可能会用复杂的id规则
                    String id = userType.getId().toString();
                    //新增到redis中,过期时间3分钟
                    redisClient.setString(id, JSONObject.toJSONString(userType), TIME_OUT);
                }
            } else if ("UPDATE".equals(type)) {
                //更新语句
                for (UserType userType : userTypeList) {
                    //此处id需要注意,由于是演示项目,博主用的是自增id,实际应用中可能会用复杂的id规则
                    String id = userType.getId().toString();
                    //更新到redis中,过期时间是3分钟
                    redisClient.setString(id, JSONObject.toJSONString(userType), TIME_OUT);
                }
            } else {
                //删除语句
                for (UserType userType : userTypeList) {
                    //此处id需要注意,由于是演示项目,博主用的是自增id,实际应用中可能会用复杂的id规则
                    String id = userType.getId().toString();
                    //从redis中删除
                    redisClient.deleteKey(id);
                }
            }
        }
    }
}

测试

现在,运行项目:

图中队列名字可不要写错了, 运行成功后,我们向用户表中插入新的数据:

insert into user value(null ,'小黑','123456',20,'13812345678');

控制台监听如下:

项目控制台监听如下:

Redis客户端数据如下:

至此,我们的整个应用就是成功的了,鼓掌👏 👏👏👏👏👏👏👏👏👏👏👏👏

从整体的监听上来看,我们可以得知database,table等参数,所以在使用中,可以根据这些参数灵活的进行使用,也可以创建多个队列和多个消费者。在本案例中,就可以创建一个新的队列和新的ES消费者来对ES进行数据的同步,所以,你明白ES的数据同步该怎么做了吗?

结语

本篇是对单节点的应用,但从中我们也能推断出一些关于集群的应用,不过大多数公司能搞个主从就已经是不错了,所以你能学会这个已经算是很有用了,关于ES,博主前面也讲过一些基础应用,创建一个工具类利用ES的数据模型进行存储就可以达到一个canal同时对Redis和ES的同步,如果担心出问题,可以把Canal搞成集群的形式,这个后续有时间博主再给大家做讲解。今天就到这里了,觉得不错就支持一下吧。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/715767.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

速下载|2023上半年网络与数据安全法规政策、国标、报告合集

随着国家数字经济建设进程加快&#xff0c;数据安全立法实现由点到面、由面到体加速构建&#xff0c;目前我国数据安全立法已基本形成以《网络安全法》《数据安全法》《个人信息保护法》《密码法》等法律为核心&#xff0c;行政法规、部门规章为依托&#xff0c;地方性法规、地…

【全文搜索选型】全文搜索 PostgreSQL 或 ElasticSearch

在本文中&#xff0c;我记录了在 PostgreSQL&#xff08;使用 Django ORM&#xff09;和 ElasticSearch 中实现全文搜索 (FTS) 时的一些发现。 作为一名 Django 开发人员&#xff0c;我开始寻找可用的选项来在大约一百万行的标准大小上执行全文搜索。有两个值得尝试的选项&…

百度文心一言App已在AppStore上架—特别是发现页的功能太强大了

百度文心一言 App 现已上架苹果 App Store&#xff0c;所有用户可免费下载安装。 特别是发现页的功能&#xff0c;真的太强大了&#xff0c;基本涵盖了你所有已知的 AI 工具功能&#xff01;比如&#xff1a; 小红书探店文案、风格头像、朋友圈神器、短视频脚本生成、AI 绘画…

【ESP32 开发】| Clion 搭建 ESP32 开发环境

目录 前言1 软件以及所需工具2 安装 ESP-IDF 4.4.42.1 开始安装2.2 选择组件&#xff0c;建议全选 3 用 ESP-IDF 4.4 CMD 添加环境变量并新建工程3.1 打开 ESP-IDF 4.4 CMD 初始化环境变量3.2 切到工作路径并新建工程 4 配置 Clion 开发环境4.1 用 Clion 打开新建的工程文件4.2…

有了企业网盘,为什么要需要知识文档管理系统

关键词&#xff1a;企业网盘、知识文档管理系统、群晖NAS 编者按&#xff1a;随着企业办公室自动化的要求越来越明显&#xff0c;企业对于文档存储的需求也逐渐加大。企业网盘的出现解决了公司文件数据储存等难题。但随着企业的文档数据逐渐增多&#xff0c;如何安全管理企业重…

蓝牙资讯|苹果AirPods Pro充电盒将换用USB-C接口,还有新功能在测试

据彭博社记者 Mark Gurman 在他的最新一期 Power On 时事通讯中报道&#xff0c;苹果正准备推出适用于 AirPods Pro 的 USB-C 充电盒&#xff0c;大概会在今年秋天与 iPhone 15 系列一起推出&#xff0c;后者也将从 Lightning 端口切换到 USB-C 端口。 此外&#xff0c;苹果也…

Java集合之Disruptor 介绍

文章目录 1 Disruptor1.1 简介1.1.1 定义1.1.2 Java中线程安全队列1.1.3 Disruptor 核心概念 1.2 操作1.2.1 坐标依赖1.2.2 创建事件1.2.3 创建事件工厂1.2.4 创建处理事件Handler--消费者1.2.5 初始化 Disruptor1.2.5.1 静态类1.2.5.2 配置类1.2.5.3 Disruptor 构造函数讲解 1…

uniapp仿浙北汇生活微信小程序

最近给公司写了一个内部微信小程序&#xff0c;功能比较简单&#xff0c;之前是用微信小程序原生写的&#xff0c;一遍看文档一边写&#xff0c;js&#xff0c;wxml&#xff0c;wxcc&#xff0c;json分在不同文件的写法很不习惯&#xff0c;于是花了两天用uniapp重写了一遍&…

TextMining day1 电力设备运维过程中的短文本挖掘框架

电力设备运维过程中的短文本挖掘框架 III. 短文本挖掘框架的具体设计A. 预处理模块的具体设计B. 数据清洗模块的具体设计C. 表示模块的具体设计D. 数据分析模块的具体设计 IV. 案例研究A. 基于文本分类的缺陷程度判断B. 基于文本检索的缺陷处理决策 V. 结论 预处理 首先&#x…

一个光模块可以带动多少户

随着科技的快速发展&#xff0c;光模块的应用场景逐渐扩大&#xff0c;数据中心、人工智能AI的创新使我们的生活日新月异。今天我们就来看看一个小小的光模块究竟蕴藏着多大的能量&#xff01; 一、影响光模块带动户数的因素 光模块是一种实现光电转换和电光转换功能的光电子…

android Surface(1, 2)

android Surface(1, 2) android的Surface相关内容从底层依次往上分别是&#xff1a; 1.frameBuffer&#xff0c;简称fb&#xff0c;对于同一个android系统&#xff0c;可以同时存在多个frameBuffer&#xff0c;本机是fb0&#xff0c;依次外接时&#xff0c;fb1, fb2, ……fbn…

LeetCode·每日一题·445. 两数相加 II·模拟

作者&#xff1a;小迅 链接&#xff1a;https://leetcode.cn/problems/add-two-numbers-ii/solutions/2328613/mo-ni-zhu-shi-chao-ji-xiang-xi-by-xun-ge-67qx/ 来源&#xff1a;力扣&#xff08;LeetCode&#xff09; 著作权归作者所有。商业转载请联系作者获得授权&#xff…

2023.6.26-7.2 AI行业周刊(第152期):从一个热门视频,得到的人生发展感悟

上周五去上海参加2023年MWC&#xff08;世界移动通讯大会&#xff09;&#xff0c;在回无锡的路上&#xff0c;无意中刷到一个已关注博主的视频。 这个博主是2021年的时候&#xff0c;刚发第二个视频的时候&#xff0c;就一直在关注的。 从分享他从公务员辞职的经历&#xff…

【Web3】认识Web3

Web3是一种用于描述下一代互联网的概念 它指在构建一个去中心化 用户控制和加密安全的网络环境。 Web3的目标是将权利和数据掌握回归到用户手中 通过采用分布式技术和加密货币的支持 实现更加开放 公开和透明的互联网 Web的主要特点 去中化&#xff1a;Web3的核销理念是去中心…

静态时序分析: update io latency

往期文章链接: 静态时序分析: 虚拟时钟与I/O延迟约束 静态时序分析: 时钟延时(clock latency) 在CTS之前,clock是ideal的,in2reg与reg2out的path由于reg的clock network delay为0,所以时序比较容易收敛,在CTS之后,由于reg的clock network delay有了真实值(propagated…

Spring Boot 中的滚动部署是什么,如何使用

Spring Boot 中的滚动部署是什么&#xff0c;如何使用 简介 在开发和部署应用程序时&#xff0c;我们希望最小化中断&#xff0c;以确保应用程序始终可用。滚动部署是一种部署应用程序的方法&#xff0c;可以逐步将新版本部署到生产环境中&#xff0c;同时保持应用程序的可用…

Linux 6.5增加对高通开源GPU Adreno 690的支持

导读即将推出的Linux 6.5内核将把对高通Adreno 690 GPU的支持添加到开源的MSM内核图形/显示驱动程序中。A690主要用于骁龙8cx第三代&#xff08;SC8280XP&#xff09;平台&#xff0c;而联想ThinkPad X13s笔记本电脑和其他硬件也采用了该平台。 新的支持将包含近200行代码&…

基于小程序+云开发制作一个文件传输助手小程序

微信文件传输助手是真人?基于云开发制作一个文件传输助手小程序,你发给ta的小秘密,只有你自己知道。 开发步骤一、创建小程序二、云开发配置环境配置绑定云环境三、页面设计首页详情页底部弹窗四、云数据库概念云函数服务端函数文件上传

Java版事件与委托实现自动创建工厂并热加载

本文已收录于专栏 《Java》 目录 概念说明事件与委托工厂方法热加载 需求介绍代码实现1.整体结构2.工厂方法中已经存在的类工厂接口运算类工厂(其他工厂基本上是一样的)&#xff1a;目前没有加法类的工厂我们后面会添加加法类工厂然后热加载运行运算父类运算子类 3.工厂方法之外…

Java 运行jar包变更配置文件与变量

文章目录 前言实现原理不同环境的配置文件变更配置变量 前言 为实现快速搭建和开发&#xff0c;项目以Springboot框架搭建&#xff0c;springboot搭建的项目可以将项目直接打成jar包并运行&#xff0c;无需自己安装配置Tomcat或者其他服务器&#xff0c;是一种方便快捷的部署方…