分布式服务框架zookeeper+消息队列kafaka

news2024/11/13 12:48:28

一、zookeeper概述

zookeeper是一个分布式服务框架,它主要是用来解决分布式应用中经常遇到的一些数据管理问题,如:命名服务,状态同步,配置中心,集群管理等。

在分布式环境下,经常需要对应用/服务进行统一命名,便于识别

        命名服务:命名服务是分布式系统中比较常见的一类场景。命名服务是分布式系统最基本的公共服务之一。在分布式系统中,被命名的实体通常可以是集群中的机器、提供的服务地址或远程对象等——这些我们都可以统称它们为名字(Name),其中较为常见的就是一些分布式服务框架(如 RPC、RMI)中的服务地址列表,通过使用命名服务,客户端应用能够根据指定名字来获取资源的实体、服务地址和提供者的信息等。

        状态同步:每个节点除了存储数据内容和 node 节点状态信息之外,还存储了已经注册的APP 的状态信息,当有些节点或 APP 不可用,就将当前状态同步给其他服务。

        配置中心:配置管理可交由ZooKeeper实现。可将配置信息写入ZooKeeper上的一个Znode。各个客户端服务器监听这个Znode。一旦 Znode中的数据被修改,ZooKeeper将通知各个客户端服务器。

        集群管理:所谓集群管理,包括集群监控与集群控制两大块,前者侧重对集群运行时状态的收集,后者则是对集群进行操作与控制,在日常开发和运维过程中,我们经常会有类似于如下的需求:

希望知道当前集群中究竟有多少机器在工作。

对集群中每台机器的运行时状态进行数据收集。

对集群中机器进行上下操作。

分布式环境中,实时掌握每个节点的状态是必要的。可根据节点实时状态做出一些调整。

二、zookeeper特性

zookeeper = 文件系统 + 通知机制

        客户端如果对 ZooKeeper 的一个数据节点注册 Watcher 监听,那么当该数据节点的内容或是其子节点列表发生变更时,ZooKeeper 服务器就会向订阅的客户端发送变更通知。

        对在 ZooKeeper 上创建的临时节点,一旦客户端与服务器之间的会话失效,那么该临时节点也就被自动清除。

        Watcher(事件监听器),是Zookeeper中的一个很重要的特性。Zookeeper允许用户在指定节点上注册一些Watcher,并且在一些特定事件触发的时候,ZooKeeper服务端会将事件通知到感兴趣的客户端上去,该机制是Zookeeper实现分布式协调服务的重要特性。

0 生产者启动
1 生产者注册至 zookeeper
2 消费者启动并订阅频道
3 zookeeper 通知消费者事件
4 消费者调用生产者
5 监控中心负责统计和监控服务状态

三、集群介绍

在zookeeper集群中,有各自的角色,分为领导者Leader,学习者learner(跟随者Follower,观察者Observer)

领导者主要工作:事务请求的唯一调度和处理者,保证集群事务处理的顺序性;集群内部个服务器的调度者。

跟随者:处理客户端非事务请求,转发事务请求给leader服务器;参与事务请求proposal的投票;参与leader选举的投票。

观察者:follower和Observer唯一的区别在于Observer机器不参与Leader的选举过程,也不参与写操作的“过半写成功”策略,因此Observer机器可以在不影响写性能的情况下提升集群的读性能。

选举机制:Leader

(1)服务器1启动,发起一次选举。服务器1投自己一票。此时服务器1票数一票,不够半数以上(3票),选举无法完成,服务器1状态保持为LOOKING;

(2)服务器2启动,再发起一次选举。服务器1和2分别投自己一票并交换选票信息:此时服务器1发现服务器2的myid比自己目前投票推举的(服务器1)大,更改选票为推举服务器2为主。此时服务器1票数0票,服务器2票数2票,没有半数以上结果,选举无法完成,服务器1,2状态保持LOOKING

(3)服务器3启动,发起一次选举。此时服务器1和2都会更改选票为服务器3。此次投票结果:服务器1为0票,服务器2为0票,服务器3为3票。此时服务器3的票数已经超过半数,服务器3当选Leader。服务器1,2更改状态为FOLLOWING,服务器3更改状态为LEADING;

(4)服务器4启动,发起一次选举。此时服务器1,2,3已经不是LOOKING状态,不会更改选票信息。交换选票信息结果:服务器3为3票,服务器4为1票。此时服务器4服从多数,更改选票信息为服务器3,并更改状态为FOLLOWING;

(5)服务器5启动,同4一样当小弟。

集群特性:

整个集群中只要有超过集群数量一半的 zookeeper 工作只正常的,那么整个集群对外就是可用的,假如有 2 台服务器做了一个 zookeeper集群,只要有任何一台故障或宕机,那么这个 zookeeper 集群就不可用了,因为剩下的一台没有超过集群一半的数量,但是假如有三台 zookeeper 组成一个集群,那么损坏一台就还剩两台,大于 3 台的一半,所以损坏一台还是可以正常运行的,但是再损坏一台就只剩一台集群就不可用了。

四、消息队列

        消息队列(Message Queue)是为了实现各个APP之间的通讯,APP基于MQ实现消息的发送和接收应用程序之间的通讯,这样多个应用程序可以运行在不同的主机上,通过MQ就可以实现夸网络通信,因此MQ实现了业务的解耦和异步机制。

MQ分类:

目前主流的消息队列软件有RabbitMQ,kafka,ActiveMQ,RocketMQ等,还有小众的消息队列软件如ZeroMQ,ApacheQpid等。

同步处理:

用户将请求发给系统A,系统A受到请求调用B系统,系统B返回结果到系统A,系统A才能返回给用户,这就是同步调用。

同步调用就是各个系统之间相互依赖,一个系统发出请求,其他系统会跟着一起执行,只有所有系统处理完后对用户来说才算是完成了一次请求,只有任何一个系统出现故障,就会报错给用户。

异步处理:

用户发送给请求给系统A,系统A将发送消息到MQ,然后就返回结果给用户,不会去管系统B是否处理,系统B再根据自己的能力去MQ中获取消息,执行自己的操作也不会去告诉系统A,所以整个过程的通信时异步调用。

Kafka优势:

1.高吞吐量、低延迟

        Kafka 每秒可以处理几十万条消息,它的延迟最低只有几毫秒。每个 topic 可以分多个 Partition,Consumer Group 对 Partition 进行消费操作,提高负载均衡能力和消费能力。

2.可扩展性

        kafka 集群支持热扩展

3.持久性、可靠性

        允许集群中节点失败(多副本情况下,若副本数量为 n,则允许 n-1 个节点失败)kafka 通过 O(1)的磁盘数据结构提供消息的持久化,这种结构对于即使数以 TB 的消息存储也能够保持长时间的稳定性能

4.容错性

  •         允许集群中节点失败(多副本情况下,若副本数量为 n,则允许 n-1 个节点失败)

        高并发 支持数千个客户端同时读写

kafka角色:

broker:kafka集群包含一个或多个服务器,这种服务器被称为broker。

  • Topic :每条发布到 Kafka 集群的消息都有一个类别,这个类别被称为 topic,(物理上不同 topic 的消息分开存储在不同的文件夹,逻辑上一个 topic 的消息虽然保存于一个或多个 broker 上但用户只需指定消息的 topic 即可生产或消费数据而不必关心数据存于何处),topic 在逻辑上对 record(记录、日志)进行分组保存,消费者需要订阅相应的 topic 才能消费 topic 中的消息。
  • Partition :是物理上的概念,每个 topic 包含一个或多个 partition,创建 topic 时可指定 parition 数量,每个partition对应于一个文件夹,该文件夹下存储该partition的数据和索引文件,为了实现实现数据的高可用,比如将分区 0的数据分散到不同的kafka节点,每一个分区都有一个broker作为leader 和一个 broker作为Follower。
  • Producer:负责发布消息到 Kafka broker
  • Consumer:消费消息,每个 consumer 属于一个特定的 consuer group(可为每个consumer 指定 group name,若不指定 group name 则属于默认的 group),使用consumer high level API 时,同一 topic 的一条消息只能被同一个 consumer group内的一个 consumer 消费,但多个 consumer group 可同时消费这一消息。

五、zookeeper与kafka

由于 consumer 在消费过程中可能会出现断电宕机等故障,consumer 恢复后,需要从故障前的位置的继续消费,所以 consumer 需要实时记录自己消费到了哪个 offset,以便故障恢复后继续消费。

Kafka 0.9 版本之前,consumer 默认将 offset 保存在 Zookeeper 中;从 0.9 版本开始,consumer 默认将 offset 保存在 Kafka 一个内置的 topic 中,该 topic 为 __consumer_offsets。

也就是说,zookeeper的作用就是,生产者push数据到kafka集群,就必须要找到kafka集群的节点在哪里,这些都是通过zookeeper去寻找的。消费者消费哪一条数据,也需要zookeeper的支持,从zookeeper获得offset,offset记录上一次消费的数据消费到哪里,这样就可以接着下一条数据进行消费。

部署kafka需要先部署zookeeper

5.1 部署zookeeper

需要三台服务器:

Node1:192.168.114.10

Node2:192.168.114.20

Node3:192.168.114.30

前期准备:防火墙和核心防护,三台机器。

systemctl stop firewalld

setenforce 0

需要依赖java环境:

yum install -y java

java版本:

[root@Node1 data]#:java -version
openjdk version "1.8.0_412"
OpenJDK Runtime Environment (build 1.8.0_412-b08)
OpenJDK 64-Bit Server VM (build 25.412-b08, mixed mode)

下载安装zookeeper:

wget https://archive.apache.org/dist/zookeeper/zookeeper-3.5.7/apache-zookeeper-3.5.7-bin.tar.gz

[root@Node1 data]#:wget https://archive.apache.org/dist/zookeeper/zookeeper-3.5.7/apache-zookeeper-3.5.7-bin.tar.gz
#解压
[root@Node1 data]#:tar xf apache-zookeeper-3.5.7-bin.tar.gz
[root@Node1 data]#:ls
apache-zookeeper-3.5.7-bin  apache-zookeeper-3.5.7-bin.tar.gz
#移动到/usr/local/下并改名为zookeeper
[root@Node1 data]#:mv apache-zookeeper-3.5.7-bin /usr/local/zookeeper

修改配置文件:

修改目录,和日志目录,添加集群信息

[root@Node1 data]#:cd /usr/local/zookeeper/conf/
[root@Node1 conf]#:ls
configuration.xsl  log4j.properties  zoo_sample.cfg
#先做个备份
[root@Node1 conf]#:cp -a zoo_sample.cfg zoo.cfg
[root@Node1 conf]#:vim zoo.cfg
......
dataDir=/usr/local/zookeeper/data
dataLogDir=/usr/local/zookeeper/logs
......
server.1=192.168.114.10:3188:3288
server.2=192.168.114.20:3188:3288
server.3=192.168.114.30:3188:3288

集群信息:

server.A=B:C:D

#A是一个数字,表示这个是第几号服务器。集群模式下需要在zoo.cfg中dataDir指定的目录下创建一个文件myid,这个文件里面有一个数据就是A的值,Zookeeper启动时读取此文件,拿到里面的数据与zoo.cfg里面的配置信息比较从而判断到底是哪个server。

#B是这个服务器的地址。

#C是这个服务器Follower与集群中的Leader服务器交换信息的端口。

#D是万一集群中的Leader服务器宕机了,需要一个端口来重新进行选举,选出一个新的Leader,而这个端口就是用来执行选举时服务器相互通信的端口。

在zookeeper目录下创建两个文件夹data,logs

[root@Node1 conf]#:cd ..
[root@Node1 zookeeper]#:mkdir logs data
[root@Node1 zookeeper]#:ls
bin  conf  data  docs  lib  LICENSE.txt  logs  NOTICE.txt  README.md  README_packaging.txt

在每个节点生成serverid

[root@Node1 zookeeper]#:echo 1 > data/myid

将zookeeper远程传给另外两台服务器上:并修改serverid

[root@Node1 zookeeper]#:cd ..
[root@Node1 local]#:scp -r zookeeper 192.168.114.20:/usr/local/
[root@Node1 local]#:scp -r zookeeper 192.168.114.30:/usr/local/
#修改serverid
[root@Node2 zookeeper]#:echo 2 > data/myid
[root@Node3 zookeeper]#:echo 3 > data/myid

启动zookeeper

把其他两台启动后,再看状态:

[root@Node2 zookeeper]#:bin/zkServer.sh start
/usr/bin/java
ZooKeeper JMX enabled by default
Using config: /usr/local/zookeeper/bin/../conf/zoo.cfg
Starting zookeeper ... STARTED
[root@Node3 zookeeper]#:bin/zkServer.sh start
/usr/bin/java
ZooKeeper JMX enabled by default
Using config: /usr/local/zookeeper/bin/../conf/zoo.cfg
Starting zookeeper ... STARTED

可以在Node2上看到Leader

5.2 部署kafka

准备kafka的安装包

[root@Node1 data]#:ls
apache-zookeeper-3.5.7-bin.tar.gz  kafka_2.13-2.7.1.tgz
#解压到指定路径下
[root@Node1 data]#:tar xf kafka_2.13-2.7.1.tgz -C /usr/local/
[root@Node1 data]#:cd /usr/local/
做个软连接
[root@Node1 local]#:ln -s kafka_2.13-2.7.1/ kafka
进入配置文件
[root@Node1 local]#:cd kafka/config/
修改配置文件,修改以下配置项
[root@Node1 local]#:vim server.properties
......
broker.id=0
listeners=PLAINTEXT://192.168.114.10:9092
log.dirs=/usr/local/kafka/logs
zookeeper.connect=192.168.114.10:2181,192.168.114.20:2181,192.168.114.30:2181
......

21行,broker的全局唯一编号,每个broker不能重复,因此要在其他机器上配置 broker.id=1、broker.id=2
broker.id=0
31行,指定监听的IP和端口,如果修改每个broker的IP需区分开来,也可保持默认配置不用修改
listeners=PLAINTEXT://192.168.114.10:9092
60行,kafka运行日志存放的路径,也是数据存放的路径
log.dirs=/usr/local/kafka/logs
123行设置连接zookeeper
zookeeper.connect=192.168.114.10:2181,192.168.114.20:2181,192.168.114.30:2181

其他两台服务器同理:

这里直接将Node1的配置文件传过去:

对Node2和Node3做个修改:

[root@Node2 local]#:cd /usr/local/kafka/config/
[root@Node2 config]#:vim server.properties
broker.id=1
listeners=PLAINTEXT://192.168.114.20:9092
创建logs文件夹:
[root@Node2 config]#:cd ..
[root@Node2 kafka]#:mkdir logs
[root@Node3 local]#:cd /usr/local/kafka/config/
[root@Node3 config]#:vim server.properties
broker.id=2
listeners=PLAINTEXT://192.168.114.30:9092
[root@Node3 config]#:cd ..
[root@Node3 kafka]#:mkdir logs

启动kafka:

[root@Node1 bin]#:cd /usr/local/kafka/bin/

 查看三台服务器的端口,观察连接状态

Node2为Leader。与Node1和Node3连接

5.3 测试

1.创建topic:

[root@Node2 bin]#:./kafka-topics.sh --create --zookeeper 192.168.114.10:2181,192.168.114.20:2181,192.168.114.30:2181 --replication-factor 2 --partitions 3 --topic test

--zookeeper:定义 zookeeper 集群服务器地址,如果有多个 IP 地址使用逗号分割,一般使用一个 IP 即可
--replication-factor:定义分区副本数,1 代表单副本,建议为 2 
--partitions:定义分区数 
--topic:定义 topic 名称

2.查看当前服务器中所有的topic

[root@Node2 bin]#:./kafka-topics.sh --list --zookeeper 192.168.114.10:2181,192.168.114.20:2181,192.168.114.30:2181
test

 

--list:列出所有的topic

3.查看某个topic的详情

[root@Node1 bin]#:./kafka-topics.sh --describe --zookeeper 192.168.114.10:2181,192.168.114.20:2181,192.168.114.30:2181
Topic: test	PartitionCount: 3	ReplicationFactor: 2	Configs: 
	Topic: test	Partition: 0	Leader: 1	Replicas: 1,0	Isr: 1,0
	Topic: test	Partition: 1	Leader: 3	Replicas: 3,1	Isr: 3,1
	Topic: test	Partition: 2	Leader: 0	Replicas: 0,3	Isr: 0,3

 在任意一台主机上都能看到。

发布消息:

[root@Node2 bin]#:./kafka-console-producer.sh --broker-list 192.168.114.10:9092,192.168.114.20:9092,192.168.114.30:9092 --topic test
>1
>2
>3
>4

消费消息:

[root@Node3 bin]#:./kafka-console-consumer.sh --bootstrap-server 192.168.114.10:9092,192.168.114.20:9092,192.168.114.30:9092 --topic test --from-beginning
1
2
3
4

删除topic:

[root@Node3 bin]#:./kafka-topics.sh --delete --zookeeper 192.168.114.10:2181,192.168.114.20:2181,192.168.114.30  --topic test
Topic test is marked for deletion.
Note: This will have no impact if delete.topic.enable is not set to true.

---end---

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1934942.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

linux中list的基本用法

内核链表 1 list_head 结构 为了使用链表机制&#xff0c;驱动程序需要包含<linux/types.h>头文件&#xff0c;该文件定义了如下结构体实现双向链&#xff1a; struct list_head {struct list_head *next, *prev; };2 链表的初始化 2.1 链表宏定义和初始化 可使用以…

C++【OpenCV】图片亮度色度归一化

#include <opencv2/highgui.hpp> #include <opencv2/imgproc.hpp> #include <iostream>using namespace cv; using namespace std;int main() {Mat image imread("SrcMF.jpg");// 灰度、Gamma归一化亮度cv::Mat m_gray;cv::cvtColor(image, m_gra…

人工智能算法工程师(中级)课程17-模型的量化与部署之剪枝技巧与代码详解

大家好&#xff0c;我是微学AI&#xff0c;今天给大家介绍一下人工智能算法工程师(中级)课程17-模型的量化与部署之剪枝技巧与代码详解。模型剪枝是深度学习领域中一项关键的技术&#xff0c;旨在减少神经网络中的冗余权重&#xff0c;从而降低计算成本和内存占用&#xff0c;同…

昇思25天学习打卡营第5天 | 数据集

在探索MindSpore深度学习框架中的数据集处理过程&#xff0c;我对其数据加载和处理流程有了深入的了解。MindSpore提供了一套功能强大的工具&#xff0c;可以有效地处理和转换数据&#xff0c;确保了数据预处理的效率和质量。以下是我从本次学习中得到的几点主要心得&#xff1…

食堂采购系统开发:从需求分析到上线实施的完整指南

本篇文章&#xff0c;笔者将详细介绍食堂采购系统从需求分析到上线实施的完整过程&#xff0c;旨在为开发团队和管理者提供一个系统化的指南。 一、需求分析 1.用户需求 常见的需求包括&#xff1a; -采购计划管理 -供应商管理 -库存管理 -成本控制 -报表生成 2.系统功…

【电路笔记】-放大器的输入和输出阻抗

放大器的输入和输出阻抗 文章目录 放大器的输入和输出阻抗1、概述2、输入和输出阻抗的定义3、阻抗的重要性4、阻抗设置5、设置方法6、总结1、概述 从非常简单的角度来看,放大器由一个“盒子”组成,实现输入信号和输出信号之间的放大功能。 输入进入系统和输出离开系统的方式…

【从零开始实现stm32无刷电机FOC】【实践】【6/7 CMSIS-DSP】

目录 导入CMSIS-DSP库使用CMSIS-DSP 点击查看本文开源的完整FOC工程 CMSIS-DSP库是ARM开源的、对ARM处理器优化的数学库&#xff0c;本文使用了其提供的三角函数、反park变换函数、park变换函数、clarke变换函数、PID控制器。 CMSIS-DSP原始代码仓库是https://github.com/ARM-s…

Spring Boot1(概要 入门 Spring Boot 核心配置 YAML JSR303数据校验 )

目录 一、Spring Boot概要 1. SpringBoot优点 2. SpringBoot缺点 二、Spring Boot入门开发 1. 第一个SpringBoot项目 项目创建方式一&#xff1a;使用 IDEA 直接创建项目 项目创建方式二&#xff1a;使用Spring Initializr 的 Web页面创建项目 &#xff08;了解&#…

cms wpscan使用方式--kali linux

WPScan是一个用于WordPress安全审计和漏洞扫描的工具&#xff0c;可以通过以下命令来使用WPScan&#xff1a; 扫描一个网站&#xff1a; wpscan --url http://example.com扫描一个网站并指定用户名和密码&#xff1a; wpscan --url http://example.com --useradmin --passwo…

Windows FFmpeg 开发环境搭建

FFmpeg 开发环境搭建 FFmpeg命令行环境搭建使用FFmpeg官方编译的库Windows编译FFmpeg1. 下载[msys2](https://www.msys2.org/#installation)2. 安装完成之后,将安装⽬录下的msys2_shell.cmd中注释掉的 rem set3. 修改pacman 镜像源并安装依赖4. 下载并编译源码 FFmpeg命令行环境…

2024年7月17日(nodejs,npm设置国内镜像,vue脚手架,远程管理ssh,踢出用户,scp命令,ssh免密登录)

1、安装nodejs服务 nodejs是一个运行1环境&#xff0c;和javajdk运行环境格式一样 [roota ~]# yum -y install nodejs.x86_64 安装完成之后&#xff0c;使用node -v 查看版本 [roota ~]# node -v v16.20.2 2、简易服务器的环境安装npm 安装包管理器 npm node packae manger [ro…

Odoo17架构概述

多层架构 Odoo遵循多层架构&#xff0c;这意味着演示&#xff0c;业务逻辑和数据存储是分开的。更具体地说&#xff0c;它使用三层架构。 UI展示层 UI表示层是 HTML5、JavaScript 和 CSS 的组合。 应用程序的最顶层是用户界面。界面的主要功能是将任务和结果转换为用户可以理…

人工智能导论-机器学习

机器学习概述 概述 本章主要介绍的机器学习的概念、发展历程、发展趋势、相关应用&#xff0c;着重拓展机监督学习和无监督学习的相关知识。 重点&#xff1a;机器学习的定义和应用&#xff1b; 难点&#xff1a;机器学习算法及分类。 机器学习 - 重要性 MachineLeaning出…

Java 网络编程(TCP编程 和 UDP编程)

1. Java 网络编程&#xff08;TCP编程 和 UDP编程&#xff09; 文章目录 1. Java 网络编程&#xff08;TCP编程 和 UDP编程&#xff09;2. 网络编程的概念3. IP 地址3.1 IP地址相关的&#xff1a;域名与DNS 4. 端口号&#xff08;port&#xff09;5. 通信协议5.1 通信协议相关的…

0718vscode问答

终于来到 qt # Question 多态 # Answer 多态是面向对象编程中的一个重要概念&#xff0c;指的是同一个接口可以有多种不同的实现方式。多态性允许我们使用一个统一的接口来处理不同类型的对象&#xff0c;从而提高代码的灵活性和可扩展性。 在Java中&#xff0c;多态可以通过以…

Gradio从入门到精通(9)---状态组件

文章目录 前言一、Error 组件初始化参数 二、Warning 组件初始化参数 三、Info 组件初始化参数 四、进度条&#xff08;Progress bars&#xff09;示例代码总结 前言 Gradio 提供了多种组件和功能&#xff0c;用于构建交互式界面和处理用户输入。以下是一些关键组件的使用和示…

Spring Boot集成syslog快速入门Demo

1.什么syslog&#xff1f; Syslog-ng是由Balabit IT Security Ltd.维护的一套开源的Unix和类Unix系统的日志服务套件。它是一个灵活的、可伸缩的系统日志记录程序。对于服务器日志集中收集&#xff0c;使用它是一个不错的解决方案。syslog-ng (syslog-Next generation) 是sysl…

<数据集>混凝土缺陷检测数据集<目标检测>

数据集格式&#xff1a;VOCYOLO格式 图片数量&#xff1a;7353张 标注数量(xml文件个数)&#xff1a;7353 标注数量(txt文件个数)&#xff1a;7353 标注类别数&#xff1a;6 标注类别名称&#xff1a;[exposed reinforcement, rust stain, Crack, Spalling, Efflorescence…

UniVue@v1.5.0版本发布:里程碑版本

前言 以后使用UniVue都推荐使用1.5.0以后的版本&#xff0c;这个版本之后&#xff0c;更新的速度将会放缓。 希望这个框架能够切实的帮助大家更好的开发游戏&#xff0c;做出一款好游戏&#xff01;本开源项目采用的开源协议为MIT协议&#xff0c;完全开源化&#xff0c;以后也…

关于黑马商城微服务拆分

1.拆分流程 大差不差分为 创建module-依赖-启动类-配置yml文件-抽取代码-数据库-配置启动项-测试 2.微服务的好处 在测试的时候明显感觉到微服务的好处 不用启动所有的项目 只是单纯一个模块比如支付就可以自己调试 非常便捷而且易开发 抽取的公共模块api也不用启动就能测试 …