分布式协调组件Zookeeper

news2024/11/15 6:42:36

Zookeeper介绍

什么是Zookeeper

ZooKeeper 是⼀种分布式协调组件,用于管理大型主机。在分布式环境中协调和管理服务是一个复杂的过程。ZooKeeper 通过其简单的架构和 API 解决了这个问题。ZooKeeper 允许开发人员专注于核心应用程序逻辑,而不必担心应用程序的分布式特性。

Zookeeper的应用场景

  • 分布式协调组件

image-20230808095124889

在分布式系统中,需要有zookeeper作为分布式协调组件,协调分布式系统中的状态。

  • 分布式锁

zk在实现分布式锁上,可以做到强⼀致性,分布式锁相关的知识,在后续的ZAB协议中介绍。

  • 无状态化实现

image-20230808095350896

zookeeper可以保存登录信息,保证分布式登录系统多个系统无需重复登录。

搭建Zookeeper服务器

安装启动

zk由Java编写,安装依赖Java环境

  1. 上传zookeeper压缩包

  2. 解压缩

tar -zxvf apache-zookeeper-3.7.1-bin.tar.gz 

zk目录结构:
在这里插入图片描述

  1. 启动zookeeper,conf文件夹中需要zoo.cfg文件

image-20230808100237901

zoo_sample.cfg配置文件说明:

# zookeeper时间配置中的基本单位 (毫秒)
tickTime=2000
# 允许follower初始化连接到leader最⼤时⻓,它表示tickTime时间倍数即:initLimit*tickTime
initLimit=10
# 允许follower与leader数据同步最⼤时⻓,它表示tickTime时间倍数
syncLimit=5
#zookeper 数据存储⽬录及⽇志保存⽬录(如果没有指明dataLogDir,则⽇志也保存在这个⽂件中)
dataDir=/tmp/zookeeper
#对客户端提供的端⼝号
clientPort=2181
#单个客户端与zookeeper最⼤并发连接数
maxClientCnxns=60
# 保存的数据快照数量,之外的将会被清除
autopurge.snapRetainCount=3
#⾃动触发清除任务时间间隔,⼩时为单位。默认为0,表示不⾃动清除。
autopurge.purgeInterval=1

稍作修改,然后重命名为zoo.cfg

mv zoo_sample.cfg zoo.cfg

Zookeeper服务器的操作命令

  • 启动zk服务器(指定配置文件)
./zkServer.sh start ../conf/zoo.cfg 

image-20230808101440835

  • 重启zk服务器
./zkServer.sh restart ../conf/zoo.cfg 
  • 查看zk服务器状态
./zkServer.sh status ../conf/zoo.cfg

image-20230808101729307

  • 停止zk服务器
./zkServer.sh stop ../conf/zoo.cfg

Zookeeper内部的数据模型

zk是如何保存数据的

zk中的数据是保存在节点上的,节点就是znode,多个znode之间构成⼀颗树的⽬录结构(类似Linux目录结构)。

image-20230808102158191

顶层目录为/

树是由节点所组成,Zookeeper的数据存储也同样是基于节点,这种节点叫做 Znode

不同于树的节点,Znode 的引用方式是路径引用,类似于⽂件路径:

/service/org-service

这样的层级结构,让每⼀个 Znode 节点拥有唯⼀的路径,就像命名空间⼀样对不同信息作出清晰的隔离。

zk中的znode结构

zk中的znode,包含了四个部分:

  • data:保存数据
  • acl:权限,定义了什么样的用户能够操作这个节点,且能够进行怎样的操作。
    • c:create 创建权限,允许在该节点下创建⼦节点
    • w:write 更新权限,允许更新该节点的数据
    • r:read 读取权限,允许读取该节点的内容以及⼦节点的列表信息
    • d:delete 删除权限,允许删除该节点的⼦节点
    • a:admin 管理者权限,允许对该节点进⾏acl权限设置
  • stat:描述当前znode的元数据
  • child:当前节点的⼦节点

zk中节点znode类型

创建节点命令:(不同参数代表不同类型znode)

image-20230808103416423

  • 持久节点: 创建出的节点,在会话结束后依然存在。保存数据(默认)
  • 持久顺序节点: 创建出的节点,根据先后顺序,会在节点之后带上⼀个数值,越后执行数值越⼤,适用于分布式锁的应用场景- 单调递增(-s)
  • 临时节点: 临时节点是在会话结束后,自动被删除的,通过这个特性,zk可以实现服务注册与发现的效果。(-e)

如何维持心跳?

image-20230808103904970

  • 临时顺序节点:跟持久序号节点相同,适⽤于临时的分布式锁。(-es)
  • Container节点(3.5.3版本新增):Container容器节点,当容器中没有任何子节点,该容器节点会被zk定期删除(60s)。(-c)
  • TTL节点:可以指定节点的到期时间,到期后被zk定时删除。只能通过系统配置 zookeeper.extendedTypesEnabled=true 开启(-t)【不稳定,了解即可】

zk的数据持久化

zk的数据是运行在内存中,zk提供了两种持久化机制:

  • 事务日志

zk把执行的命令以日志形式保存在dataLogDir指定的路径中的文件中(如果没有指定 dataLogDir,则按dataDir指定的路径)。

  • 数据快照

zk会在⼀定的时间间隔内做⼀次内存数据的快照,把该时刻的内存数据保存在快照⽂件中

【默认两种都是开启的】

image-20230808150101230

zk通过两种形式的持久化,在恢复时先恢复快照文件中的数据到内存中,再用日志文件中的数据做增量恢复,这样的恢复速度更快。

Zookeeper客户端(zkCli)的使用

启动客户端

启动客户端:./zkCli.sh -server ip:port(如果连接本地Zookeeper,ip:port可省略)

./zkCli.sh

image-20230808110107213

image-20230808110506845

退出客户端

quit

常用命令

  • ls / (查看znode目录结构)

  • help (帮助命令)

  • 创建Znode(不同参数对应不同类型节点)【不加参数,默认持久节点】

    image-20230808104713770

  • 存取设置数据

    • create /test abc (存)
    • get /test (取)
    • set /test abc (设置数据)

    image-20230808112336139

    image-20230808112715942

  • 普通查询

    get /test

    ls /

    ls /test (-R参数 递归查询

    image-20230808141833027

  • 查看节点详细信息

    get -s /test (-s参数)

    image-20230808112832942

    • cZxid: 创建节点的事务ID
    • mZxid:修改节点的事务ID
    • pZxid:添加和删除⼦节点的事务ID
    • ctime:节点创建的时间
    • mtime: 节点最近修改的时间
    • dataVersion: 节点内数据的版本,每更新⼀次数据,版本会+1
    • aclVersion: 此节点的权限版本
    • ephemeralOwner: 如果当前节点是临时节点,该值是当前节点所有者的session id。如果节点不是临时节点,则该值为零。 dataLength: 节点内数据的长度
    • numChildren: 该节点的节点个数
  • 删除节点

    ​ 1、普通删除

image-20230808142507003

节点不为空时,直接用delete无法删除,此时可以用deleteall进行删除

image-20230808142641067

​ 2、乐观锁删除 (-v 参数)

需要与节点详细信息dataVersion对应,否则无法删除

image-20230808143427296

  • 权限设置

    • 注册当前会话的账号和密码
    addauth digest xiaowang:123456
    
    • 创建节点并设置权限
    create /test-node abcd auth:xiaowang:123456:cdwra
    

    在另⼀个会话中必须先使用账号密码(步骤一),才能拥有操作该节点的权限

    image-20230808145352217

Curator客户端的使用

Curator介绍

Curator是Netflix公司开源的⼀套zookeeper客户端框架,Curator是对Zookeeper支持最好的客户端框架。Curator封装了⼤部分Zookeeper的功能,比如Leader选举、分布式锁等,减少了技术人员在使用Zookeeper时的底层细节开发⼯作。

引入Curator

  • 引入依赖
    <!--Curator-->
     <dependency>
         <groupId>org.apache.curator</groupId>
         <artifactId>curator-framework</artifactId>
         <version>2.12.0</version>
     </dependency>
     <dependency>
         <groupId>org.apache.curator</groupId>
         <artifactId>curator-recipes</artifactId>
         <version>2.12.0</version>
     </dependency>
     <!--Zookeeper-->
     <dependency>
         <groupId>org.apache.zookeeper</groupId>
         <artifactId>zookeeper</artifactId>
         <version>3.7.14</version>
     </dependency>
  • 配置文件
curator:
  retryCount: 5
  elapsedTimeMs: 5000
  connectString: 124.222.253.33:2181
  sessionTimeoutMs: 60000
  connectionTimeoutM: 5000
  • 注入配置Bean
@Data
@Component
@ConfigurationProperties(prefix = "curator")
public class WrapperZK {

  private int retryCount;

  private int elapsedTimeMs;

  private String connectString;

  private int sessionTimeoutMs;

  private int connectionTimeoutMs;
}
  • 注⼊CuratorFramework
@Configuration
public class CuratorConfig {


    @Autowired
    WrapperZK wrapperZk;

    @Bean(initMethod = "start")
    public CuratorFramework curatorFramework() {
      return CuratorFrameworkFactory.newClient(
        wrapperZk.getConnectString(),
        wrapperZk.getSessionTimeoutMs(),
        wrapperZk.getConnectionTimeoutMs(),
        new RetryNTimes(wrapperZk.getRetryCount(), wrapperZk.getElapsedTimeMs()));
    }
}

创建节点

	@Autowired
    CuratorFramework curatorFramework;    

	@Test
    void createNode() throws Exception {
        // 添加持久节点
        String path = curatorFramework.create().forPath("/curator-node");
        // 添加临时序号节点
        String path1 = curatorFramework.create().withMode(CreateMode.EPHEMERAL_SEQUENTIAL).forPath("/curator-node", "some-data".getBytes());
        System.out.printf("curator create node :%s  successfully.%n", path);

        System.in.read();
    }

获得节点数据

    @Test
    public void testGetData() throws Exception {
        byte[] bytes = curatorFramework.getData().forPath("/curator-node");
        System.out.println(new String(bytes));
    }

修改节点数据

    @Test
    public void testSetData() throws Exception {
        curatorFramework.setData().forPath("/curator-node", "changed!".getBytes());
        byte[] bytes = curatorFramework.getData().forPath("/curator-node");
        System.out.println(new String(bytes));
    }

创建节点同时创建父节点

    @Test
    public void testCreateWithParent() throws Exception {
        String pathWithParent = "/node-parent/sub-node-1";
        String path = curatorFramework.create().creatingParentsIfNeeded().forPath(pathWithParent);
        System.out.printf("curator create node :%s  successfully.%n", path);
    }

删除节点

    @Test
    public void testDelete() throws Exception {
        String pathWithParent = "/node-parent";
        curatorFramework.delete().guaranteed().deletingChildrenIfNeeded().forPath(pathWithParent);
    }

zk实现分布式锁

zk中锁的分类

  • 读锁:大家都可以读,要想上读锁的前提是,之前的锁没有写锁读锁共享
  • 写锁:只有得到写锁的才能写。要想上写锁的前提是,之前没有任何锁。写锁独占

zk如何上读锁

  • 创建⼀个临时序号节点,节点的数据是read,表示是读锁
  • 获取当前zk中序号比自己小的所有节点
  • 判断最小节点是否是读锁
    • 如果不是读锁的话,则上锁失败,为最小节点设置监听阻塞等待,zk的watch机制会当最小节点发⽣变化时通知当前节点,于是再执行第⼆步的流程
    • 如果是读锁的话,则上锁成功

image-20230808233119824

zk如何上写锁

  • 创建⼀个临时序号节点,节点的数据是write,表示是写锁
  • 获取zk中所有的子节点
  • 判断自己是否是最小的节点
    • 如果是,则上写锁成功
    • 如果不是,说明前面还有锁,则上锁失败,监听最小的节点,如果最小节点有变化, 则回到第⼆步。

image-20230808233720353

羊群效应

如果用上述的上锁方式,只要有节点发⽣变化,就会触发其他节点的监听事件,这样的话对 zk的压力⾮常⼤,——羊群效应。可以调整成链式监听。解决这个问题。

image-20230808234022045

监听当前节点的上一个节点即可。

curator实现读写锁

1)获取读锁

	@Autowired
    private CuratorFramework client;   

	@Test
    void testGetReadLock() throws Exception {
        // 读写锁
        InterProcessReadWriteLock interProcessReadWriteLock = new InterProcessReadWriteLock(client, "/lock1");
        // 获取读锁对象
        InterProcessLock interProcessLock = interProcessReadWriteLock.readLock();
        System.out.println("等待获取读锁对象!");
        // 获取锁
        interProcessLock.acquire();
        for (int i = 1; i <= 100; i++) {
            Thread.sleep(3000);
            System.out.println(i);
        }
        // 释放锁
        interProcessLock.release();
        System.out.println("等待释放锁!");

    }

2)获取写锁

    @Test
    void testGetWriteLock() throws Exception {
        // 读写锁
        InterProcessReadWriteLock interProcessReadWriteLock = new InterProcessReadWriteLock(client, "/lock1");
        // 获取写锁对象
        InterProcessLock interProcessLock = interProcessReadWriteLock.writeLock();
        System.out.println("等待获取写锁对象!");
        // 获取锁
        interProcessLock.acquire();
        for (int i = 1; i <= 100; i++) {
            Thread.sleep(3000);
            System.out.println(i);
        }
        // 释放锁
        interProcessLock.release();
        System.out.println("等待释放锁!");
    }

zk的watch机制

Watch机制介绍

可以把 Watch 理解成是注册在特定 Znode 上的触发器。当这个 Znode 发⽣改变,也就是调用了 create ,delete ,setData 方法的时候,将会触发 Znode 上注册的对应事件, 请求 Watch 的客户端会接收到异步通知。

image-20230808235726145

客户端使用了NIO通信模式监听服务端的调用

zkCli客户端使用watch

create /test xxx

get -w /test ⼀次性监听节点

ls -w /test 监听目录,创建和删除子节点会收到通知。子节点中新增节点不会收到通知

ls -R -w /test 对于子节点中子节点的变化,但内容的变化不会收到通知

get -w /test 监听节点 监听是一次性的(监听当前节点内容变化,无法监听子节点),每次获取数据时都带-w参数可以实现持续监听节点

ls /w /test 监听节点目录变化,可以监听子节点(一级子节点)加上-R参数可以递归监听所有子节点

curator客户端使用watch

    @Test
    public void addNodeListener() throws Exception {
        NodeCache nodeCache = new NodeCache(curatorFramework, "/curator-node");
        nodeCache.getListenable().addListener(new NodeCacheListener() {
            @Override
            public void nodeChanged() throws Exception {
                log.info("{} path nodeChanged: ", "/curator-node");
                printNodeData();
            }
        });

        nodeCache.start();
        System.in.read();

    }

    public void printNodeData() throws Exception {
        byte[] bytes = curatorFramework.getData().forPath("/curator-node");
        log.info("data: {}", new String(bytes));
    }

Zookeeper集群实战

Zookeeper集群角色

zookeeper集群中的节点有三种角色

  1. Leader:处理集群的所有事务请求(可读可写),集群中只有⼀个Leader。
  2. Follower:只能处理读请求,参与Leader选举。
  3. Observer:只能处理读请求,提升集群读的性能,但不能参与Leader选举。

image-20230809094721423

集群搭建

搭建4个节点,其中⼀个节点为Observer

1)创建4个节点的myid,并设值

在/usr/local/zookeeper中创建以下四个文件

/usr/local/zookeeper/data/zk1# echo 1 > myid
/usr/local/zookeeper/data/zk2# echo 2 > myid
/usr/local/zookeeper/data/zk3# echo 3 > myid
/usr/local/zookeeper/data/zk4# echo 4 > myid

2)编写4个zoo.cfg

# The number of milliseconds of each tick
tickTime=2000
# The number of ticks that the initial
# synchronization phase can take
initLimit=10
# The number of ticks that can pass between
# sending a request and getting an acknowledgement
syncLimit=5
# 修改对应的zk1 zk2 zk3 zk4
dataDir=/usr/local/zookeeper/data/zk1
# 修改对应的端⼝ 2181 2182 2183 2184
clientPort=2181
# 2001为集群通信端⼝,3001为集群选举端⼝,observer表示不参与集群选举
server.1=124.222.253.33:2001:3001
server.2=124.222.253.33:2002:3002
server.3=124.222.253.33:2003:3003
server.4=124.222.253.33:2004:3004:observer

# 上述配置,启动zk时,无法监听端口,可以加下面一行配置解决 (监听所有网卡)
quorumListenOnAllIPs=true

4)启动4台Zookeeper

./bin/zkServer.sh start ../conf/zoo1.cfg
./bin/zkServer.sh start ../conf/zoo2.cfg
./bin/zkServer.sh start ../conf/zoo3.cfg
./bin/zkServer.sh start ../conf/zoo4.cfg

查看集群状态

./bin/zkServer.sh status ../conf/zoo1.cfg
./bin/zkServer.sh status ../conf/zoo2.cfg
./bin/zkServer.sh status ../conf/zoo3.cfg
./bin/zkServer.sh status ../conf/zoo4.cfg

连接Zookeeper集群

./bin/zkCli.sh -server 124.222.253.33:2181,124.222.253.33:2182,124.222.253.33:2183,124.222.253.33:2184

ZAB协议

什么是ZAB协议

zookeeper作为非常重要的分布式协调组件,需要进行集群部署,集群中会以⼀主多从的形式进行部署。zookeeper为了保证数据的⼀致性,使用了ZAB(Zookeeper Atomic Broadcast 原子消息广播)协议,这个协议解决了Zookeeper的崩溃恢复和主从数据同步的问题。

image-20230809115914965

ZAB协议定义的四种节点状态

  • Looking :选举状态。
  • Following :Follower 节点(从节点)所处的状态。
  • Leading :Leader 节点(主节点)所处状态。
  • Observing:观察者节点所处的状态。

集群上线时的Leader选举过程

Zookeeper集群中的节点在上线时,将会进⼊到Looking状态,也就是选举Leader的状态,具体过程如下:

image-20230809112454734

选票格式

myid | zXid

myid:myid文件配置数字

zXid:事务id,记录节点数据变化次数(增删改操作)

崩溃恢复时的Leader选举

Leader建立完后,Leader周期性地不断向Follower发送心跳(ping命令,没有内容的 socket)。当Leader崩溃后,Follower发现socket通道已关闭,于是Follower开始进⼊到 Looking状态,重新回到上⼀节中的Leader选举过程,Leader选举期间集群不能对外提供服务。

主从服务器之间的数据同步

image-20230809135515750

一定是主节点写数据,client连接到从节点也是发给主节点写数据

半数以上【相对于集群数量】(说明集群网络是没问题的)为了提高集群写数据的性能

Zookeeper中的NIO与BIO的应用

  • NIO

    • 用于被客户端连接的2181端口,使用的是NIO模式与客户端建立连接
    • 客户端开启Watch时,也使用NIO,等待Zookeeper服务器的回调
  • BIO

    • 集群在选举时,多个节点之间的投票通信端口,使用BIO进行通信
    • 心跳机制

CAP理论

CAP 定理

2000 年 7月,加州大学伯克利分校的 Eric Brewer 教授在 ACM PODC 会议上提出 CAP 猜想。2年后,麻省理⼯学院的 Seth Gilbert 和 Nancy Lynch 从理论上证明了 CAP。之后, CAP理论正式成为分布式计算领域的公认定理

CAP 理论为:⼀个分布式系统最多只能同时满足一致性(Consistency)、可⽤性 (Availability)和分区容错性(Partition tolerance)这三项中的两项

  • 一致性(Consistency)【数据一致】

⼀致性指 “all nodes see the same data at the same time”,即更新操作成功并返回客户端完成后,所有节点在同⼀时间的数据完全⼀致。

  • 可用性(Availability)【服务可用】

可用性指“Reads and writes always succeed”,即服务⼀直可用,而且是正常响应时间。

  • 分区容错性(Partition tolerance)【分布式系统必须满足】

分区容错性指“the system continues to operate despite arbitrary message loss or failure of part of the system”,即分布式系统在遇到某节点或网络分区故障的时候,仍然能够对外提供满足⼀致性或可⽤性的服务。——避免单点故障,就要进行冗余部署,冗余部署相当于是服务的分区,这样的分区就具备了容错性。

CAP 权衡

通过 CAP 理论,我们知道⽆法同时满足⼀致性、可用性和分区容错性这三个特性,那要舍弃哪个呢?

于多数大型互联网应用的场景,主机众多、部署分散,而且现在的集群规模越来越大,所以节点故障、网络故障是常态,而且要保证服务可用性达到 N 个 9,即保证 P 和 A,舍弃 C(退而求其次保证最终⼀致性)。虽然某些地方会影响客户体验,但没达到造成用户流失的严重程度。

对于涉及到钱财这样不能有⼀丝让步的场景,C 必须保证。网络发生故障宁可停止服务,这是保证 CA,舍弃 P。还有⼀种是保证 CP,舍弃 A。例如网络故障是只读不写。

孰优孰略,没有定论,只能根据场景定夺,适合的才是最好的!

image-20230809142050502

BASE 理论

eBay 的架构师 Dan Pritchett 源于对大规模分布式系统的实践总结,在 ACM 上发表⽂章提出 BASE 理论,BASE 理论是对 CAP 理论的延伸,核心思想是即使无法做到强⼀致性(Strong Consistency,CAP 的⼀致性就是强⼀致性),但应用可以采用适合的方式达到最终⼀致性 (Eventual Consitency)。

  • 基本可用(Basically Available) BA

基本可用指分布式系统在出现故障的时候,允许损失部分可用性,即保证核心可用

电商大促时,为了应对访问量激增,部分用户可能会被引导到降级页面,服务层也可能只提供降级服务。这就是损失部分可用性的体现。

  • 软状态(Soft State) S

软状态是指允许系统存在中间状态,而该中间状态不会影响系统整体可⽤性。分布式存储中⼀般⼀份数据至少会有三个副本,允许不同节点间副本同步的延时就是软状态的体现。mysql replication 的异步复制也是⼀种体现。

  • 最终一致性(Eventual Consistency) E

最终⼀致性是指系统中的所有数据副本经过⼀定时间后,最终能够达到⼀致的状态。弱⼀致性和强⼀致性相反,最终⼀致性是弱⼀致性的⼀种特殊情况。

Zookeeper追求的一致性

Zookeeper在数据同步时,追求的并不是强⼀致性,而是顺序⼀致性(事务id的单调递增)。

zk追求CP原则,但也不是强一致性(集群半数以上ACK),而是顺序一致性。

Curator客户端相关代码:https://github.com/lkl778/zk.git

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/855812.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

【Linux】多线程——线程引入 | 线程控制

文章目录 一、Linux多线程1. 线程概念2. 线程创建3. 线程和进程4. 线程的优缺点 二、线程控制1. 线程创建2. 线程终止3. 线程等待4. 线程分离5. 线程局部存储 三、线程封装 一、Linux多线程 一级页表和二级页表都是key/val模型&#xff0c;一级页表的key是第一份的10个比特位&a…

(统计学习方法|李航)第一章统计学习方法概论——四五六节模型评估与模型选择,正则化与交叉验证,泛化能力

一&#xff0c;模型评估与模型选择 1.训练误差与测试误差 假如我们有100个数据。80条记录给训练集&#xff0c;10条记录给测试集&#xff0c;10条记录给验证集 先在训练集中训练模型&#xff0c; 再在验证集上测试看哪种模型更拟合 最后用测试集算出成绩 表示决策函数 模型…

数据清理在数据科学中的重要性

什么是数据清理&#xff1f; 推荐&#xff1a;使用 NSDT场景编辑器 助你快速搭建可编辑的3D应用场景 在数据科学中&#xff0c;数据清理是识别不正确数据并修复错误的过程&#xff0c;以便最终数据集可供使用。错误可能包括重复字段、格式不正确、字段不完整、数据不相关或不准…

基于kettle实现pg数据定时转存mongodb

mogodb 待创建 基于kettle实现pg数据定时转存mongodb_kettle 实时迁移 mongodb_呆呆的私房菜的博客-CSDN博客

链表和哈希Set

1 LinkedList集合类 LinkedList集合类底层是使用双向链表实现的&#xff0c;相较于ArrayList&#xff0c;更方便进行增删操作。 在增删查改方面&#xff0c;新增了头尾操作&#xff0c;比如从头部插入、尾部插入、头部删除、尾部删除、头部查询和尾部查询等操作。由于有头尾的…

SpringCloud实用篇3----Docker

1.初识Docker 1.1 什么是Docker 微服务虽然具备各种各样的优势&#xff0c;但服务的拆分通用给部署带来了很大的麻烦。 分布式系统中&#xff0c;依赖的组件非常多&#xff0c;不同组件之间部署时往往会产生一些冲突。在数百上千台服务中重复部署&#xff0c;环境不一定一致…

gitblit windows部署

1.官网下载 往死慢&#xff0c;我是从百度找的1.9.1&#xff0c;几乎就是最新版 http://www.gitblit.com/ 2.解压 下载下来是一个zip压缩包&#xff0c;直接解压即可 3.配置 3.1.配置资源库路径 找到data文件下的gitblit.properties文件&#xff0c;用Notepad打开 **注意路…

云原生可观测框架 OpenTelemetry 基础知识(架构/分布式追踪/指标/日志/采样/收集器)...

什么是 OpenTelemetry&#xff1f; OpenTelemetry 是一个开源的可观测性框架&#xff0c;由云原生基金会(CNCF)托管。它是 OpenCensus 和 OpenTracing 项目的合并。旨在为所有类型的可观测信号(如跟踪、指标和日志)提供单一标准。 https://opentelemetry.iohttps://www.cncf.io…

微服务Eureka注册中心

目录 一、Eureka的结构和作用 二、搭建eureka-server 三、服务注册 四、服务发现 假如我们的服务提供者user-service部署了多个实例&#xff0c;如图&#xff1a; 存在的问题&#xff1a; order-service在发起远程调用的时候&#xff0c;该如何得知user-service实例的ip地址…

SpringCloud 尚硅谷 微服务简介以及Eureka使用

写在前面 该系列博客仅用于本人学习尚硅谷课程SpringCloud笔记&#xff0c;其中的错误在所难免&#xff0c;如有错误恳请指正。 官方源码地址&#xff1a;https://github.com/zzyybs/atguigu_spirngcloud2020 什么是SpringCloud Spring Cloud是微服务一站式服务解决方案&…

芒果 TV 基于 Flink 的实时数仓建设实践

公司简介&#xff1a;芒果 TV 作为湖南广电旗下互联网视频平台&#xff0c;在“一云多屏&#xff0c;多元一体”的战略指导下&#xff0c;通过内容自制&#xff0c;培植核心竞争力&#xff0c;从独播、独特走向独创&#xff0c;并通过市场化运作完成 A 轮、B 轮融资&#xff0c…

数据库活动监控(DAM)

在当今数据驱动的世界中&#xff0c;组织在保护存储在数据库中的机密数据并确保其完整性方面面临着越来越多的挑战。数据库审计通过提供全面的数据库活动监控方法&#xff0c;在应对这些挑战方面发挥着至关重要的作用。 数据库活动监控&#xff08;Database Activity Monitori…

【Redis】初学Redis

目录 使用Redisyum安装redis启动redis操作redis设置远程连接 Redis路线Redis 使用Redis yum安装redis 使用命令&#xff0c;直接将Redis安装到linux服务器&#xff1a; yum -y install redis启动redis redis-server /etc/redis.conf &操作redis redis-cli设置远程连接…

最新AI创作系统ChatGPT程序源码+详细搭建部署教程+微信公众号版+H5源码/支持GPT4.0+GPT联网提问/支持ai绘画+MJ以图生图+思维导图生成!

使用Nestjs和Vue3框架技术&#xff0c;持续集成AI能力到系统&#xff01; 新增 MJ 官方图片重新生成指令功能同步官方 Vary 指令 单张图片对比加强 Vary(Strong) | Vary(Subtle)同步官方 Zoom 指令 单张图片无限缩放 Zoom out 2x | Zoom out 1.5x新增GPT联网提问功能、手机号注…

集合Collection-List-ArrayList学习

一、集合 集合是数据容器。相较于数组集合具有以下几个特点&#xff1a; 数组一旦创建&#xff0c;长度不可改变。集合的长度会自动扩容。集合具有很多数组没有的功能函数API数组元素的存储特点单一&#xff0c;不同的集合有不同的存储特点。 1. Collection顶层接口 Collect…

Python-OpenCV中的图像处理-图像梯度

Python-OpenCV中的图像处理-图像梯度 图像梯度Sobel 算子和 Scharr 算子Laplacian 算子 图像梯度 图像梯度&#xff0c;图像边界等使用到的函数有&#xff1a; cv2.Sobel()&#xff0c; cv2.Scharr()&#xff0c; cv2.Laplacian() 等原理&#xff1a;梯度简单来说就是求导。Op…

Kotlin反射访问androidx.collection.LruCache类私有变量

Kotlin反射访问androidx.collection.LruCache类私有变量 androidx.collection.LruCache类中定义了一个名为map的LinkedHashMap&#xff0c;map存储了所有LruCache的数据&#xff0c;有时候需要遍历访问该LinkedHashMap&#xff0c;取出里面的值&#xff0c;但是LruCache代码实…

Jenkins+Docker+SpringCloud微服务持续集成

JenkinsDockerSpringCloud微服务持续集成 JenkinsDockerSpringCloud持续集成流程说明SpringCloud微服务源码概述本地运行微服务本地部署微服务 Docker安装和Dockerfile制作微服务镜像Harbor镜像仓库安装及使用在Harbor创建用户和项目上传镜像到Harbor从Harbor下载镜像 微服务持…

SQL SERVER 异地备份到远程共享文件夹异常处理

SQL SERVER 异地备份到远程共享文件夹异常处理 SQL Server 异地备份到远程共享文件夹异常处理 - 灰信网&#xff08;软件开发博客聚合&#xff09; -- 允许配置高级选项 EXEC sp_configure show advanced options, 1 GO -- 重新配置 RECONFIGURE GO -- 启用xp_cmdshell EXEC sp…

github版面混乱加载不出的解决办法

最近出现打开github 界面加载不成功&#xff0c;网页访问乱码&#xff0c;打开chrome的检查发现 github的github.githubassets.com 拒绝访问&#xff0c; 解法&#xff1a; 1.先打开hosts文件所在的目录C:\Windows\System32\drivers\etc 2.右键点击hosts文件-选择用记事本或者…