Docker基础入门:Docker网络与微服务项目发布

news2024/11/20 22:38:16

Docker基础入门:Docker网络与微服务项目发布

  • 一、前言
  • 二、Docker0理解
    • 2.1 ip a查看当前网络环境
    • 2.2 实战--启动一个tomact01容器(查看网络环境)
    • 2.3 实战--启动一个tomact02容器(查看网络环境)
    • 2.4 容器与容器之间的通信
    • 2.5 总结
    • 2.6 容器间通过服务名通信
  • 三、自定义网络(User-defined Network)
    • 3.1 查看所有docker网络
    • 3.2 使用 Docker 创建自定义网络的步骤
    • 3.3 总结
    • 3.4 容器之间进行网络连通
  • 四、 实战--部署redis集群(3主3从)
  • 五、打包发布运行spring-boot微服务项目
    • 5.1 SpringBoot 项目创建
    • 5.2 创建 Dockerfile
    • 5.3 上传文件
    • 5.4 构建 Docker 镜像
    • 5.5 运行 Docker 容器
    • 5.6 测试访问
    • 5.7 再次运行 Docker 容器
    • 5.8 再次测试访问


💖The Begin💖点点关注,收藏不迷路💖

在这里插入图片描述

一、前言

Docker是当今最流行的容器化平台之一,它提供了一个轻量级、可移植和可扩展的应用环境。

而在Docker中,网络是构建容器化应用的关键组成部分之一。本文将深入探讨Docker网络,构建高效、可扩展的应用容器化网络架构。

二、Docker0理解

在 Docker 中,“docker0” 是一个虚拟以太网桥接口,用于连接主机与运行的容器之间的通信。

当在主机上安装 Docker 时,它会自动创建 “docker0” 网络接口。它具有一个默认的 IP 地址(通常是 172.17.0.1)和一个子网掩码。Docker 容器启动时,会自动分配一个 IP 地址,并连接到 “docker0” 网桥。

通过 “docker0” 网桥,容器可以相互之间进行通信,也可以与主机进行通信。还可以通过端口映射将容器内部的服务暴露给主机或外部网络。

“docker0” 是 Docker 默认的网络配置,还可以使用其他网络驱动程序和网络模式来创建不同类型的网络,以满足不同的应用需求。

2.1 ip a查看当前网络环境

在这里插入图片描述

问题:docker 是如何处理容器网络访问的???
在这里插入图片描述

2.2 实战–启动一个tomact01容器(查看网络环境)

1、启动一个tomact容器
docker run -d -P --name tomact01 tomcat
2、查看容器的内部网络地址  ip addr
[root@zyl-server ~]# docker exec -it tomcat01 ip a
OCI runtime exec failed: exec failed: unable to start container process: exec: "ip": executable file not found in $PATH: unknown

报错:

OCI runtime exec failed: exec failed: unable to start container process: exec: "ip": executable file not found in $PATH: unknown

因为该容器的镜像时精简版,内部缺少iproute2导致无法使用ip命令。

报错解决:

进入容器

docker exec -it 容器名 /bin/bash

进入后:

##更新apt

apt-get update

##安装iproute2

apt install -y iproute2

##安装完以后退出exit

##检查
docker exec -it 容器名 ip addr

在这里插入图片描述
在这里插入图片描述

3、容器启动后会得到一个eth0@if7的地址(docker分配的地址)

[root@zyl-server ~]# docker exec -it tomcat01 ip a
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    inet 127.0.0.1/8 scope host lo
       valid_lft forever preferred_lft forever
6: eth0@if7: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default
    link/ether 02:42:ac:11:00:02 brd ff:ff:ff:ff:ff:ff link-netnsid 0
    inet 172.17.0.2/16 brd 172.17.255.255 scope global eth0
       valid_lft forever preferred_lft forever
[root@zyl-server ~]#
4、思考:在主机能不能ping通容器内部这个docker分配的地址???

ping <容器IP地址>

在这里插入图片描述

原理:

当Docker容器启动时,它会被分配一个IP地址,并且默认情况下会与主机上的"docker0"网桥接口相连。通过主机上的网络栈,可以使用分配给容器的IP地址与容器进行通信。

5、再次ip addr 查看,发现又多了一对网卡(vethbd9e5f4@if6 ,vethbd9e5f4@if8),和tomcat容器的网卡( eth0@if7)相似

原因:veth-pair充当了一个桥梁,连接了各种虚拟网络设备。

"veth" 接口工作在不同的网络命名空间中,其中一个端口连接到主机上的"docker0"网桥,而另一个端口连接到容器内部的网络栈(例如"eth0")。

通过这样的网络配置,容器可以使用独立的IP地址和网络设置与其他容器或主机进行通信,同时保持网络隔离和安全性。

在这里插入图片描述

2.3 实战–启动一个tomact02容器(查看网络环境)

6、再次启动一个tomcat02,思考:tomcat02与tomcat01之间是否可以ping通???
[root@zyl-server ~]# docker run -d -P --name tomcat02 tomcat


[root@zyl-server ~]# docker ps
CONTAINER ID   IMAGE     COMMAND             CREATED          STATUS          PORTS                                         NAMES
60014b1a25c2   tomcat    "catalina.sh run"   38 minutes ago   Up 38 minutes   0.0.0.0:32769->8080/tcp, :::32769->8080/tcp   tomcat02
732466647cdc   tomcat    "catalina.sh run"   39 minutes ago   Up 39 minutes   0.0.0.0:32768->8080/tcp, :::32768->8080/tcp   tomcat01
[root@zyl-server ~]#
7、测试tomcat02与tomcat01之间的通信

docker exec -it tomcat02 ping 172.17.0.2

报错:


[root@zyl-server ~]# docker exec -it tomcat02 ping 172.17.0.2
OCI runtime exec failed: exec failed: unable to start container process: exec: "ping": executable file not found in $PATH: unknown
[root@zyl-server ~]#

解决:

// 进入容器内部
[root@zyl-server ~]# docker exec -it tomcat01 /bin/bash
[root@zyl-server ~]# docker exec -it tomcat02 /bin/bash

// tomcat02与tomcat01安装iputils-ping

apt install -y iputils-ping
8、再次测试(tomcat02 ping 172.17.0.2[root@zyl-server ~]# docker exec -it tomcat02 ping 172.17.0.2

(tomcat01 ping 172.17.0.3[root@zyl-server ~]# docker exec -it tomcat01 ping 172.17.0.3

在这里插入图片描述

2.4 容器与容器之间的通信

结论:容器与容器之间是可以通信的!!!!

如:tomcat01与tomcat02之间共用一个路由器(docker0)。

在这里插入图片描述

2.5 总结

Docker 默认使用桥接(Bridge)网络模式

在桥接网络模式下,Docker 会创建一个名为 “docker0” 的虚拟以太网桥接口,并为每个容器分配一个虚拟网络接口(veth pair)-----转发效率高。容器的网络流量会通过这个虚拟网络接口与主机上的 “docker0” 桥接口相连。

通过桥接网络,不同的容器可以彼此通信,也可以与主机进行通信,同时它们共享主机的网络连接。默认情况下,Docker 容器会自动分配一个 IP 地址,并且可以通过主机或其他容器的 IP 地址进行访问。

在这里插入图片描述
只要容器删除,对应的网桥对就没了!!!

2.6 容器间通过服务名通信

前面tomcat01与tomcat02之间是通过IP通信的,怎么实现通过服务名通信???

[root@zyl-server ~]# docker exec -it tomcat02 ping tomcat01
ping: tomcat01: Name or service not known
[root@zyl-server ~]#

问题思考:假如一个微服务场景,database url=ip:xxx,项目不重启,数据库ip变了,如何解决这个问题,怎么实现通过服务名通信???

解决:

1、再启动一个tomcat03,使用--link

##--link tomcat02:将容器 "tomcat02" 与新创建的 "tomcat03" 容器进行链接(连接)

[root@zyl-server ~]# docker run -d -P --name tomcat03 --link tomcat02 tomcat
5dd7eba42a5c236b272dac6ef4624da6eed564325af8b8491b451d16418a884e
[root@zyl-server ~]#

2、测试(tomcat03 ping tomcat02),使用服务名通信
[root@zyl-server ~]# docker exec -it tomcat03 ping tomcat02

在这里插入图片描述

3、反向则不能ping通(tomcat02 ping tomcat03)

[root@zyl-server ~]# docker exec -it tomcat02 ping tomcat03
ping: tomcat03: Name or service not known
[root@zyl-server ~]#

探究原因

[root@zyl-server ~]# docker exec -it tomcat03 cat /etc/hosts
127.0.0.1       localhost
::1     localhost ip6-localhost ip6-loopback
fe00::0 ip6-localnet
ff00::0 ip6-mcastprefix
ff02::1 ip6-allnodes
ff02::2 ip6-allrouters
172.17.0.3      tomcat02 60014b1a25c2
172.17.0.4      5dd7eba42a5c
[root@zyl-server ~]#

其实–link 就是在hosts配置中增加了一个

172.17.0.3      tomcat02 60014b1a25c2

在这里插入图片描述

–link 选项在容器中添加了一个条目到 /etc/hosts 文件中,以便容器可以通过服务名称进行相互访问。

使用 --link 命令将两个容器连接在一起时,Docker 会自动修改容器的 /etc/hosts 文件,将被链接的容器的 IP 地址和服务名称映射为条目。

这样,“tomcat03” 容器就可以通过使用服务名称 “tomcat02” 访问到 “tomcat02” 容器。

不过需要注意的是,–link 选项已经过时,推荐使用 自定义网络(User-defined Network)来实现容器间的连接和通信。用户自定义网络提供更灵活和可持续的解决方案,更好地管理容器之间的关系和网络配置。

三、自定义网络(User-defined Network)

Docker 提供了用户自定义网络(User-defined Network)的功能,它允许您在 Docker 环境中创建自己的网络,并在这个网络上运行容器。使用用户自定义网络可以更好地管理容器之间的关系和网络配置。

3.1 查看所有docker网络

要列出 Docker 中的所有网络,可以使用 docker network ls 命令。该命令将显示当前 Docker 环境中的所有网络及其详细信息。

列出 Docker 中的所有网络:

[root@zyl-server ~]# docker network ls
NETWORK ID     NAME      DRIVER    SCOPE
8290ad5ab9f8   bridge    bridge    local
fe8aa9233f89   host      host      local
7ae86ca33507   none      null      local
[root@zyl-server ~]#

NETWORK ID:网络的唯一标识符。
NAME:网络的名称。
DRIVER:网络驱动程序类型。
SCOPE:网络的范围(local 表示仅限本地)

其中包含了几个常见的网络,如默认的 bridge 网络(桥接)、用户自定义的 mynetwork 网络,以及其他特殊网络如 host(和宿主机共享网络)和 none(不配置网络)。

3.2 使用 Docker 创建自定义网络的步骤

1、创建一个名为 "mynetwork" 的用户自定义网络:
[root@zyl-server ~]# docker network create --driver bridge  --subnet 192.168.0.0/16 --gateway 192.168.0.1 mynetwork
da1bb471897eeb1d7e3e867fe7124d29d806da6b06e05cd2c9fd86580ac55486
[root@zyl-server ~]#

驱动程序(Driver):通过 --driver bridge 参数指定了网络驱动程序为 bridge,这意味着创建的网络将采用桥接模式。桥接模式是 Docker 默认的网络模式,使得容器可以通过网络桥接与宿主机和其他容器相连。

子网(Subnet):通过 --subnet 192.168.0.0/16 参数指定了网络的子网。这意味着创建的网络将包含在以 192.168.0.0 为起始地址、子网掩码为 /16(即 255.255.0.0)的子网中。这个子网范围内的 IP 地址将被分配给容器。

网关(Gateway):通过 --gateway 192.168.0.1 参数指定了网络的网关地址。该地址将作为网络的出口地址,用于容器与外部网络之间的通信。

[root@zyl-server ~]# docker network ls
NETWORK ID     NAME        DRIVER    SCOPE
8290ad5ab9f8   bridge      bridge    local
fe8aa9233f89   host        host      local
da1bb471897e   mynetwork   bridge    local
7ae86ca33507   none        null      local
[root@zyl-server ~]#

[root@zyl-server ~]# docker network inspect mynetwork
[
    {
        "Name": "mynetwork",
        "Id": "da1bb471897eeb1d7e3e867fe7124d29d806da6b06e05cd2c9fd86580ac55486",
        "Created": "2023-08-31T00:01:02.667263189+08:00",
        "Scope": "local",
        "Driver": "bridge",
        "EnableIPv6": false,
        "IPAM": {
            "Driver": "default",
            "Options": {},
            "Config": [
                {
                    "Subnet": "192.168.0.0/16",
                    "Gateway": "192.168.0.1"
                }
            ]
        },
        "Internal": false,
        "Attachable": false,
        "Ingress": false,
        "ConfigFrom": {
            "Network": ""
        },
        "ConfigOnly": false,
        "Containers": {},
        "Options": {},
        "Labels": {}
    }
]
[root@zyl-server ~]#

在这里插入图片描述

2、运行容器并将其连接到用户自定义网络:
docker run -d --name container1 --network mynetwork image1
docker run -d --name container2 --network mynetwork image2


如:还是启动两个tomcat:
docker run -d -P --name tomcat-mynet-01 --network mynetwork tomcat
docker run -d -P --name tomcat-mynet-02 --network mynetwork tomcat

我们创建了两个tomcat容器,并将它们连接到 "mynetwork" 网络。这样,这两个容器就可以通过服务名称进行通信,而无需使用 IP 地址。

请注意,--network 参数用于指定容器要连接到的网络(用户自定义网络 mynetwork )。

在这里插入图片描述

3、进入容器

docker exec -it 容器名 /bin/bash

进入后:

##更新apt

apt-get update

##安装iproute2

apt install -y iproute2

##安装iputils-ping
apt install -y iputils-ping

报错:
在apt-get update的时候出现了如下异常。

Err:1 http://deb.debian.org/debian bullseye InRelease   Temporary failure resolving 'deb.debian.org' 

Err:2 http://security.debian.org/debian-security bullseye-security InRelease   Temporary failure resolving 'security.debian.org'

解决:

原因在于DNS服务解析异常,解决的方法也很简单,只需要修改/etc/docker/daemon.json加入如下内容即可(如果没有这个文件则创建

 "dns": ["8.8.8.8", "114.114.114.114"]

在这里插入图片描述

最后重启docker服务,系统即可正常解析镜像网站并运行

systemctl restart docker

在这里插入图片描述

删除tomcat-mynet-01、tomcat-mynet-02,再次执行步骤二、步骤三。启动两个tomcat。

4、容器间通信:
现在,使用容器名称进行容器间的通信。在容器内部,可以使用服务名称或容器名称作为主机名来访问其他容器。

例如,在 tomcat-mynet-01 内部,可以通过服务名称 tomcat-mynet-01 访问 tomcat-mynet-01:

ping tomcat-mynet-02

同样,在 tomcat-mynet-02 内部,可以通过服务名称 tomcat-mynet-02 访问 tomcat-mynet-01:

ping tomcat-mynet-01


示例:

[root@zyl-server ~]#  docker exec -it tomcat-mynet-02 /bin/bash
root@7ff9f7a73f15:/usr/local/tomcat# ping tomcat-mynet-01
PING tomcat-mynet-01 (192.168.0.2) 56(84) bytes of data.
64 bytes from tomcat-mynet-01.mynetwork (192.168.0.2): icmp_seq=1 ttl=64 time=0.103 ms
64 bytes from tomcat-mynet-01.mynetwork (192.168.0.2): icmp_seq=2 ttl=64 time=0.127 ms
64 bytes from tomcat-mynet-01.mynetwork (192.168.0.2): icmp_seq=3 ttl=64 time=0.161 ms
^C
--- tomcat-mynet-01 ping statistics ---
3 packets transmitted, 3 received, 0% packet loss, time 2001ms
rtt min/avg/max/mdev = 0.103/0.130/0.161/0.023 ms
root@7ff9f7a73f15:/usr/local/tomcat#


或者:

[root@zyl-server ~]# docker exec -it tomcat-mynet-01 ping tomcat-mynet-02
PING tomcat-mynet-02 (192.168.0.3) 56(84) bytes of data.
64 bytes from tomcat-mynet-02.mynetwork (192.168.0.3): icmp_seq=1 ttl=64 time=0.134 ms
64 bytes from tomcat-mynet-02.mynetwork (192.168.0.3): icmp_seq=2 ttl=64 time=0.137 ms
64 bytes from tomcat-mynet-02.mynetwork (192.168.0.3): icmp_seq=3 ttl=64 time=0.131 ms
64 bytes from tomcat-mynet-02.mynetwork (192.168.0.3): icmp_seq=4 ttl=64 time=0.148 ms
^C
--- tomcat-mynet-02 ping statistics ---
4 packets transmitted, 4 received, 0% packet loss, time 3007ms
rtt min/avg/max/mdev = 0.131/0.137/0.148/0.006 ms
[root@zyl-server ~]#

在这里插入图片描述

在这里插入图片描述

3.3 总结

在这里插入图片描述

1、启动一个tomcat04

[root@zyl-server ~]# docker run -d -P --name tomcat04  tomcat

2、测试,tomcat04 ping tomcat-mynet-02

[root@zyl-server ~]# docker exec -it tomcat04 ping tomcat-mynet-02
ping: tomcat-mynet-02: Name or service not known
[root@zyl-server ~]#

使用用户自定义网络可以提供更好的容器间通信方式,而不仅仅依赖于 --link 命令。用户自定义网络还可以提供更多高级功能,如容器发现、DNS 名称解析、子网划分等。

3.4 容器之间进行网络连通

在3.3 基础上,引出了网络连通(思考:如果容器A ping 容器D能否ping通)。

[root@zyl-server ~]# docker network --help

Usage:  docker network COMMAND

Manage networks

Commands:
  connect     Connect a container to a network
  create      Create a network
  disconnect  Disconnect a container from a network
  inspect     Display detailed information on one or more networks
  ls          List networks
  prune       Remove all unused networks
  rm          Remove one or more networks

Run 'docker network COMMAND --help' for more information on a command.
[root@zyl-server ~]#
docker network子命令:

docker network create <network-name>:创建一个自定义网络。
docker network ls:列出所有网络。
docker network inspect <network-name>:显示指定网络的详细信息。
docker network connect <network-name> <container-name>:将指定容器连接到指定的网络。
docker network disconnect <network-name> <container-name>:将指定容器从指定的网络中断开连接。
docker network rm <network-name>:删除指定的网络。
可以通过运行docker network <command> --help来获取特定命令的更详细的帮助信息,例如docker network connect --help[root@zyl-server ~]# docker network connect --help

Usage:  docker network connect [OPTIONS] NETWORK CONTAINER

Connect a container to a network

Options:
      --alias strings           Add network-scoped alias for the container
      --driver-opt strings      driver options for the network
      --ip string               IPv4 address (e.g., "172.30.100.104")
      --ip6 string              IPv6 address (e.g., "2001:db8::33")
      --link list               Add link to another container
      --link-local-ip strings   Add a link-local address for the container
[root@zyl-server ~]#

选项和参数:

NETWORK:要连接的网络的名称或ID。
CONTAINER:要连接到网络的容器的名称或ID。
可选选项:

--alias:为容器添加一个网络范围的别名。可以指定多个别名,使用空格分隔。
--driver-opt:指定网络驱动选项,用于配置网络驱动程序。
--ip:指定容器的IPv4地址。
--ipv6-address:指定容器的IPv6地址。
--link-local-ip:为容器添加一个链路本地地址(IPv4)。可以指定多个地址,使用空格分隔。
--link-local-ipv6-address:为容器添加一个链路本地IPv6地址。

测试,解决3.3 tomcat04 ping tomcat-mynet-02问题

1、将名为tomcat04的容器连接到名为mynetwork的网络

docker network connect mynetwork tomcat04

2、docker inspect 检查mynetwork的网络详细信息

docker inspect mynetwork

在这里插入图片描述

结论:(一个容器两个IP,如:阿里云服务器:一个公网IP,一个私网IP)

3、验证:tomcat04 ping tomcat-mynet-02

[root@zyl-server ~]# docker exec -it tomcat04 ping tomcat-mynet-02

在这里插入图片描述

四、 实战–部署redis集群(3主3从)

清空docker环境(非测试环境慎用):

 docker stop $(docker ps -aq) 会停止所有正在运行的容器。

 docker rm $(docker ps -aq) 会删除所有容器。
[root@zyl-server ~]# docker stop $(docker ps -aq)
[root@zyl-server ~]# docker rm $(docker ps -aq)

Redis 集群是一种用于高可用性和扩展性的 Redis 解决方案。基于 Docker 容器化部署 Redis 集群可以简化整个过程,并提供更好的灵活性和可移植性。

3 主 3 从的 Redis 集群:

提供高可用性:当一个主节点发生故障时,通过自动故障转移机制,从节点可以自动晋升为新的主节点,从而保证 Redis 集群的可用性。

提高读写性能:通过路由算法,对键值进行分片存储,使得 Redis 集群能够处理更大的数据集并提高读写性能。

提供容错性:节点之间的数据复制和同步确保了数据的多重备份,从而增强了 Redis 集群的容错能力。

方便管理和部署:采用 Docker 容器化部署 Redis 集群,可以更方便地管理和部署 Redis 环境,提高了生产环境中的运维效率。

部署 Redis 集群可以为企业的业务提供更高的可用性和性能,并增强了应用的容错能力,也可以减少运维的工作量和风险。

在这里插入图片描述
Redis 集群搭建步骤:

1、创建网络:
[root@zyl-server ~]# docker network create redis-network --subnet 172.19.0.0/16
e1aea82ce159a3e39aacee7a2c5f97b0673dd6d3062337f0878169d8418b1a77
[root@zyl-server ~]#

2# 通过脚本创建六个redis的有关配置
for port in $(seq 1 6); \
do
mkdir -p /mydata/redis/node-${port}/conf
touch /mydata/redis/node-${port}/conf/redis.conf
cat << EOF >/mydata/redis/node-${port}/conf/redis.conf
port 6379
bind 0.0.0.0
cluster-enabled yes
cluster-config-file nodes.conf
cluster-node-timeout 5000
cluster-announce-ip 172.19.0.1${port}
cluster-announce-port 6379
cluster-announce-bus-port 16379
appendonly yes
EOF
done

3# 启动6个redis容器
for port in $(seq 1 6); \
do
docker run -p 637${port}:6379 -p 1637${port}:16379 --name redis-${port} \
-v /mydata/redis/node-${port}/data:/data \
-v /mydata/redis/node-${port}/conf/redis.conf:/etc/redis/redis.conf \
-d --net redis-network --ip 172.19.0.1${port} redis redis-server /etc/redis/redis.conf
done

在这里插入图片描述
在这里插入图片描述

4、获取名为 "redis" 的容器的 IP 地址
[root@zyl-server ~]# docker inspect -f '{{range .NetworkSettings.Networks}}{{.IPAddress}}{{end}}' redis-1
172.19.0.11
[root@zyl-server ~]# docker inspect -f '{{range .NetworkSettings.Networks}}{{.IPAddress}}{{end}}' redis-2
172.19.0.12
[root@zyl-server ~]# docker inspect -f '{{range .NetworkSettings.Networks}}{{.IPAddress}}{{end}}' redis-3
172.19.0.13
[root@zyl-server ~]# docker inspect -f '{{range .NetworkSettings.Networks}}{{.IPAddress}}{{end}}' redis-4
172.19.0.14
[root@zyl-server ~]# docker inspect -f '{{range .NetworkSettings.Networks}}{{.IPAddress}}{{end}}' redis-5
172.19.0.15
[root@zyl-server ~]# docker inspect -f '{{range .NetworkSettings.Networks}}{{.IPAddress}}{{end}}' redis-6
172.19.0.16
[root@zyl-server ~]#

在这里插入图片描述

5# 或者 单个启动
docker run -p 6371:6379 -p 16371:16379 --name redis-1 \
-v /mydata/redis/node-1/data:/data \
-v /mydata/redis/node-1/conf/redis.conf:/etc/redis/redis.conf \
-d --net redis --ip 172.19.0.11 redis redis-server /etc/redis/redis.conf

# 进入redis-1(主节点)
docker exec -it redis-1 sh

# 创建一个包含主节点和从节点的 Redis 集群
redis-cli --cluster create 172.19.0.11:6379 172.19.0.12:6379 172.19.0.13:6379 172.19.0.14:6379 172.19.0.15:6379 172.19.0.16:6379 --cluster-replicas 1


--cluster-replicas 1 表示每个主节点都会有一个从节点。你可以根据实际需求调整从节点数量。

在这里插入图片描述

6、检查集群状态:
# 连接redis集群
redis-cli -c

# 集群信息
cluster info

# 当前连接节点所属集群的配置信息
cluster nodes

# 查看集群信息,节点的 IP 地址和端口号
redis-cli --cluster check ip:port

示例:
#  redis-cli --cluster check 172.19.0.15:6379
172.19.0.12:6379 (eeb57961...) -> 0 keys | 5462 slots | 1 slaves.
172.19.0.11:6379 (f8f1ff36...) -> 0 keys | 5461 slots | 1 slaves.
172.19.0.13:6379 (63dc2e88...) -> 0 keys | 5461 slots | 1 slaves.
[OK] 0 keys in 3 masters.
0.00 keys per slot on average.
>>> Performing Cluster Check (using node 172.19.0.15:6379)
S: 30b9739795dbe2b684422d5e26b3af9233abcc09 172.19.0.15:6379
   slots: (0 slots) slave
   replicates f8f1ff368512219bc1175f9437cf66bfc312b162
S: b83a04599b536842ea1a4be7df2a295ffa2c12a2 172.19.0.16:6379
   slots: (0 slots) slave
   replicates eeb57961e87268137f766f85eb4b314d356e8e20
S: d508d0102f96efd3c4849efa72c42d57ea097eda 172.19.0.14:6379
   slots: (0 slots) slave
   replicates 63dc2e880044e44994a3384828b3cc9d4651b383
M: eeb57961e87268137f766f85eb4b314d356e8e20 172.19.0.12:6379
   slots:[5461-10922] (5462 slots) master
   1 additional replica(s)
M: f8f1ff368512219bc1175f9437cf66bfc312b162 172.19.0.11:6379
   slots:[0-5460] (5461 slots) master
   1 additional replica(s)
M: 63dc2e880044e44994a3384828b3cc9d4651b383 172.19.0.13:6379
   slots:[10923-16383] (5461 slots) master
   1 additional replica(s)
[OK] All nodes agree about slots configuration.
>>> Check for open slots...
>>> Check slots coverage...
[OK] All 16384 slots covered.
#

运行这个命令后,Redis 集群会自动执行状态检查并报告集群中的任何错误或不一致的情况。

如果一切正常,它将显示类似于 "All 16384 slots covered" 的消息,表示所有槽已被正确分配。

在这里插入图片描述

7、测试:

7.1 插入数据k1 v1

# redis-cli -c
127.0.0.1:6379> set k1 v1
-> Redirected to slot [12706] located at 172.19.0.13:6379
OK
172.19.0.13:6379>

Redis 返回了一条信息指示该命令已被重定向到槽位 [12706],该槽位位于 IP 地址为 172.19.0.13 的节点上的端口 6379 上。

可以看到当前处理数据的是172.19.0.13(redis-3),接下来停止172.19.0.13(redis-3),172.19.0.14(redis-4)自动替代主节点,----》达到高可用。

7.2  停止172.19.0.13(redis-3[root@zyl-server ~]# docker stop redis-3
redis-3
[root@zyl-server ~]#


7.3  停止172.19.0.13(redis-3),get  刚才set的 k1 v1,可以看到172.19.0.14(redis-4)自动替代主节点(redis-3),----》达到高可用。

# redis-cli -c
127.0.0.1:6379> get k1
-> Redirected to slot [12706] located at 172.19.0.14:6379
"v1"
172.19.0.14:6379>

在这里插入图片描述

五、打包发布运行spring-boot微服务项目

5.1 SpringBoot 项目创建

在这里插入图片描述
HelloController.java文件:

package com.example.demo.controller;

import org.springframework.web.bind.annotation.RequestMapping;
import org.springframework.web.bind.annotation.RestController;

@RestController
public class HelloController {


    @RequestMapping("/hello")
    public String hello(){

      return "Hello 醉颜凉!!!!!!!!!!";
    }
}

运行SpringBoot 项目:
在这里插入图片描述
打包SpringBoot 项目:
在这里插入图片描述

5.2 创建 Dockerfile

FROM java:8

COPY *.jar /app.jar

LABEL authors="zyl"

CMD ["--server.port=8080"]

EXPOSE 8080

ENTRYPOINT ["java", "-jar","/app.jar"]
 Dockerfile 中使用了 java 作为基础镜像,并将构建的目录设置为 / 。

然后,将构建产物(在这里是demo1-0.0.1-SNAPSHOT.jarr)复制到镜像中的 / 目录。

最后,暴露容器的 8080 端口,并在容器启动时执行 java -jar 命令来启动 Spring Boot 应用。

5.3 上传文件

上传文件jar包与 Dockerfile 文件至 /home/zyl/projects

demo1-0.0.1-SNAPSHOT.jar
Dockerfile



在这里插入图片描述

5.4 构建 Docker 镜像

进入到 Dockerfile 所在的目录,并运行以下命令来构建 Docker 镜像。

docker build -t my-spring-boot-app .

在这里插入图片描述

5.5 运行 Docker 容器

使用以下命令来运行刚才构建的 Docker 镜像:
docker run -d -P --name zyl-spring-boot-app2 my-spring-boot-app

[root@zyl-server projects]# docker run -d -p 8080:8080 --name  zyl-spring-boot-app my-spring-boot-app
e719e38bb18dbb6c1fe88522bd77c0523f2a9045d4f0dbfa89d3269382c11485
[root@zyl-server projects]#

现在, Spring Boot 微服务项目已经使用 Docker 打包、发布并在容器中运行起来了。可以通过访问 http://localhost:端口来访问运行在 Docker 容器中的应用程序。

5.6 测试访问

用docker run指令启动容器返回了容器id,但是用docker ps指令却不显示刚才启动的容器。

[root@zyl-server projects]# docker ps
CONTAINER ID   IMAGE     COMMAND   CREATED   STATUS    PORTS     NAMES
[root@zyl-server projects]# docker ps -a
CONTAINER ID   IMAGE                COMMAND                  CREATED         STATUS                     PORTS     NAMES
ba6429acfdee   my-spring-boot-app   "java -jar /app.jar …"   4 minutes ago   Exited (1) 4 minutes ago             zyl-spring-boot-app2
e719e38bb18d   my-spring-boot-app   "java -jar /app.jar …"   7 minutes ago   Exited (1) 7 minutes ago             zyl-spring-boot-app
[root@zyl-server projects]#

解决:

容器状态是Exited,用docker logs contenterid指令查看容器启动日志。


[root@zyl-server projects]# docker logs -f e719e38bb18d
Error: A JNI error has occurred, please check your installation and try again
Exception in thread "main" java.lang.UnsupportedClassVersionError: org/springframework/boot/loader/JarLauncher has been compiled by a more recent version of the Java Runtime (class file version 61.0), this version of the Java Runtime only recognizes class file versions up to 52.0
        at java.lang.ClassLoader.defineClass1(Native Method)
        at java.lang.ClassLoader.defineClass(ClassLoader.java:763)
        at java.security.SecureClassLoader.defineClass(SecureClassLoader.java:142)
        at java.net.URLClassLoader.defineClass(URLClassLoader.java:467)
        at java.net.URLClassLoader.access$100(URLClassLoader.java:73)
        at java.net.URLClassLoader$1.run(URLClassLoader.java:368)
        at java.net.URLClassLoader$1.run(URLClassLoader.java:362)
        at java.security.AccessController.doPrivileged(Native Method)
        at java.net.URLClassLoader.findClass(URLClassLoader.java:361)
        at java.lang.ClassLoader.loadClass(ClassLoader.java:424)
        at sun.misc.Launcher$AppClassLoader.loadClass(Launcher.java:331)
        at java.lang.ClassLoader.loadClass(ClassLoader.java:357)
        at sun.launcher.LauncherHelper.checkAndLoadMain(LauncherHelper.java:495)
[root@zyl-server projects]#

修改Dockerfile文件,重新build:

官方Docker弃用了Java镜像。

将java:8替换为openjdk:17,idea打包用的是17。

FROM openjdk:17

COPY *.jar /app.jar

LABEL authors="zyl"

CMD ["--server.port=8080"]

EXPOSE 8080

ENTRYPOINT ["java", "-jar","/app.jar"]

在这里插入图片描述

5.7 再次运行 Docker 容器

[root@zyl-server projects]# docker run -d -P --name  zyl-spring-boot-app my-spring-boot-app
2273c7aa7597fc6b5e841a1cbdf985c3b3591da47555460a0b0aa4a51322768a
[root@zyl-server projects]# docker ps
CONTAINER ID   IMAGE                COMMAND                  CREATED         STATUS         PORTS                                         NAMES
2273c7aa7597   my-spring-boot-app   "java -jar /app.jar …"   5 seconds ago   Up 3 seconds   0.0.0.0:32773->8080/tcp, :::32773->8080/tcp   zyl-spring-boot-app
[root@zyl-server projects]#

5.8 再次测试访问

[root@zyl-server projects]# curl localhost:32773/hello
Hello 醉颜凉!!!!!!!!!![root@zyl-server projects]#

在这里插入图片描述


💖The End💖点点关注,收藏不迷路💖

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/955096.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

企业数据将作为资产被纳入财务报表?百望云建议企业做好三点准备

在数字化转型过程中&#xff0c;大家一直比较关心技术创新有哪些&#xff0c;我如何能快速使用&#xff1f;却经常忽略了更深层次的问题&#xff0c;如&#xff1a;数字化转型的价值效益“有哪些”、我的企业“怎么获取”、我的系统是否支持“价值传递”&#xff1f; 近日&…

Apipost:为什么是开发者首选的API调试工具

文章目录 前言正文接口调试接口公共参数、环境全局参数的使用快速生成并导出接口文档研发协作接口压测和自动化测试结论 前言 Apipost是一款支持 RESTful API、SOAP API、GraphQL API等多种API类型&#xff0c;支持 HTTPS、WebSocket、gRPC多种通信协议的API调试工具。除此之外…

不知道怎么归类的题型

爆破 weak_auth 进来看到 随便输入 知道账号名为admin&#xff0c;再爆破密码&#xff0c;从返回包中得到flag

【C++】多态学习

多态 多态的概念与定义多态的概念构成多态的两个条件虚函数与重写重写的两个特例 final 和 override重载、重写(覆盖)、重定义(隐藏)的对比抽象类多态的原理静态绑定与动态绑定 单继承与多继承关系下的虚函数表(派生类)单继承中的虚函数表查看多继承中的虚函数表查看 菱形继承与…

JavaScript Web APIs -03 事件流、事件委托、其他事件(加载、滚动、尺寸)

Web APIs - 03 文章目录 Web APIs - 03事件流捕获和冒泡阻止冒泡 事件委托其他事件页面加载事件元素滚动事件页面尺寸事件 元素尺寸与位置 进一步学习 事件进阶&#xff0c;实现更多交互的网页特效&#xff0c;结合事件流的特征优化事件执行的效率 掌握阻止事件冒泡的方法理解事…

第五章 树与二叉树 四、线索树(手算与代码实现)

一、定义 1.线索树是一种二叉树&#xff0c;它在每个节点上增加了两个指针&#xff0c;分别指向其前驱和后继。 2.这些指针称为“线索”&#xff0c;因此线索树也叫做“线索化二叉树”。 3.在线索树中&#xff0c;所有的叶子节点都被线索化&#xff0c;使得遍历树的过程可以…

小程序实现图片上传、数量配置、预览、删除功能的开发指南

当谈到在小程序中实现图片上传、预览和删除等功能时,我们必须认识到这些功能对于提升用户体验和丰富应用的交互性非常关键。随着智能手机的普及,人们越来越习惯于通过图片来表达自己的想法、分享生活点滴,因此,使用户能够方便地在小程序中处理图片是非常重要的一步。 目录 …

MonoDETR: Depth-guided Transformer for Monocular 3D Object Detection 论文解读

MonoDETR论文解读 abstract 单目目标检测在自动驾驶领域&#xff0c;一直是一个具有挑战的任务。现在大部分的方式都是沿用基于卷积的2D 检测器&#xff0c;首先检测物体中心&#xff0c;后通过中心附近的特征去预测3D属性。 但是仅仅通过局部的特征去预测3D特征是不高效的&…

2023开学季中大许少辉著《乡村振兴战略下传统村落文化旅游设计》建筑畅销榜排名465位

2023开学季中大许少辉著《乡村振兴战略下传统村落文化旅游设计》建筑畅销榜排名465位

W5100S-EVB-PICO通过SNTP获取网络时间(十一)

前言 上一章我们用开发板进行ping测试&#xff0c;本章我们用它通过SNTP获取网络时间并在串口显示。 什么是SNTP? 能用来做什么? SNTP(Simple Network Time Protocal简单网络时间协议)&#xff0c;用于跨广域网或局域网同步时间的协议&#xff0c;具有较高的精确度&#xff…

PXE网络批量装机(centos7)

目录 前言 一、实验拓扑图 二、PXE的组件 三、配置PXE装机服务器 1、设置防火墙、selinux 2.安装、启动vsftp 3、拷贝系统文件到/var/ftp用于装机 4、配置tftp 5、准备pxelinx.0文件、引导文件、内核文件 6、配置本机IP 7、配置DHCP服务 8、创建default文件 四、配…

撤回IPO背后:透视树根互联“以退为进”的成长逻辑

如果说&#xff0c;互联网的上半场属于消费互联网&#xff0c;那么下半场的主角将会是工业互联网&#xff0c;它也被称为“第四次工业革命的重要基石”。 工业互联网属于典型的“长坡厚雪”型赛道&#xff0c;前期需要在技术、资金、人才等方面进行大量投入&#xff0c;而等待…

【强化学习】基本概念

基本大概框架 强化学习的主要角色是 智能体 &#xff08;agent&#xff09;和 环境,环境是智能体存在和互动的世界。智能体根据当前的环境做出action&#xff0c;action影响环境。然后智能体根据新的环境再进行action。 基础用语 状态&#xff08;state, s&#xff09;&…

Krahets 笔面试精选 88 题——40. 组合总和 II

使用深度搜索的方法&#xff1a; 由于题目说候选数组中的每个数字在每个组合只能出现一次&#xff0c;所以&#xff0c;为了避免重复&#xff0c;在开始之前对候选数组进行升序排序&#xff0c;这样优先选择小的数&#xff0c;如果当前的数都小于目标值&#xff0c;则后面的数就…

CSAPP的Lab学习——BombLab

文章目录 前言一、一号炸弹&#xff08;小试牛刀&#xff09;二、二号炸弹&#xff08;六重循环&#xff09;三、三号炸弹&#xff08;不同输入&#xff0c;不同答案&#xff09;四、四号炸弹&#xff08;判断语句的实现&#xff09;五、五号炸弹&#xff08;跳转&#xff0c;循…

VoxWeekly|The Sandbox 生态周报|20230828

欢迎来到由 The Sandbox 发布的《VoxWeekly》。我们会在每周发布&#xff0c;对上一周 The Sandbox 生态系统所发生的事情进行总结。 如果你喜欢我们内容&#xff0c;欢迎与朋友和家人分享。请订阅我们的 Medium 、关注我们的 Twitter&#xff0c;并加入 Discord 社区&#xf…

PHP多语言代入电商平台api接口采集拼多多根据ID获取商品详情原数据示例

拼多多商品详情原数据API接口的作用是获取拼多多电商平台上某一商品的详细信息&#xff0c;包括商品的标题、价格、库存、图片、描述、包邮信息、销量、评价、优惠券等数据。通过该API接口可以获取到商品的原始数据&#xff0c;用于分析、筛选和展示商品信息。 pinduoduo.item…

typeerror: web3 is not a constructor

typeerror: web3 is not a constructor

PXE批量装机

目录 目录 一、概念 二、PXE的组件 三、操作步骤 一、配置基础环境 二、安装软件 三、文件配置 一、DHCP配置 二、配置TFTP 三、pxelinx.0 四、新机器验证 一、第一次验证 二、第二次验证 五、配置pxe无人值守安装 六、无人值守验证 一、概念 PXE是批量装机系统…

上海亚商投顾:沪指震荡微跌 北向资金单月净卖出900亿

上海亚商投顾前言&#xff1a;无惧大盘涨跌&#xff0c;解密龙虎榜资金&#xff0c;跟踪一线游资和机构资金动向&#xff0c;识别短期热点和强势个股。 一.市场情绪 三大指数今日震荡调整&#xff0c;科创50走势较强&#xff0c;盘中一度涨超1%&#xff0c;随后上演冲高回落走…