最新 Kubernetes 集群部署 + flannel 网络插件(保姆级教程,最新 K8S 版本)

news2024/9/22 13:29:32

资源列表

操作系统配置主机名IP所需插件
CentOS 7.92C4Gk8s-master192.168.60.143flannel-cni-plugin、flannel、coredns、etcd、kube-apiserver、kube-controller-manager、kube-proxy、 kube-scheduler 、containerd、pause 、crictl
CentOS 7.92C4Gk8s-node01192.168.60.144flannel-cni-plugin、flannel、kubectl、kube-proxy、containerd、pause 、crictl、kubernetes-dashboard
CentOS 7.92C4Gk8s-node02192.168.60.145flannel-cni-plugin、flannel、kubectl、kube-proxy、containerd、pause 、crictl、kubernetes-dashboard

各服务版本

  • flannel-cni-plugin:v1.1.2
  • flannel:v0.21.5
  • coredns:v1.10.1
  • etcd:3.5.9-0
  • kube-apiserver:v1.28.0
  • kube-controller-manager:v1.28.0
  • kube-proxy:v1.28.0
  • kube-scheduler:v1.28.0
  • pause:3.9
  • containerd:1.6.33-3.1.el7
  • crictl:1.6.33

1 环境准备(三台机器均需执行)

1.1 分别修改各个主机名称

## master:192.168.60.143
$ hostnamectl --static set-hostname k8s-master
## master:192.168.60.144
$ hostnamectl --static set-hostname k8s-node1
## master:192.168.60.145
$ hostnamectl --static set-hostname k8s-node2

## 执行以上操作后,再重启服务器
$ reboot -f

1.2 关闭防火墙和禁用 selinux

## 禁用selinux,关闭内核安全机制
$ sudo sestatus && sudo  setenforce 0 && sudo sed -i 's/SELINUX=enforcing/SELINUX=disabled/g' /etc/selinux/config

## 关闭防火墙,并禁止自启动
$ sudo systemctl stop firewalld && sudo systemctl disable firewalld && sudo systemctl status firewalld

1.3 关闭交换分区

  • kubeadm不支持swap
# 临时关闭
$ sudo swapoff -a

# 永久关闭
$ sudo sed -i '/swap/s/^/#/' /etc/fstab

1.4 集群机器均绑定 hostname

$ cat >> /etc/hosts << EOF
192.168.60.143 k8s-master
192.168.93.144 k8s-node01
192.168.93.145 k8s-node02
EOF

1.5 服务器内核优化

  • 在Docker的使用过程中有时会看到下面这个警告信息,做以下操作即可:
    • WARNING: bridge-nf-call-iptables is disabled
    • WARNING: bridge-nf-call-ip6tables is disabled
# 这种镜像信息可以通过配置内核参数的方式来消除
$ cat >> /etc/sysctl.conf << EOF
# 启用ipv6桥接转发
net.bridge.bridge-nf-call-ip6tables = 1
# 启用ipv4桥接转发
net.bridge.bridge-nf-call-iptables = 1
# 开启路由转发功能
net.ipv4.ip_forward = 1
# 禁用swap分区
vm.swappiness = 0
EOF

## # 加载 overlay 内核模块
$ modprobe overlay

# 往内核中加载 br_netfilter模块
$ modprobe br_netfilter

# 加载文件内容
$ sysctl -p

1.6 设置 CenOS 基础 yum 源,安装必要命令插件

$ sudo curl -o /etc/yum.repos.d/CentOS-Base.repo https://mirrors.aliyun.com/repo/Centos-7.repo
$ sudo yum makecache 
$ sudo yum -y install vim lrzsz unzip wget net-tools tree bash-completion telnet

1.7 各节点时间同步

## 安装同步时间插件
$ yum -y install ntpdate

## 同步阿里云的时间
$ ntpdate ntp.aliyun.com

2 Containerd 环境部署(三台机器均需执行)

  • 本文使用的是Containerd,镜像操作是 crictl 和 ctr 命令行;
  • 顺便说一下,k8s 版本是 1.20 版本开始宣布要弃用 docker 作为部署容器,一直到 1.24 版本才正式弃用的。所以很多博主安装 docker 也没啥毛病,但是得注意 k8s 版本的差异 。以下是 k8s 和 docker 版本对应关系以及官网通知:
    在这里插入图片描述
    在这里插入图片描述

2.1 安装Containerd

## 添加 docker 源,containerd也在docker源内的
$ cat <<EOF | sudo tee /etc/yum.repos.d/docker-ce.repo
[docker]
name=docker-ce
baseurl=https://mirrors.aliyun.com/docker-ce/linux/centos/7/x86_64/stable/
enabled=1
gpgcheck=1
gpgkey=https://mirrors.aliyun.com/docker-ce/linux/centos/gpg
EOF

## 快速建立 yum 元数据库
$ yum makecache fast

# 安装containerd
# 列出所有containerd版本
$ yum list containerd.io --showduplicates
$ yum -y install containerd.io-1.6.33-3.1.el7.x86_64

2.2 配置 Containerd

$ mkdir -p /etc/containerd
$ containerd config default | sudo tee /etc/containerd/config.toml

## # 修改/etc/containerd/config.toml文件中sandbox_image的值,改为国内源
$ vi /etc/containerd/config.toml

1 ) 设置 sandbox_image = "registry.aliyuncs.com/google_containers/pause:3.9"
2 )[plugins."io.containerd.grpc.v1.cri".registry.mirrors] 后面新增以下两行内容,大概在 153 行左右
	[plugins."io.containerd.grpc.v1.cri".registry.mirrors."docker.io"]
  	  endpoint = ["https://i9h06ghu.mirror.aliyuncs.com"]

## 启动 Containerd ,并设置开机自启动
$ systemctl start containerd && systemctl enable containerd

3 配置 crictl 工具(三台机器均需执行)

  • crictl 是 CRI 兼容的容器运行时命令行接口。你可以使用它来检查和调试Kubernetes节点上的容器运行时和应用程序。crictl 和它的源代码在cri-tools 代码库;
  • 更新到 Containerd 后,之前我们常用的docker命令也不再使用了,取而代之恶的分别是 crictl 和 ctr 两个命令行客户端;
  • crictl 是遵循 CRI 接口规范的一个命令行工具,通常用它来检查和管理kubelet节点上的容器运行时和镜像;
  • ctr 是 containerd 的一个客户端工具;

3.1 配置 crictl 配置文件

$ cat << EOF >> /etc/crictl.yaml
runtime-endpoint: unix:///var/run/containerd/containerd.sock
image-endpoint: unix:///var/run/containerd/containerd.sock
timeout: 10 
debug: false
EOF

3.2 测试 crictl 工具是否可用

# 拉取一个 Nginx 镜像验证 crictl 是否可用
$ crictl pull nginx:latest

Image is up to date for sha256:605c77e624ddb75e6110f997c58876baa13f8754486b461117934b24a9dc3a85

# 查看 nginx 镜像
$ crictl images | grep nginx

IMAGE                     TAG                 IMAGE ID            SIZE
docker.io/library/nginx   latest              605c77e624ddb       56.7MB

4 部署Kubernetes集群(具体在哪些服务器操作,下文副标题都有注明)

4.1 配置 kubernetes 的 yum 源(三台机器均需执行)

$ sudo cat <<EOF > /etc/yum.repos.d/kubernetes.repo
[kubernetes]
name=Kubernetes
baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64/
enabled=1
gpgcheck=1
repo_gpgcheck=1
gpgkey=https://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg https://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg
EOF

4.2 安装Kubernetes基础服务及工具(三台机器均需执行)

  • kubeadm:用来初始化集群的指令。
  • kubelet:在集群中的每个节点上用来启动 Pod 和容器等。
  • kubectl:用来与集群通信的命令行工具。
## 安装所需 Kubernetes 必要插件
## $ yum install -y kubelet kubeadm kubectl
$ yum install -y kubelet-1.28.2 kubeadm-1.28.2 kubectl-1.28.2
$ systemctl start kubelet && systemctl enable kubelet

4.3 master节点生成初始化配置文件(master节点执行)

  • Kubeadm提供了很多配置项,kubeadm配置在kubernetes集群中是存储在ConfigMap中的,也可将这些配置写入配置文件,方便管理复杂的配置项。kubeadm配置内容是通过kubeadm config命令写入配置文件的
    • kubeadm config view:查看当前集群中的配置值
    • kubeadm config print join-defaults:输出kubeadm join默认参数文件的内容
    • kubeadm config images list:列出所需的镜像列表
    • kubeadm config images pull:拉取镜像到本地
    • kubeadm config upload from-flags:由配置参数生成ConfigMap
# 生成初始化配置文件,并输出到当前目录
$ kubeadm config print init-defaults > init-config.yaml
# 执行上面的命令可能会出现类似这个提示,不用管,接着往下执行即可:W0615 08:50:40.154637   10202 configset.go:202] WARNING: kubeadm cannot validate component configs for API groups [kubelet.config.k8s.io kubeproxy.config.k8s.io]

# 编辑配置文件,以下有需要修改部分
$ vi init-config.yaml

apiVersion: kubeadm.k8s.io/v1beta2
bootstrapTokens:
- groups:
  - system:bootstrappers:kubeadm:default-node-token
  token: abcdef.0123456789abcdef
  ttl: 24h0m0s
  usages:
  - signing
  - authentication
kind: InitConfiguration
localAPIEndpoint:
  advertiseAddress: 192.168.60.143   # 修改此处为你 master 节点 IP 地址,我的是 192.168.60.143
  bindPort: 6443	# 默认端口号即可
nodeRegistration:
  criSocket: /var/run/dockershim.sock
  name: k8s-master    # 修改此处为你主节点的主机名,我的是 k8s-master
  taints:
  - effect: NoSchedule
    key: node-role.kubernetes.io/master
---
apiServer:
  timeoutForControlPlane: 4m0s
apiVersion: kubeadm.k8s.io/v1beta2
certificatesDir: /etc/kubernetes/pki
clusterName: kubernetes
controllerManager: {}
dns:
  type: CoreDNS
etcd:
  local:
    dataDir: /var/lib/etcd    # 默认路径即可,etcd容器挂载到本地的目录
imageRepository: registry.aliyuncs.com/google_containers  # 修改默认地址为国内地址,国外的地址无法访问
kind: ClusterConfiguration
kubernetesVersion: v1.18.0
networking:
  dnsDomain: cluster.local
  serviceSubnet: 10.96.0.0/12   # 默认网段即可,service资源的网段,集群内部的网络
  podSubnet: 10.244.0.0/16   # 注意:这个是新增的,Pod资源网段,需要与下面的pod网络插件地址一致
scheduler: {}

4.4 master节点拉取所需镜像(master节点执行)

# 根据指定 init-config.yaml 文件,查看初始化需要的镜像
$ kubeadm config images list --config=init-config.yaml

## 拉取镜像
$ kubeadm config images pull --config=init-config.yaml

## 查看拉取的镜像
$ docker images

4.5 master节点初始化和网络配置(master节点执行)

( kubeadm init 初始化配置参数如下,仅做了解即可)

  • –apiserver-advertise-address(string) API服务器所公布的其正在监听的IP地址
  • –apiserver-bind-port(int32) API服务器绑定的端口,默认6443
  • –apiserver-cert-extra-sans(stringSlice) 用于API Server服务证书的可选附加主题备用名称,可以是IP和DNS名称
  • –certificate-key(string) 用于加密kubeadm-certs Secret中的控制平面证书的密钥
  • –control-plane-endpoint(string) 为控制平面指定一个稳定的IP地址或者DNS名称
  • –image-repository(string) 选择用于拉取控制平面镜像的容器仓库,默认k8s.gcr.io
  • –kubernetes-version(string) 为控制平面选择一个特定的k8s版本,默认stable-1
  • –cri-socket(string) 指定要连接的CRI套接字的路径
  • –node-name(string) 指定节点的名称
  • –pod-network-cidr(string) 知名Pod网络可以使用的IP地址段,如果设置了这个参数,控制平面将会为每一个节点自动分配CIDRS
  • –service-cidr(string) 为服务的虚拟IP另外指定IP地址段,默认 10.96.0.0/12
  • –service-dns-domain(string) 为服务另外指定域名,默认 cluster.local
  • –token(string) 用于建立控制平面节点和工作节点之间的双向通信
  • –token-ttl(duration) 令牌被自动删除之前的持续时间,设置为0则永不过期
  • –upload-certs 将控制平面证书上传到kubeadm-certs Secret

(kubeadm通过初始化安装是不包括网络插件的,也就是说初始化之后不具备相关网络功能的,比如k8s-master节点上查看信息都是“Not Ready”状态、Pod的CoreDNS无法提供服务等 若初始化失败执行:kubeadm reset、rm -rf $HOME/.kube、/etc/kubernetes/、/var/lib/etcd/

4.5.1 使用 kubeadm 在 master 节点初始化k8s(master节点执行)

  • kubeadm 安装 k8s,这个方式安装的集群会把所有组件安装好,也就免去了需要手动安装 etcd 组件的操作
## 初始化 k8s
## 1)修改 kubernetes-version 为你自己的版本号;
## 2)修改 apiserver-advertise-address 为 master 节点的 IP
$ sudo kubeadm init --kubernetes-version=1.28.2 \
--apiserver-advertise-address=192.168.60.143 \
--image-repository registry.cn-hangzhou.aliyuncs.com/google_containers \
--service-cidr=10.96.0.0/12 \
--pod-network-cidr=10.244.0.0/16 \
--cri-socket=unix:///var/run/cri-dockerd.sock

4.5.2 初始化 k8s 成功的日志输出(master节点展示)

Your Kubernetes control-plane has initialized successfully!
To start using your cluster, you need to run the following as a regular user:
  mkdir -p $HOME/.kube
  sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
  sudo chown $(id -u):$(id -g) $HOME/.kube/config
Alternatively, if you are the root user, you can run:
  export KUBECONFIG=/etc/kubernetes/admin.conf
You should now deploy a pod network to the cluster.
Run "kubectl apply -f [podnetwork].yaml" with one of the options listed at:
  https://kubernetes.io/docs/concepts/cluster-administration/addons/
Then you can join any number of worker nodes by running the following on each as root:
kubeadm join 192.168.60.143:6443 --token abcdef.0123456789abcdef \
	--discovery-token-ca-cert-hash sha256:464fc74833ffce2ec83745db47d93e323ff47255c551197c949efc8ba6bcba36 

4.5.3 master节点复制k8s认证文件到用户的home目录(master节点执行)

$ mkdir -p $HOME/.kube
$ cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
$ chown $(id -u):$(id -g) $HOME/.kube/config

4.5.4 启动 kubelet 并设置开机自启(master节点执行)

$ systemctl enable kubelet && systemctl start kubelet

4.6 node 节点加入集群(两台从节点执行)

  • 直接把k8s-master节点初始化之后的最后回显的token复制粘贴到node节点回车即可,无须做任何配置
  • 每个 master 最后回显的 token 和 sha 认证都不一样
$ kubeadm join 192.168.60.143:6443 --token abcdef.0123456789abcdef \
	--discovery-token-ca-cert-hash sha256:464fc74833ffce2ec83745db47d93e323ff47255c551197c949efc8ba6bcba36

# 如果加入集群的命令找不到了可以在master节点重新生成一个
$ kubeadm token create --print-join-command

4.7 在master节点查看各个节点的状态(master节点执行)

  • 前面已经提到了,在初始化 k8s-master 时并没有网络相关的配置,所以无法跟node节点通信,因此状态都是“Not Ready”。但是通过kubeadm join加入的node节点已经在k8s-master上可以看到。
  • 同理,目前 coredns 模块一直处于 Pending 也是正常状态。
## 查看节点信息
$ kubectl get nodes

NAME         STATUS     ROLES           AGE   VERSION
k8s-master   NotReady   master   		44m   v1.28.2
k8s-node1    NotReady   <none>          25m   v1.28.2
k8s-node2    NotReady   <none>          25m   v1.28.2

## 查看主节点运行 Pod 的状态
$ kubectl get pods --all-namespaces -o wide

NAMESPACE     NAME                                 READY   STATUS    RESTARTS   AGE   IP               NODE         NOMINATED NODE   READINESS GATES
kube-system   coredns-66f779496c-ccj8c             0/1     Pending   0          52m   <none>           <none>       <none>           <none>
kube-system   coredns-66f779496c-mvx6k             0/1     Pending   0          52m   <none>           <none>       <none>           <none>
kube-system   etcd-k8s-master                      1/1     Running   0          52m   192.168.60.143   k8s-master   <none>           <none>
kube-system   kube-apiserver-k8s-master            1/1     Running   0          52m   192.168.60.143   k8s-master   <none>           <none>
kube-system   kube-controller-manager-k8s-master   1/1     Running   0          52m   192.168.60.143   k8s-master   <none>           <none>
kube-system   kube-proxy-8fbwr                     1/1     Running   0          33m   192.168.60.145   k8s-node2    <none>           <none>
kube-system   kube-proxy-h9xwc                     1/1     Running   0          33m   192.168.60.144   k8s-node1    <none>           <none>
kube-system   kube-proxy-rzdtk                     1/1     Running   0          52m   192.168.60.143   k8s-master   <none>           <none>
kube-system   kube-scheduler-k8s-master            1/1     Running   0          52m   192.168.60.143   k8s-master   <none>           <none>

5 部署 flannel 网络插件(具体在哪些服务器操作,下文副标题都有注明)

5.1 下载 flannel 插件(三台机器均需执行)

  • 按照其他博客的教程,这个插件是国外源,没梯子下不下来,我直接上传到 CSDN 资源
  • 部署 flannel 必要插件:https://download.csdn.net/download/qq_23845083/89527106
  • 资源包里包含 flannel-cni-plugin-v1.1.2.tar、flannel.tar、kube-flannel.yaml 三个资源,下文均用得到;
  • 将这三个资源分别放到服务器中的任意文件夹内,我是放在 /home/soft 文件夹中;

5.2 加载 flannel 镜像(三台机器均需执行)

## 导入镜像,切记要在镜像包所在目录执行此命令
$ ctr -n k8s.io i import flannel-cni-plugin-v1.1.2.tar
$ ctr -n k8s.io i import flannel.tar

# 查看镜像
$ crictl images | grep flannel
docker.io/flannel/flannel-cni-plugin                 v1.1.2              7a2dcab94698c       8.25MB
docker.io/flannel/flannel                            v0.21.5             a6c0cb5dbd211       69.9MB

5.3 部署网络插件(master节点执行)

$ kubectl apply -f kube-flannel.yaml

5.4 从节点支持 kubectl 命令(两台从节点执行)

5.4.1 此时从节点执行 kubectl 命令会报错:(两台从节点执行)

  • E0709 15:29:19.693750 97386 memcache.go:265] couldn’t get current server API group list: Get “http://localhost:8080/api?timeout=32s”: dial tcp [::1]:8080: connect: connection refused
  • The connection to the server localhost:8080 was refused - did you specify the right host or port?

5.4.2 分析结果以及解决方法:(两台从节点执行)

  • 原因是 kubectl 命令需要使用 kubernetes-admin 来运行
  • 将主节点中的 /etc/kubernetes/admin.conf 文件拷贝到从节点相同目录下,然后配置环境变量
## 配置环境变量
$ echo "export KUBECONFIG=/etc/kubernetes/admin.conf" >> ~/.bash_profile
## 立即生效
$ source ~/.bash_profile

5.5 查看各节点和组件状态(三台机器均可执行)

## 查看节点状态
$ kubectl get nodes

NAME         STATUS   ROLES    AGE   VERSION
k8s-master   Ready    master   23m   v1.28.2
k8s-node01   Ready    <none>   14m   v1.28.2
k8s-node02   Ready    <none>   14m   v1.28.2

## 查看主节点运行 Pod 的状态
$ kubectl get pods --all-namespaces -o wide

NAMESPACE      NAME                                 READY   STATUS    RESTARTS   AGE     IP               NODE         NOMINATED NODE   READINESS GATES
kube-flannel   kube-flannel-ds-7rzg7                1/1     Running   0          5m13s   192.168.60.145   k8s-node2    <none>           <none>
kube-flannel   kube-flannel-ds-fxzg4                1/1     Running   0          5m13s   192.168.60.143   k8s-master   <none>           <none>
kube-flannel   kube-flannel-ds-gp45f                1/1     Running   0          5m13s   192.168.60.144   k8s-node1    <none>           <none>
kube-system    coredns-66f779496c-ccj8c             1/1     Running   0          106m    10.244.0.2       k8s-master   <none>           <none>
kube-system    coredns-66f779496c-mvx6k             1/1     Running   0          106m    10.244.2.2       k8s-node2    <none>           <none>
kube-system    etcd-k8s-master                      1/1     Running   0          106m    192.168.60.143   k8s-master   <none>           <none>
kube-system    kube-apiserver-k8s-master            1/1     Running   0          106m    192.168.60.143   k8s-master   <none>           <none>
kube-system    kube-controller-manager-k8s-master   1/1     Running   0          106m    192.168.60.143   k8s-master   <none>           <none>
kube-system    kube-proxy-8fbwr                     1/1     Running   0          87m     192.168.60.145   k8s-node2    <none>           <none>
kube-system    kube-proxy-h9xwc                     1/1     Running   0          87m     192.168.60.144   k8s-node1    <none>           <none>
kube-system    kube-proxy-rzdtk                     1/1     Running   0          106m    192.168.60.143   k8s-master   <none>           <none>
kube-system    kube-scheduler-k8s-master            1/1     Running   0          106m    192.168.60.143   k8s-master   <none>           <none>

## 查看指定pod状态
$ kubectl get pods -n kube-system

NAME                                 READY   STATUS    RESTARTS   AGE
coredns-7ff77c879f-25bzd             1/1     Running   0          23m
coredns-7ff77c879f-wp885             1/1     Running   0          23m
etcd-k8s-master                      1/1     Running   0          24m
kube-apiserver-k8s-master            1/1     Running   0          24m
kube-controller-manager-k8s-master   1/1     Running   0          24m
kube-proxy-2tphl                     1/1     Running   0          15m
kube-proxy-hqppj                     1/1     Running   0          15m
kube-proxy-rfxw2                     1/1     Running   0          23m
kube-scheduler-k8s-master            1/1     Running   0          24m

## 查看所有pod状态
$ kubectl get pods -A

NAMESPACE      NAME                                 READY   STATUS    RESTARTS   AGE
kube-flannel   kube-flannel-ds-h727x                1/1     Running   0          77s
kube-flannel   kube-flannel-ds-kbztr                1/1     Running   0          77s
kube-flannel   kube-flannel-ds-nw9pr                1/1     Running   0          77s
kube-system    coredns-7ff77c879f-25bzd             1/1     Running   0          24m
kube-system    coredns-7ff77c879f-wp885             1/1     Running   0          24m
kube-system    etcd-k8s-master                      1/1     Running   0          24m
kube-system    kube-apiserver-k8s-master            1/1     Running   0          24m
kube-system    kube-controller-manager-k8s-master   1/1     Running   0          24m
kube-system    kube-proxy-2tphl                     1/1     Running   0          15m
kube-system    kube-proxy-hqppj                     1/1     Running   0          15m
kube-system    kube-proxy-rfxw2                     1/1     Running   0          24m
kube-system    kube-scheduler-k8s-master            1/1     Running   0          24m

## 查看集群组件状态
$ kubectl get cs

NAME                 STATUS    MESSAGE                         ERROR
controller-manager   Healthy   ok                              
scheduler            Healthy   ok                              
etcd-0               Healthy   {"health":"true","reason":""} 

6 部署 kubernetes-dashboard(master节点部署web页面)

6.1 配置 kubernetes-dashboard 并启动

## Step 1 :获取资源配置文件
$ wget  https://raw.githubusercontent.com/kubernetes/dashboard/v2.0.0-rc5/aio/deploy/recommended.yaml

## Step 2:编辑资源配置文件,大概定位到39行,修改其提供的service资源
$ vi recommended.yaml

spec:
  type: NodePort # 新增的内容
  ports:
    - port: 443
      targetPort: 8443
      nodePort: 31000	# 自行定义 web 访问端口号
  selector:
    k8s-app: kubernetes-dashboard

## Step 3:部署pod应用
$ kubectl apply -f recommended.yaml 

## Step 4:创建admin-user账户及授权的资源配置文件
$ cat>dashboard-adminuser.yml<<EOF
apiVersion: v1
kind: ServiceAccount
metadata:
    name: admin-user
    namespace: kube-system
---
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRoleBinding
metadata:
    name: admin-user
roleRef:
    apiGroup: rbac.authorization.k8s.io
    kind: ClusterRole
    name: cluster-admin
subjects:
- kind: ServiceAccount
  name: admin-user
  namespace: kube-system
EOF

## Step 5:创建资源实例
$ kubectl create -f dashboard-adminuser.yml

## Step 6:获取账户admin-user的Token用于登录
## 较早版本会自动生成 token,v1.28.2版本需要手动生成,执行命令即可:
$ kubectl create token admin-user  --namespace kube-system

eyJhbGciOiJSUzI1NiIsImtpZCI6InFBcUVIQ3kxUV9YOTlteGhULUxTTHRkT1FaRU02Y3d2Vk1OcWRkaE45eE0ifQ.eyJhdWQiOlsiaHR0cHM6Ly9rdWJlcm5ldGVzLmRlZmF1bHQuc3ZjLmNsdXN0ZXIubG9jYWwiXSwiZXhwIjoxNzIwNTE3NTMyLCJpYXQiOjE3MjA1MTM5MzIsImlzcyI6Imh0dHBzOi8va3ViZXJuZXRlcy5kZWZhdWx0LnN2Yy5jbHVzdGVyLmxvY2FsIiwia3ViZXJuZXRlcy5pbyI6eyJuYW1lc3BhY2UiOiJrdWJlLXN5c3RlbSIsInNlcnZpY2VhY2NvdW50Ijp7Im5hbWUiOiJhZG1pbi11c2VyIiwidWlkIjoiYTBkZDY1MTgtOWZiNi00MjhjLTllNTktOTNiNWNmMDhiZTJiIn19LCJuYmYiOjE3MjA1MTM5MzIsInN1YiI6InN5c3RlbTpzZXJ2aWNlYWNjb3VudDprdWJlLXN5c3RlbTphZG1pbi11c2VyIn0.SoY_tcafcrEYfmVXvrwFpnB4I2DV1K8KcshRkJykmOQDIqUHsk96rovj3U5njHRGuOx0b37SlSqjVW53hBHsni2l53J4DFV9IxGzPtD_mtWcd0AZDTcWtAXa9x4CyHB-2SH5vRxaRODnVig9F88v9WvYOE-2DVr4Zv9Pw6itcPnqF_4uFEt0PYQew7AnGtqixENonG3m3baMg5r5On0qczXe2iVKHYVFpEgdIud5Y4zQJWJ5hOCHrbKhFZxaRv5E601XOrXSUsQO834_rc4LjQY4DFs2M39h5v9SMEpAMXQ67g552hWfBzFEnN4hTVQxYHBCuR6CHZkkxhgUOXCFqg

6.2 登录验证

  • 访问 master 节点的 IP 地址:https://192.168.60.143:31000,使用token登录即可
    在这里插入图片描述
    在这里插入图片描述

参考文章:https://blog.csdn.net/weixin_73059729/article/details/139695528

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1915961.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

新一代iPhone成传家宝,这升级给我看呆了

6 月刚过&#xff0c;数码圈就迎来了平淡期&#xff0c;虽然各家手机层出不穷&#xff0c;但也只是新瓶装旧酒&#xff0c;没啥新意。 翘首以盼的新机也得等到 9 月份才会遍地开花。 这其中让人备受期待的肯定有苹果的一票&#xff0c;而最近苹果新机的消息也渐渐浮出水面了。…

IEC62056标准体系简介-4.IEC62056-53 COSEM应用层

为在通信介质中传输COSEM对象模型&#xff0c;IEC62056参照OSI参考模型&#xff0c;制定了简化的三层通信模型&#xff0c;包括应用层、数据链路层&#xff08;或中间协议层&#xff09;和物理层&#xff0c;如图6所示。COSEM应用层完成对COSEM对象的属性和方法的访问&#xff…

Mysql如何高效ALTER TABL

ALTER TABLE 缺点 MySQL 的ALTER TABLE 操作的性能对大表来说是个大问题。 MySQL MySQL 执行大部分修改表结构操作的方法是用新结构的 创建一个&#xff0c;空表从旧表中查出所有数据插入&#xff0c;新表然后删除旧。表这样操作可能需要花费很长&#xff0c;时间 如内果存不…

【LeYOLO】嵌入式和移动端的轻量级YOLO模型

代码地址&#xff1a;https://github.com/LilianHollard/LeYOLO 论文地址&#xff1a;https://arxiv.org/pdf/2406.14239 在深度神经网络中&#xff0c;计算效率对于目标检测至关重要&#xff0c;尤其是在新模型更注重速度而非有效计算&#xff08;FLOP&#xff09;的情况下。这…

【算法入门-栈】逆波兰表达式求值

&#x1f4d6;逆波兰表达式求值 ✅描述✅扩展&#xff1a;什么是逆波兰表达式✅题解方法一&#xff1a;栈✅题解方法二&#xff08;数组模拟栈&#xff09; 今天又刷了一道题&#xff0c;奥利给 刷题地址&#xff1a; 点击跳转 ✅描述 给定一个逆波兰表达式&#xff0c;求表达…

anaconda修改安装的默认环境

&#x1f4da;博客主页&#xff1a;knighthood2001 ✨公众号&#xff1a;认知up吧 &#xff08;目前正在带领大家一起提升认知&#xff0c;感兴趣可以来围观一下&#xff09; &#x1f383;知识星球&#xff1a;【认知up吧|成长|副业】介绍 ❤️如遇文章付费&#xff0c;可先看…

简述设计模式-策略模式

概述 在策略模式中一个类的行为或者算法可以在运行时更改&#xff0c;这种类型的设计模式属于行为型模式。 在策略模式中定义了一系列的算法和策略&#xff0c;并将每个算法封装在独立的类中&#xff0c;使得他们能够互相替换&#xff0c;通过使用策略模式可以在运行时选择不…

类与对象-继承-同名成员处理

同名成员处理 #include<iostream> using namespace std;//继承中同名成员处理方式class Base { public:Base(){m_A 100;}void func(){cout << "Base - func()调用" << endl;}void func(int a){cout << "Base - func(int a)调用"…

大语言模型里的微调vs RAG vs 模板提示词

文章目录 介绍微调&#xff08;Fine-tuning&#xff09;定义优点&#xff1a;缺点&#xff1a;应用场景&#xff1a;技术细节 检索增强生成&#xff08;RAG&#xff0c;Retrieval-Augmented Generation&#xff09;定义优点&#xff1a;缺点&#xff1a;应用场景&#xff1a;技…

论文学习 StarGANv2 ——StarGAN v2: Diverse Image Synthesis for Multiple Domains

多领域不同图像合成 We have made dataset available at https://github.com/clovaai/stargan-v2. 摘要&#xff1a; 一个好的图像到图像转换模型应该学习不同视觉域之间的映射&#xff0c;同时满足以下属性: 1)生成图像的多样性 2)在多个域上的可扩展性。 现有的方法解决…

嵌入式应用开发之代码整洁之道

前言&#xff1a;本系列教程旨在如何将自己的代码写的整洁&#xff0c;同时也希望小伙伴们懂如何把代码写脏&#xff0c;以备不时之需&#xff0c;同时本系列参考 正点原子 &#xff0c; C代码整洁之道&#xff0c;编写可读的代码艺术。 #好的代码的特点 好的代码应该都有着几…

微软代码签名证书的申请流程包含哪几个关键步骤?

在软件开发环境中&#xff0c;确保软件的安全性和可信度至关重要。沃通CA提供的代码签名证书作为一种重要的安全措施&#xff0c;可以帮助开发者验证其软件的来源和完整性&#xff0c;有效地避免用户因安全顾虑而避免安装或使用软件。本文将详细介绍如何申请沃通CA代码签名证书…

《算法笔记》总结No.6——贪心

一.简单贪心 贪心法是求解一类最优化问题的方法&#xff0c;它总是考虑在当前状态下局部最优(或较优)之后&#xff0c;来使全局的结果达到最优(或较优)的策略。显然&#xff0c;如果采取较优而非最优的策略(最优策略可能不存在或是不易想到)&#xff0c;得到的全局结果也无法是…

springboot驾校管理系统-计算机毕业设计源码49777

驾校管理系统 摘 要 驾校管理系统是一个基于Spring Boot框架开发的系统&#xff0c;旨在帮助驾校提高管理效率和服务水平。该系统主要实现了用户管理、年月类型管理、区域信息管理、驾校信息管理、车辆信息管理、报名信息管理、缴费信息管理、财务信息管理、教练分配管理、更换…

雨量监测站的重要性有哪些

在全球气候变化和极端天气事件频发的背景下&#xff0c;雨量监测站成为了我们理解降水模式、预测天气变化以及制定应对措施的重要工具。 雨量监测站是一种专门用于测量和记录降水量的设施。它们通过配备高精度的雨量传感器&#xff0c;能够实时监测降雨情况&#xff0c;并提供关…

政安晨【零基础玩转各类开源AI项目】基于Ubuntu系统部署MuseV (踩完了所有的坑):基于视觉条件并行去噪的无限长度和高保真虚拟人视频生成

目录 下载项目 创建虚拟环境 启动虚拟环境&执行项目依赖 基于DOCKER的尝试 A. 安装引擎 B. 下载桌面安装包 C. 安装桌面包 用Docker运行MuseV 1. 拉取镜像 ​编辑 2. 运行Docker镜像 政安晨的个人主页&#xff1a;政安晨 欢迎 &#x1f44d;点赞✍评论⭐收藏 收…

HDFS 块重构和RedundancyMonitor详解

文章目录 1. 前言2 故障块的重构(Reconstruct)2.1 故障块的状态定义和各个状态的统计信息2.2 故障文件块的查找收集2.5.2.1 misReplica的检测2.5.2.2 延迟队列(postponedMisreplicatedBlocks)的构造和实现postponedMisreplicatedBlocks中Block的添加postponedMisreplicatedBloc…

在Visutal Studio 2022中完成D3D12初始化

在Visutal Studio 2022中完成DirectX设备初始化 1 DirectX121.1 DirectX 简介1.2 DirectX SDK安装2 D3D12初始化2.1 创建Windwos桌面项目2.2 修改符合模式2.3 下载d3dx12.h文件2.4 创建一个异常类D3DException,定义抛出异常实例的宏ThrowIfFailed3 D3D12的初始化步骤3.1 初始化…

智慧园区管理系统建设方案(Word完整原件)

1. 项目概述 1.1. 项目名称 1.2. 项目承担单位及负责人 1.3. 项目实施机构及项目负责人 1.4. 建设目标、内容 1.5.1建设目标 1.5.2建设内容 1.5. 建设方式 2.项目建设的必要性 2.1. 建设背景 2.2. 现状分析 2.3. 项目建设的必要性和意义 2.3.1.项目建设的必要性 2…

突发,众多网站流量被盗刷!事情没那么简单。。

这两天发生了一件震惊 IT 圈的大事&#xff0c;很多程序员博主的网站竟然 同时 被恶意攻击&#xff0c;盗刷了大把流量费&#xff0c;我这个老倒霉蛋自然也中招了&#xff0c;作为受害人&#xff0c;专门做了本次分享&#xff0c;希望其他有网站的朋友们也都小心点。 那为什么…