Kubernetes(k8s)集群部署----->超详细
- 一、资源准备
- 二、安装准备
- 2.1 主机环境设置
- 2.1.1 关闭操作系统防火墙、selinux
- 2.1.2 关闭swap交换分区
- 2.1.3 允许iptables检测桥接流量(可选)
- 2.2 安装Docker环境
- 2.3 安装Kubeadm、Kubelet和Kubectl
- 2.3.1 配置k8s的yum源(阿里云的源)
- 2.3.2 安装及版本检查
- 2.3.3 设置kubelet自启动
- 2.3.4 卸载
- 三、Kubernetes集群所需的镜像拉取
- 3.1 生成一个默认 kubeadm 初始化配置文件
- 3.2 列出当前Kubernetes集群所需的所有镜像列表及其版本信息
- 3.3 拉取所k8s需要的容器镜像
- 3.4 镜像检查
- 四、初始化Master节点
- 4.1 初始化报错解决
- 4.2 再次执行初始化报错解决
- 4.3 初始化完成,root用户执行命令
- 五、安装网络插件Calico
- 六、Worker节点部署
- 七、集群检查
- 八、集群测试--集群自我修复
- 九、 部署Dashboard
- 十、集群的加入令牌过期--处理
💖The Begin💖点点关注,收藏不迷路💖
|
Kubernetes(简称k8s)是一个开源的容器编排平台,可以帮助开发人员和运维团队更轻松地管理容器化应用程序。本文将详细介绍如何进行k8s集群的部署,以帮助读者快速搭建一个高可用、可伸缩的k8s集群。
一、资源准备
1、操作系统:至少三台物理机或虚拟机,具有至少2核4GB内存的配置,操作系统为Linux。
主机名 | IP |
---|---|
k8s-01 | 192.168.234.21 |
k8s-02 | 192.168.234.22 |
k8s-03 | 192.168.234.23 |
2、主机名设置:确保每台服务器都有唯一的主机名,并且主机名能够通过DNS解析进行互相访问。
3、网络设置:确保每台服务器之间可以互相通信,建议使用静态IP地址,并关闭防火墙或者开放必要的端口。
4、安装Docker:在每台服务器上安装Docker引擎。
二、安装准备
2.1 主机环境设置
在每台服务器上执行设置。
2.1.1 关闭操作系统防火墙、selinux
1、修改/etc/selinux/config文件中的SELINUX值为disabled
[root@k8s-01 ~]# vi /etc/selinux/config
2、修改SELINUX的值为disabled
SELINUX=disabled
或者使用命令设置:
sudo sed -i 's/^SELINUX=enforcing$/SELINUX=disabled/' /etc/selinux/config
3、检查防火墙是否关闭
[root@k8s-01 ~]# systemctl status firewalld
若防火墙状态显示为active (running),则表示防火墙未关闭
若防火墙状态显示为inactive (dead),则无需再关闭防火墙
4、关闭防火墙并禁止开机重启
[root@k8s-01 ~]# systemctl disable firewalld.service
[root@k8s-01 ~]# systemctl stop firewalld.service
2.1.2 关闭swap交换分区
关闭swap交换内存是为了保障数据库的访问性能,避免把数据库的缓冲区内存淘汰到磁盘上。 如果服务器内存比较小,内存过载时,可打开swap交换内存保障正常运行。
###永久关闭命令
[root@k8s-01 ~]# swapoff -a
sed -ri 's/.*swap.*/#&/' /etc/fstab
##目的是将swap那行注释,如下图所示:
###开启命令(不执行)
[root@k8s-01 ~]# swapon -a
2.1.3 允许iptables检测桥接流量(可选)
cat <<EOF | sudo tee /etc/modules-load.d/k8s.conf
br_netfilter
EOF
cat <<EOF | sudo tee /etc/sysctl.d/k8s.conf
net.bridge.bridge-nf-call-ip6tables = 1
net.bridge.bridge-nf-call-iptables = 1
EOF
# 加载所有配置
sudo sysctl --system
2.2 安装Docker环境
安装Docker:在每台服务器上安装Docker,Kubernetes依赖于Docker来运行容器。
docker 安装可参考前面的文章:Docker基础入门:Docker起源、组成、安装、及常用命令
[root@k8s-01 ~]# docker -v #查看是否安装成功
Docker version 20.10.7, build f0df350
[root@k8s-01 ~]#
2.3 安装Kubeadm、Kubelet和Kubectl
在每台服务器上安装Kubeadm、Kubelet和Kubectl,这些工具将帮助我们部署和管理Kubernetes集群。
Kubeadm、Kubelet和Kubectl是Kubernetes中的三个核心组件。
1、Kubeadm:Kubeadm是用于初始化和设置Kubernetes集群的工具。它负责启动集群的控制平面组件(如API服务器、控制器管理器和调度器)以及节点上的网络插件(如Flannel、Calico等)。Kubeadm还处理证书和安全性设置,并提供了一种简化的方式来添加或删除节点。
2、Kubelet:Kubelet是每个节点上运行的主要代理程序,负责管理该节点上的容器和Pod。它与控制平面通信,接收Pod的调度信息并确保它们在节点上正确运行。Kubelet还监控容器的状态,并在需要时重启失败的容器。
3、Kubectl:Kubectl是Kubernetes的命令行工具,用于与Kubernetes集群进行交互。它允许用户创建、管理和监视Kubernetes对象,如Pod、Service、Deployment等。Kubectl可以通过命令行界面执行各种操作,例如创建和删除资源、查看集群状态、日志记录和调试。
这三个组件共同协作,使得用户能够轻松地部署、管理和监控Kubernetes集群,并与集群进行交互。
2.3.1 配置k8s的yum源(阿里云的源)
在每台服务器上执行:
cat > /etc/yum.repos.d/kubernetes.repo << EOF
[kubernetes]
name=Kubernetes
baseurl=http://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64
enabled=1
gpgcheck=1
repo_gpgcheck=0
gpgkey=http://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg
http://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg
EOF
2.3.2 安装及版本检查
执行以下命令开始安装。
## 指定版本安装
sudo yum install -y kubelet-1.24.1 kubeadm-1.24.1 kubectl-1.24.1 --disableexcludes=kubernetes
## 或 yum install 安装最新版
sudo yum install kubelet kubeadm kubectl
## 版本检查
kubeadm version
2.3.3 设置kubelet自启动
## 所有服务器执行
systemctl enable --now kubelet
##kubelet状态查看
systemctl status kubelet
## 获取有关kubeadm软件包的详细信息的命令
yum info kubeadm
2.3.4 卸载
sudo apt-get remove kubelet kubectl kubeadm
三、Kubernetes集群所需的镜像拉取
3.1 生成一个默认 kubeadm 初始化配置文件
kubeadm config print init-defaults >kubeadm-init.yaml
## 将k8s.gcr.io 修改为阿里云地址 :registry.aliyuncs.com/google_containers
3.2 列出当前Kubernetes集群所需的所有镜像列表及其版本信息
kubeadm config images list
[root@k8s-01 ~]# kubeadm config images list
I1213 18:44:19.052543 11505 version.go:255] remote version is much newer: v1.28.4; falling back to: stable-1.24
k8s.gcr.io/kube-apiserver:v1.24.17
k8s.gcr.io/kube-controller-manager:v1.24.17
k8s.gcr.io/kube-scheduler:v1.24.17
k8s.gcr.io/kube-proxy:v1.24.17
k8s.gcr.io/pause:3.7
k8s.gcr.io/etcd:3.5.3-0
k8s.gcr.io/coredns/coredns:v1.8.6
[root@k8s-01 ~]#
3.3 拉取所k8s需要的容器镜像
## 单条批量执行
docker pull registry.aliyuncs.com/google_containers/kube-apiserver:v1.24.17
docker pull registry.aliyuncs.com/google_containers/kube-controller-manager:v1.24.17
docker pull registry.aliyuncs.com/google_containers/kube-scheduler:v1.24.17
docker pull registry.aliyuncs.com/google_containers/kube-proxy:v1.24.17
docker pull registry.aliyuncs.com/google_containers/pause:3.7
docker pull registry.aliyuncs.com/google_containers/etcd:3.5.3-0
docker pull registry.aliyuncs.com/google_containers/coredns:v1.8.6
## 或者使用脚本执行批量拉取
sudo tee ./images.sh <<-'EOF'
#!/bin/bash
images=(
kube-apiserver:v1.24.17
kube-controller-manager:v1.24.17
kube-scheduler:v1.24.17
kube-proxy:v1.24.17
pause:3.7
etcd:3.5.3-0
coredns:v1.8.6
)
for imageName in ${images[@]} ; do
docker pull registry.aliyuncs.com/google_containers/$imageName
done
EOF
## Shell脚本命令,用于给当前目录下的images.sh文件添加执行权限,并执行该文件。
chmod +x ./images.sh && ./images.sh
3.4 镜像检查
docker images
四、初始化Master节点
初始化Master节点:使用Kubeadm初始化Master节点,该命令将自动完成Kubernetes的初始化配置。
kubeadm init \
--apiserver-advertise-address=192.168.234.21 \
--control-plane-endpoint=k8s-01 \
--image-repository registry.aliyuncs.com/google_containers \
--kubernetes-version v1.24.1 \
--service-cidr=10.11.0.0/16 \
--pod-network-cidr=172.30.0.0/16
具体的参数解释如下:
--apiserver-advertise-address=192.168.0.113:指定API服务器的广播地址,即集群内其他节点访问API服务器的地址。
--image-repository registry.aliyuncs.com/google_containers:指定所使用的镜像仓库地址,这里使用了阿里云的镜像仓库地址。
--kubernetes-version v1.22.1:指定初始化集群时使用的Kubernetes版本。
--service-cidr=10.11.0.0/16:指定Service的IP地址段,Service是Kubernetes中用于提供服务发现和负载均衡的组件。
--pod-network-cidr=172.30.0.0/16:指定Pod的IP地址段,Pod是Kubernetes中最小的调度单位。
4.1 初始化报错解决
报错1:
[root@k8s-01 ~]# kubeadm init \
> --apiserver-advertise-address=192.168.234.21 \
> --control-plane-endpoint=k8s-01 \
> --image-repository registry.aliyuncs.com/google_containers \
> --kubernetes-version v1.24.1 \
> --service-cidr=10.11.0.0/16 \
> --pod-network-cidr=172.30.0.0/16
[init] Using Kubernetes version: v1.24.1
[preflight] Running pre-flight checks
error execution phase preflight: [preflight] Some fatal errors occurred:
[ERROR CRI]: container runtime is not running: output: time="2023-12-13T20:40:14+08:00" level=fatal msg="validate service connection: CRI v1 runtime API is not implemented for endpoint \"unix:///var/run/containerd/containerd.sock\": rpc error: code = Unimplemented desc = unknown service runtime.v1.RuntimeService"
, error: exit status 1
[preflight] If you know what you are doing, you can make a check non-fatal with `--ignore-preflight-errors=...`
To see the stack trace of this error execute with --v=5 or higher
[root@k8s-01 ~]#
解决:
注意:kubernetes 1.24+版本之后,docker必须要加装cir-docker。
cir-docker下载链接: https://pan.baidu.com/s/1ZCmY07McMdicB-bdQvnSeA
提取码: ivax
1、上传安装cir-docker
[root@k8s-01 ~]# ll
total 12952
-rw-------. 1 root root 1419 Dec 12 16:09 anaconda-ks.cfg
-rw-r--r--. 1 root root 886 May 26 2021 config.toml.bak
-rw-r--r-- 1 root root 13242440 Dec 13 20:59 cri-dockerd-0.3.4.amd64.tgz
-rwxr-xr-x. 1 root root 269 Dec 13 19:28 images.sh
-rw-r--r--. 1 root root 859 Dec 13 19:55 kubeadm-init.yaml
[root@k8s-01 ~]# tar -xf cri-dockerd-0.3.4.amd64.tgz -C /usr/local/
[root@k8s-01 ~]# cd /usr/local/
[root@k8s-01 local]# mv cri-dockerd/cri-dockerd /usr/local/bin
[root@k8s-01 local]# cri-dockerd --version
cri-dockerd 0.3.4 (e88b1605)
[root@k8s-01 local]#
2、配置开机自启
[root@k8s-01 local]# vi /etc/systemd/system/cri-dockerd.service
添加内容:
[Unit]
Description=CRI Interface for Docker Application Container Engine
Documentation=https://docs.mirantis.com
After=network-online.target firewalld.service docker.service
Wants=network-online.target
[Service]
Type=notify
ExecStart=/usr/local/bin/cri-dockerd --pod-infra-container-image=registry.cn-hangzhou.aliyuncs.com/google_containers/pause:3.9 --network-plugin=cni --cni-conf-dir=/etc/cni/net.d --cni-bin-dir=/opt/cni/bin --container-runtime-endpoint=unix:///var/run/cri-dockerd.sock --cri-dockerd-root-directory=/var/lib/dockershim --docker-endpoint=unix:///var/run/docker.sock --cri-dockerd-root-directory=/var/lib/docker
ExecReload=/bin/kill -s HUP $MAINPID
TimeoutSec=0
RestartSec=2
Restart=always
StartLimitBurst=3
StartLimitInterval=60s
LimitNOFILE=infinity
LimitNPROC=infinity
LimitCORE=infinity
TasksMax=infinity
Delegate=yes
KillMode=process
[Install]
WantedBy=multi-user.target
[root@k8s-01 local]# vi /etc/systemd/system/cri-dockerd.socket
添加内容:
[Unit]
Description=CRI Docker Socket for the API
PartOf=cri-docker.service
[Socket]
ListenStream=/var/run/cri-dockerd.sock
SocketMode=0660
SocketUser=root
SocketGroup=docker
[Install]
WantedBy=sockets.target
3、设置开机自启
systemctl daemon-reload
systemctl start cri-dockerd.service
systemctl enable cri-dockerd.service
4.2 再次执行初始化报错解决
kubeadm init \
--apiserver-advertise-address=192.168.234.21 \
--control-plane-endpoint=k8s-01 \
--image-repository registry.aliyuncs.com/google_containers \
--kubernetes-version v1.24.1 \
--service-cidr=10.11.0.0/16 \
--pod-network-cidr=172.30.0.0/16
报错2:
[root@k8s-01 ~]# kubeadm init \
> --apiserver-advertise-address=192.168.234.21 \
> --control-plane-endpoint=k8s-01 \
> --image-repository registry.aliyuncs.com/google_containers \
> --kubernetes-version v1.24.1 \
> --service-cidr=10.11.0.0/16 \
> --pod-network-cidr=172.30.0.0/16
Found multiple CRI endpoints on the host. Please define which one do you wish to use by setting the 'criSocket' field in the kubeadm configuration file: unix:///var/run/containerd/containerd.sock, unix:///var/run/cri-dockerd.sock
To see the stack trace of this error execute with --v=5 or higher
[root@k8s-01 ~]#
解决:
报错原因:没有整合kubelet和cri-dockerd。
3、解决办法,在命令后面加上以下选项
--cri-socket unix:///var/run/cri-dockerd.sock
完整命令:
kubeadm init \
--apiserver-advertise-address=192.168.234.21 \
--control-plane-endpoint=k8s-01 \
--image-repository registry.aliyuncs.com/google_containers \
--kubernetes-version v1.24.1 \
--service-cidr=10.11.0.0/16 \
--pod-network-cidr=172.30.0.0/16 \
--cri-socket unix:///var/run/cri-dockerd.sock
初始化正常:
Your Kubernetes control-plane has initialized successfully!
这个消息表示Kubernetes控制平面已经成功初始化。
以下输出信息,复制保存。
Your Kubernetes control-plane has initialized successfully!
To start using your cluster, you need to run the following as a regular user:
mkdir -p $HOME/.kube
sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
sudo chown $(id -u):$(id -g) $HOME/.kube/config
Alternatively, if you are the root user, you can run:
export KUBECONFIG=/etc/kubernetes/admin.conf
You should now deploy a pod network to the cluster.
Run "kubectl apply -f [podnetwork].yaml" with one of the options listed at:
https://kubernetes.io/docs/concepts/cluster-administration/addons/
You can now join any number of control-plane nodes by copying certificate authorities
and service account keys on each node and then running the following as root:
kubeadm join k8s-01:6443 --token 5sevvb.yo465pjpjogd7j21 \
--discovery-token-ca-cert-hash sha256:210b469de41249798071688b67f618e2f69d28a6694aeec412c89b281c391c1c \
--control-plane
Then you can join any number of worker nodes by running the following on each as root:
kubeadm join k8s-01:6443 --token 5sevvb.yo465pjpjogd7j21 \
--discovery-token-ca-cert-hash sha256:210b469de41249798071688b67f618e2f69d28a6694aeec412c89b281c391c1c
翻译:
你的Kubernetes控制平面已经成功初始化!
要开始使用你的集群,你需要以普通用户身份运行以下命令:
mkdir -p $HOME/.kube
sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
sudo chown $(id -u):$(id -g) $HOME/.kube/config
或者,如果你是root用户,可以运行以下命令:
export KUBECONFIG=/etc/kubernetes/admin.conf
现在,你应该在集群中部署一个pod网络。
运行 “kubectl apply -f [podnetwork].yaml” 命令,选择其中一个选项,参考链接:
https://kubernetes.io/docs/concepts/cluster-administration/addons/
你现在可以通过在每个节点上复制证书机构和服务帐户密钥,然后以root身份运行以下命令来加入任意数量的控制平面节点:
kubeadm join k8s-01:6443 –token 5sevvb.yo465pjpjogd7j21
–discovery-token-ca-cert-hash sha256:210b469de41249798071688b67f618e2f69d28a6694aeec412c89b281c391c1c
–control-plane
然后,你可以通过在每个工作节点上以root身份运行以下命令来加入任意数量的工作节点:
kubeadm join k8s-01:6443 –token 5sevvb.yo465pjpjogd7j21
–discovery-token-ca-cert-hash sha256:210b469de41249798071688b67f618e2f69d28a6694aeec412c89b281c391c1c
4.3 初始化完成,root用户执行命令
mkdir -p $HOME/.kube
sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
sudo chown $(id -u):$(id -g) $HOME/.kube/config
五、安装网络插件Calico
安装网络插件:选择一种网络插件,如Flannel、Calico等,并在Master节点上安装和配置该插件。
1、使用wget工具下载指定URL的文件calico.yaml,并且禁用SSL证书验证
wget https://docs.projectcalico.org/v3.25/manifests/calico.yaml --no-check-certificate
2、将清单文件(calico.yaml)应用到Kubernetes集群中,apply是一个kubectl的子命令,用于创建或更新Kubernetes资源
kubectl apply -f calico.yaml
六、Worker节点部署
加入集群:在每个Worker节点上使用Kubeadm加入到Kubernetes集群中。
在每个从节点执行:
kubeadm join k8s-01:6443 --token 5sevvb.yo465pjpjogd7j21 \
--discovery-token-ca-cert-hash sha256:210b469de41249798071688b67f618e2f69d28a6694aeec412c89b281c391c1c \
--cri-socket unix:///var/run/cri-dockerd.sock
需要在末尾添加 --cri-socket unix:///var/run/cri-dockerd.sock:要不会报错:
Found multiple CRI endpoints on the host. Please define which one do you wish to use by setting the 'criSocket' field in the kubeadm configuration file: unix:///var/run/containerd/containerd.sock, unix:///var/run/cri-dockerd.sock
To see the stack trace of this error execute with --v=5 or higher
k8s-02:
k8s-03:
七、集群检查
1、获取所有命名空间中的所有Pod的信息。
kubectl get pod -A
##所有都为runing状态
2、获取集群中的所有节点列表。
kubectl get nodes
NAME:节点的名称。
STATUS:节点的状态,包括 Ready(准备就绪)和 NotReady(未准备就绪)。
ROLES:节点的角色,如 master(主节点)和 worker(工作节点)。
AGE:节点的运行时间。
VERSION:节点上运行的 Kubernetes 版本。
八、集群测试–集群自我修复
三台设备reboot重启。三台设备重新启动后,集群应该能够自动检测到它们的重新加入,并将它们纳入集群的运行中。
重启后集群运行正常。
部署示例应用:在Kubernetes集群中部署一个简单的示例应用,如一个Nginx服务。
验证应用状态:通过Kubectl命令或者Dashboard界面,验证示例应用的状态是否正常运行。
水平扩展应用:通过增加Pod的数量,测试集群的水平扩展能力。
高可用测试:模拟Master节点故障,测试集群的高可用性。
九、 部署Dashboard
可选步骤,如果需要可视化的管理界面,可以在Master节点上部署Dashboard。
1、Kubernetes Dashboard项目在Github上的源代码文件kubernetes-dashboard.yaml。保存为kubernetes-dashboard.yaml文件。
curl -o kubernetes-dashboard.yaml https://raw.githubusercontent.com/kubernetes/dashboard/v2.6.1/aio/deploy/recommended.yaml
2、根据提供的kubernetes-dashboard.yaml文件中的配置信息,创建或更新Kubernetes Dashboard资源。
kubectl apply -f kubernetes-dashboard.yaml --validate=false
3、获取kube-system命名空间中的所有pods的详细信息
kubectl get pods -n kube-system -o wide
4、修改访问端口
kubectl edit svc kubernetes-dashboard -n kubernetes-dashboard
5、通过grep命令筛选出带有”kubernetes-dashboard”关键字的服务
kubectl get svc -A | grep kubernetes-dashboard
30187 即为对外暴露的端口。
6、浏览器访问测试:https://192.168.234.21:30187/#/login
ip 可以是集群任意IP
7、创建管理员角色, dashboard-adminuser.yaml
cat >>dashboard-adminuser.yaml<<'EOF'
apiVersion: v1
kind: ServiceAccount
metadata:
name: admin-user
namespace: kubernetes-dashboard
---
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRoleBinding
metadata:
name: admin-user
roleRef:
apiGroup: rbac.authorization.k8s.io
kind: ClusterRole
name: cluster-admin
subjects:
- kind: ServiceAccount
name: admin-user
namespace: kubernetes-dashboard
---
apiVersion: v1
kind: Secret
metadata:
name: admin-user
namespace: kubernetes-dashboard
annotations:
kubernetes.io/service-account.name: "admin-user"
type: kubernetes.io/service-account-token
EOF
8、kubectl apply -f dashboard-adminuser.yaml
kubectl get secret admin-user -n kubernetes-dashboard -o jsonpath={".data.token"} | base64 -d
#复制上面命令返回的token到web页面即可登录。
十、集群的加入令牌过期–处理
当Kubernetes集群的加入令牌过期时,可以采取以下步骤进行处理:
1、首先,检查是否有其他有效的加入令牌可用。可以通过运行以下命令获取可用的加入令牌列表:
kubeadm token list
2、如果有其他有效的加入令牌可用,可以使用该令牌重新加入集群。运行以下命令以使用新的令牌加入集群:
kubeadm token create --print-join-command
结语:
本文详细介绍了Kubernetes分布式部署的实用步骤,希望能够帮助读者顺利部署和管理自己的Kubernetes集群。
Kubernetes作为一款强大的容器编排工具,能够帮助我们更高效地管理和运行容器化应用,提高应用的可靠性和可伸缩性。祝您在Kubernetes的世界里探索出更多的可能性!
💖The End💖点点关注,收藏不迷路💖
|