Kubernetes简介与部署+Pod管理与优化

news2024/11/27 22:45:14

一、简介

1.基础信息

  1. 在Docker 作为高级容器引擎快速发展的同时,在Google内部,容器技术已经应用了很多年Borg系统运行管理着成干上万的容器应用。
  2. Kubernetes项目来源于Borg,可以说是集结了Borg设计思想的精华,并且吸收了Borg系统中的经验和教训。
  3. Kubernetes对计算资源进行了更高层次的抽象,通过将容器进行细致的组合,将最终的应用服务交给用户。

kubernetes的本质是一组服务器集群,它可以在集群的每个节点上运行特定的程序,来对节点中的容器进行管理。目的是实现资源管理的自动化,主要提供了如下的主要功能:

  • 自我修复:一旦某一个容器崩溃,能够在1秒中左右迅速启动新的容器
  • 弹性伸缩:可以根据需要,自动对集群中正在运行的容器数量进行调整
  • 服务发现:服务可以通过自动发现的形式找到它所依赖的服务
  • 负载均衡:如果一个服务起动了多个容器,能够自动实现请求的负载均衡
  • 版本回退:如果发现新发布的程序版本有问题,可以立即回退到原来的版本
  • 存储编排:可以根据容器自身的需求自动创建存储卷

 

二、部署

1、实验环境

k8s-master172.25.254.200
k8s-node1172.25.254.10
k8s-node2172.25.254.20
docker-node1             172.25.254.100(harbor仓库)

2、相关操作

  • 1.基础配置

# 添加解析      三台主机都需添加
[root@k8s-node2 ~]# vim /etc/hosts
[root@k8s-node2 ~]# cat /etc/hosts 
172.25.254.200  k8s-master.txy.org
172.25.254.10 k8s-node1.txy.org
172.25.254.20 k8s-node2.txy.org


安装docker,确保登录成功

# 安装docker
[root@k8s-master ~]# ls
anaconda-ks.cfg  docker.tar.gz  Downloads  Pictures  Templates  zuoyedir
Desktop          Documents      Music      Public    Videos
[root@k8s-master ~]# tar zxf docker.tar.gz 
[root@k8s-master ~]# ls
anaconda-ks.cfg                               docker-ce-rootless-extras-27.1.2-1.el9.x86_64.rpm  Pictures
containerd.io-1.7.20-3.1.el9.x86_64.rpm       docker-compose-plugin-2.29.1-1.el9.x86_64.rpm      Public
Desktop                                       docker.tar.gz                                      Templates
docker-buildx-plugin-0.16.2-1.el9.x86_64.rpm  Documents                                          Videos
docker-ce-27.1.2-1.el9.x86_64.rpm             Downloads                                          zuoyedir
docker-ce-cli-27.1.2-1.el9.x86_64.rpm         Music
[root@k8s-master ~]# dnf install *.rpm -y
 
[root@docker ~]# cd certs/
[root@docker certs]# ls
txy.org.crt  txy.org.key
[root@k8s-master ~]# mkdir /etc/docker/certs.d/reg.txy.org/ -p
# 传给三个主机
[root@docker-node1 certs]# scp /root/certs/txy.org.crt root@172.25.254.200:/etc/docker/certs.d/reg.txy.org/ca.crt
 
[root@k8s-master ~]# vim /etc/hosts    # 添加reg.txy.org的解析
[root@k8s-master ~]# docker login reg.txy.org
Username: txy
Password: 
WARNING! Your password will be stored unencrypted in /root/.docker/config.json.
Configure a credential helper to remove this warning. See
https://docs.docker.com/engine/reference/commandline/login/#credential-stores
 
Login Succeeded

[root@k8s-master ~]# scp *.rpm root@172.25.254.10:/root
[root@k8s-master ~]# scp *.rpm root@172.25.254.20:/root
[root@k8s-node1 ~]# dnf install *.rpm -y
[root@k8s-node2 ~]# dnf install *.rpm -y
[root@k8s-master ~]# scp -r /etc/docker/ root@172.25.254.10:/etc/
[root@k8s-master ~]# scp -r /etc/docker/ root@172.25.254.20:/etc/
[root@k8s-node1 docker]# systemctl enable --now docker
[root@k8s-node2 docker]# systemctl enable --now docker
 
[root@k8s-node1 docker]# vim /etc/hosts    # 添加解析 reg.txy.org - 172.25.254.100
[root@k8s-node2 docker]# vim /etc/hosts
# 若harbor仓库出现登录不上的情况,则
[root@docker-node1 harbor]# ./install.sh --with-chartmuseum
[root@docker-node1 harbor]# docker compose stop
[root@docker-node1 harbor]# docker compose up -d
 
[root@docker-node1 harbor]# vim /etc/docker/daemon.json 
[root@docker-node1 harbor]# systemctl daemon-reload
[root@docker-node1 harbor]# systemctl restart docker
[root@docker-node1 harbor]# docker logout reg.txy.org
Removing login credentials for reg.txy.org
[root@docker-node1 harbor]# docker login reg.txy.org
Username: admin
Password: 
WARNING! Your password will be stored unencrypted in /root/.docker/config.json.
Configure a credential helper to remove this warning. See
https://docs.docker.com/engine/reference/commandline/login/#credential-stores
 
Login Succeeded
[root@docker-node1 harbor]# cat /etc/docker/daemon.json 
{
	"registry-mirrors": ["https://reg.txy.org","http://hub-mirror.c.163.com"]
}
  • 2.所有禁用swap和本地解析  ( 注释swap后,需重启生效)

[root@k8s-node1 docker]# systemctl mask dev-nvme0n1p3.swap
Unit dev-nvme0n1p3.swap does not exist, proceeding anyway.
Created symlink /etc/systemd/system/dev-nvme0n1p3.swap → /dev/null.
[root@k8s-node1 docker]# swapoff -a
 
[root@k8s-node2 docker]# systemctl mask dev-nvme0n1p3.swap
Unit dev-nvme0n1p3.swap does not exist, proceeding anyway.
Created symlink /etc/systemd/system/dev-nvme0n1p3.swap → /dev/null.
[root@k8s-node2 docker]# swapoff -a
 
[root@k8s-master ~]# systemctl mask dev-nvme0n1p3.swap
Unit dev-nvme0n1p3.swap does not exist, proceeding anyway.
Created symlink /etc/systemd/system/dev-nvme0n1p3.swap → /dev/null.
[root@k8s-master ~]# swapoff -a
[root@k8s-master ~]# vim /etc/fstab    
  • 3.安装K8S部署工具

 

[root@k8s-master ~]# mkdir /software
[root@k8s-master ~]# mv cri-dockerd-0.3.14-3.el8.x86_64.rpm libcgroup-0.41-19.el8.x86_64.rpm /software/
[root@k8s-master ~]# cd /software/
[root@k8s-master software]# ls
cri-dockerd-0.3.14-3.el8.x86_64.rpm  libcgroup-0.41-19.el8.x86_64.rpm
[root@k8s-master software]# dnf install *.rpm -y
[root@k8s-master software]# systemctl start cri-docker
 
[root@k8s-master software]# scp cri-dockerd-0.3.14-3.el8.x86_64.rpm libcgroup-0.41-19.el8.x86_64.rpm root@172.25.254.10:/software/
[root@k8s-master software]# scp cri-dockerd-0.3.14-3.el8.x86_64.rpm libcgroup-0.41-19.el8.x86_64.rpm root@172.25.254.20:/software/
 
[root@k8s-node1 ~]# mkdir software/
[root@k8s-node1 ~]# dnf install /software/*.rpm -y
[root@k8s-node2 ~]# mkdir software/
[root@k8s-node2 ~]# dnf install /software/*.rpm -y
 
[root@k8s-master software]# systemctl enable --now cri-docker
[root@k8s-node1 ~]# systemctl enable --now cri-docker
[root@k8s-node2 ~]# systemctl enable --now cri-docker
 
[root@k8s-master yum.repos.d]# vim k8s.repo 
[root@k8s-master yum.repos.d]# cat k8s.repo 
[k8s]
name=k8s
baseurl=https://mirrors.aliyun.com/kubernetes-new/core/stable/v1.30/rpm
gpgcheck=0
[root@k8s-master yum.repos.d]# dnf makecache
 
[root@k8s-master ~]# dnf install kubelet-1.30.0-150500.1.1 kubeadm-1.30.0-150500.1.1 --downloadonly --downloaddir=/software
或[root@k8s-master ~]# dnf install kubelet-1.30.0 kubeadm-1.30.0 kubectl-1.30.0 -y
 
[root@k8s-master ~]# dnf install bash-completion -y
[root@k8s-master ~]# echo "source <(kubectl completion bash)" >> ~/.bashrc
[root@k8s-master ~]# source  ~/.bashrc
 
#拉取k8s集群所需要的镜像
[root@k8s-master ~]# kubeadm config images pull --image-repository registry.aliyuncs.com/google_containers --kubernetes-version v1.30.0 --cri-socket=unix:///var/run/cri-dockerd.sock
[config/images] Pulled registry.aliyuncs.com/google_containers/kube-apiserver:v1.30.0
[config/images] Pulled registry.aliyuncs.com/google_containers/kube-controller-manager:v1.30.0
[config/images] Pulled registry.aliyuncs.com/google_containers/kube-scheduler:v1.30.0
[config/images] Pulled registry.aliyuncs.com/google_containers/kube-proxy:v1.30.0
[config/images] Pulled registry.aliyuncs.com/google_containers/coredns:v1.11.1
[config/images] Pulled registry.aliyuncs.com/google_containers/pause:3.9
[config/images] Pulled registry.aliyuncs.com/google_containers/etcd:3.5.12-0

# 上传镜像到harbor仓库
[root@k8s-master yum.repos.d]# docker images | awk '/google/{ print $1":"$2}' | awk -F "/" '{system("docker tag "$0" reg.txy.org/k8s/"$3)}'
[root@k8s-master ~]# docker login reg.txy.org -u admin
# pull 的前提是得先在harbor仓库中创建k8s这个项目
[root@k8s-master yum.repos.d]# docker images  | awk '/k8s/{system("docker push "$1":"$2)}'

4.集群初始化 

#启动kubelet服务
[root@k8s-master ~]# systemctl status kubelet.service
 
#指定网络插件名称及基础容器镜像    
[root@k8s-master ~]# vim /lib/systemd/system/cri-docker.service
ExecStart=/usr/bin/cri-dockerd --container-runtime-endpoint fd:// --network-plugin=cni --pod-infra-container-image=reg.txy.org/k8s/pause:3.9
[root@k8s-master ~]# systemctl daemon-reload 
[root@k8s-master ~]# systemctl restart cri-docker
[root@k8s-master ~]# ll /var/run/cri-dockerd.sock
srw-rw---- 1 root docker 0 Sep 10 09:26 /var/run/cri-dockerd.sock
[root@k8s-master ~]# scp /lib/systemd/system/cri-docker.service root@172.25.254.10:/lib/systemd/system/cri-docker.service
[root@k8s-master ~]# scp /lib/systemd/system/cri-docker.service root@172.25.254.20:/lib/systemd/system/cri-docker.service
[root@k8s-node1 ~]# systemctl daemon-reload
[root@k8s-node2 ~]# systemctl daemon-reload
[root@k8s-node1 ~]# systemctl restart cri-docker
[root@k8s-node2 ~]# systemctl restart cri-docker
 
#执行初始化命令
[root@k8s-master ~]# kubeadm init --pod-network-cidr=172.25.0.0/16 --image-repository reg.txy.org/k8s --kubernetes-version v1.30.0 --cri-socket=unix:///var/run/cri-dockerd.sock
 
[root@k8s-master ~]# kubeadm config images list
I0910 11:54:29.962229   41325 version.go:256] remote version is much newer: v1.31.0; falling back to: stable-1.30
registry.k8s.io/kube-apiserver:v1.30.4
registry.k8s.io/kube-controller-manager:v1.30.4
registry.k8s.io/kube-scheduler:v1.30.4
registry.k8s.io/kube-proxy:v1.30.4
registry.k8s.io/coredns/coredns:v1.11.1
registry.k8s.io/pause:3.9
registry.k8s.io/etcd:3.5.12-0
 

# 若初始化失败,则重置
[root@k8s-master ~]# kubeadm reset --cri-socket=unix:///var/run/cri-dockerd.sock    

5.安装flannel网络插件 

#指定集群配置文件变量
[root@k8s-master ~]# export KUBECONFIG=/etc/kubernetes/admin.conf
#当前节点没有就绪,还没有安装网络插件,容器没有运行
[root@k8s-master ~]# kubectl get nodes
NAME                STATUS     ROLES           AGE     VERSION
k8s-master.zx.org   NotReady   control-plane   5m41s   v1.30.0
[root@k8s-master ~]# echo "export KUBECONFIG=/etc/kubernetes/admin.conf" >> ~/.bash_profile
[root@k8s-master ~]# source ~/.bash_profile
 
[root@k8s-master ~]# vim kube-flannel.yml     # 将镜像下载地址改成本地(image)
[root@k8s-master ~]# grep -n image kube-flannel.yml    #需要修改以下几行
146:        image: flannel/flannel:v0.25.5
173:        image: flannel/flannel-cni-plugin:v1.5.1-flannel1
184:        image: flannel/flannel:v0.25.5
 
[root@k8s-master ~]# docker load -i flannel-0.25.5.tag.gz 
 
# docker仓库中新建flannel项目
# 打标签上传
[root@k8s-master ~]# docker tag flannel/flannel:v0.25.5 
[root@k8s-master ~]# docker push reg.txy.org/flannel/flannel:v0.25.5
[root@k8s-master ~]# docker tag flannel/flannel-cni-plugin:v1.5.1-flannel1 
[root@k8s-master ~]# docker push reg.txy.org/flannel/flannel-cni-plugin:v1.5.1-flannel1
 
#安装flannel网络插件
[root@k8s-master ~]# kubectl apply -f kube-flannel.yml 
namespace/kube-flannel created
serviceaccount/flannel created
clusterrole.rbac.authorization.k8s.io/flannel created
clusterrolebinding.rbac.authorization.k8s.io/flannel created
configmap/kube-flannel-cfg created
daemonset.apps/kube-flannel-ds created
 
[root@k8s-master ~]# kubectl get nodes
NAME                STATUS   ROLES           AGE   VERSION
k8s-master.txy.org   Ready    control-plane   25m   v1.30.0

6.节点扩容

在所有的worker节点中

1 确认部署好以下内容

2 禁用swap

3 安装:

kubelet-1.30.0

kubeadm-1.30.0

kubectl-1.30.0

docker-ce

cri-dockerd

4 修改cri-dockerd启动文件添加

--network-plugin=cni

--pod-infra-container-image=reg.txy.org/k8s/pause:3.9

5 启动服务

kubelet.service

cri-docker.service

确认完毕信息后即可加入集群

# 这个阶段如果生成的集群token(初始化时生成)找不到了可以重新生成

[root@k8s-master ~]# kubeadm token create --print-join-command
 
[root@k8s-node1 ~]# kubeadm join 172.25.254.200:6443 --token lma300.jusxu3igmuk5dfym   --discovery-token-ca-cert-hash sha256:e107ffc608928f2337bf7742bc9b3024c6f7e179a15af2233e8092ae57c68a99 --cri-socket=unix:///var/run/cri-dockerd.sock
[root@k8s-node2 ~]# kubeadm join 172.25.254.200:6443 --token lma300.jusxu3igmuk5dfym   --discovery-token-ca-cert-hash sha256:e107ffc608928f2337bf7742bc9b3024c6f7e179a15af2233e8092ae57c68a99 --cri-socket=unix:///var/run/cri-dockerd.sock
[root@k8s-master ~]# kubectl get nodes 
NAME                STATUS   ROLES           AGE   VERSION
k8s-master.txy.org   Ready    control-plane   64m   v1.30.0
k8s-node1.txy.org    Ready    <none>          32m   v1.30.0
k8s-node2.txy.org    Ready    <none>          32m   v1.30.0
 
# 测试集群运行情况
[root@k8s-master ~]# kubectl run test --image nginx        #建立一个pod
pod/test created
[root@k8s-master ~]# kubectl get pods                      #查看pod状态
# 重新做集群
[root@k8s-master ~]# kubectl delete nodes k8s-node1.txy.org
[root@k8s-master ~]# kubectl delete nodes k8s-node2.txy.org
[root@k8s-master ~]# kubeadm reset --cri-socket=unix:///var/run/cri-dockerd.sock
# 重新做初始化集群
[root@k8s-master ~]# kubeadm init --pod-network-cidr=10.244.0.0/16 \
--image-repository reg.txy.org/k8s \
--kubernetes-version v1.30.0 \
--cri-socket=unix:///var/run/cri-dockerd.sock
 
[root@k8s-master ~]# vim kube-flannel.yml    # 修改image
[root@k8s-master ~]# kubectl apply -f kube-flannel.yml
 
[root@k8s-node1 ~]# kubeadm reset --cri-socket=unix:///var/run/cri-dockerd.sock
[root@k8s-node2 ~]# kubeadm reset --cri-socket=unix:///var/run/cri-dockerd.sock
 
# 再重新将节点加入集群
[root@k8s-node1 ~]# kubeadm join 172.25.254.200:6443 --token lma300.jusxu3igmuk5dfym   --discovery-token-ca-cert-hash sha256:e107ffc608928f2337bf7742bc9b3024c6f7e179a15af2233e8092ae57c68a99 --cri-socket=unix:///var/run/cri-dockerd.sock
 
[root@k8s-node2 ~]# kubeadm join 172.25.254.200:6443 --token lma300.jusxu3igmuk5dfym   --discovery-token-ca-cert-hash sha256:e107ffc608928f2337bf7742bc9b3024c6f7e179a15af2233e8092ae57c68a99 --cri-socket=unix:///var/run/cri-dockerd.sock
[root@k8s-master ~]# kubectl get nodes 

三、kubernetes 中的资源

1、资源管理介绍

  • 在kubernetes中,所有的内容都抽象为资源,用户需要通过操作资源来管理kubernetes。
  • kubernetes的本质上就是一个集群系统,用户可以在集群中部署各种服务
  • 所谓的部署服务,其实就是在kubernetes集群中运行一个个的容器,并将指定的程序跑在容器中。
  • kubernetes的最小管理单元是pod而不是容器,只能将容器放在Pod中,
  • kubernetes一般也不会直接管理Pod,而是通过Pod控制器来管理Pod的。
  • Pod中服务服务的访问是由kubernetes提供的Service资源来实现。
  • Pod中程序的数据需要持久化是由kubernetes提供的各种存储系统来实现

2、资源管理方式

  • 命令式对象管理:直接使用命令去操作kubernetes资源

kubectl run nginx-pod --image=nginx:latest --port=80

  • 命令式对象配置:通过命令配置和配置文件去操作kubernetes资源

kubectl create/patch -f nginx-pod.yaml

  • 声明式对象配置:通过apply命令和配置文件去操作kubernetes资源

kubectl apply -f nginx-pod.yaml

类型适用环境优点缺点
命令式对象管理测试简单只能操作活动对象,无法审计、跟踪
命令式对象配置开发可以审计、跟踪项目大时,配置文件多,操作麻烦
声明式对象配置开发支持目录操作意外情况下难以调

1. 命令式对象管理


 kubectl是kubernetes集群的命令行工具,通过它能够对集群本身进行管理,并能够在集群上进行容器化应用的安装部署

kubectl命令的语法如下:

kubectl [command] [type] [name] [flags]

  • comand:指定要对资源执行的操作,例如create、get、delete
  • type:指定资源类型,比如deployment、pod、service
  • name:指定资源的名称,名称大小写敏感
  • flags:指定额外的可选参数

 # 查看所有pod
kubectl get pod 
 
# 查看某个pod
kubectl get pod pod_name
 
# 查看某个pod,以yaml格式展示结果
kubectl get pod pod_name -o yaml

2.资源类型

kubernetes中所有的内容都抽象为资源

kubectl api-resources

 

#显示集群版本
[root@k8s-master ~]# kubectl version
Client Version: v1.30.0
Kustomize Version: v5.0.4-0.20230601165947-6ce0bf390ce3
Server Version: v1.30.0
 
#显示集群信息
[root@k8s-master ~]# kubectl  cluster-info
 
#创建一个webcluster控制器,控制器中pod数量为2
[root@k8s-master ~]# kubectl create deployment webcluseter --image nginx --replicas 2
 
#查看控制器
[root@k8s-master ~]# kubectl get  deployments.apps
 
#查看资源帮助
[root@k8s-master ~]# kubectl explain deployment
 
#查看控制器参数帮助 
[root@k8s-master ~]# kubectl explain deployment.spec
 
[root@k8s-master ~]# kubectl run testpod --image nginx
pod/testpod created
[root@k8s-master ~]# kubectl run testpod1 --image nginx --dry-run=client -o yaml > testpod1.yml
[root@k8s-master ~]# ls
……    testpod1.yml    ……
                           
[root@k8s-master ~]# cat testpod1.yml 
apiVersion: v1
kind: Pod
metadata:
  creationTimestamp: null
  labels:
    run: testpod1
  name: testpod1
spec:
  containers:
  - image: nginx
    name: testpod1
    resources: {}
  dnsPolicy: ClusterFirst
  restartPolicy: Always
status: {}
[root@k8s-master ~]# kubectl create -f testpod1.yml 
pod/testpod1 created

[root@k8s-master ~]# docker load -i busyboxplus.tar.gz 
[root@k8s-master ~]# docker load -i myapp.tar.gz 
 
[root@k8s-master ~]# docker tag timinglee/myapp:v1 reg.txy.org/library/myapp:v1
[root@k8s-master ~]# docker tag timinglee/myapp:v2 reg.txy.org/library/myapp:v2
[root@k8s-master ~]# docker tag busyboxplus:latest reg.txy.org/library/busyboxplus:latest
 
[root@k8s-master ~]# docker push reg.txy.org/library/myapp:v1
[root@k8s-master ~]# docker push reg.txy.org/library/myapp:v2
[root@k8s-master ~]# docker push reg.txy.org/library/busyboxplus
[root@k8s-master ~]# kubectl cluster-info     #显示集群信息
 
[root@k8s-master ~]# kubectl run web --image reg.txy.org/library/myapp:v1
[root@k8s-master ~]# kubectl create deployment webcluster --image reg.zx.org/library/myapp:v1 --replicas 3
 
#查看控制器
[root@k8s-master ~]# kubectl get  deployments.apps
NAME         READY   UP-TO-DATE   AVAILABLE   AGE
webcluster   3/3     3            3           67s
 
#查看资源帮助
[root@k8s-master ~]# kubectl explain deployment
 
#查看控制器参数帮助 
[root@k8s-master ~]# kubectl explain deployment.spec
 
#编辑控制器配置
[root@k8s-master ~]# kubectl edit deployments.apps webcluster 
deployment.apps/webcluster edited
 
 
#利用补丁更改控制器配置
[root@k8s-master ~]# kubectl patch  deployments.apps webcluster -p '{"spec":{"replicas":2}}' 
deployment.apps/webcluster patched
[root@k8s-master ~]# kubectl get  deployments.apps
NAME         READY   UP-TO-DATE   AVAILABLE   AGE
webcluster   2/2     2            2           108s
 
 
# 删除资源
[root@k8s-master ~]# kubectl delete deployments.apps webcluster 
deployment.apps "webcluster" deleted
 

# 运行和调试命令示例
# 运行pod
[root@k8s-master ~]# kubectl run web1 --image reg.txy.org/library/myapp:v1
 
[root@k8s-master ~]# kubectl get pods
NAME                         READY   STATUS    RESTARTS   AGE
web                          1/1     Running   0          12m
web1                         1/1     Running   0          15s
webcluster-fc458bbdb-ht4w6   1/1     Running   0          3m29s
webcluster-fc458bbdb-xkcgh   1/1     Running   0          3m29s
 
# 端口暴漏
[root@k8s-master ~]# kubectl expose pod web1 --port 80 --target-port 80
service/web exposed
[root@k8s-master ~]# kubectl get services
NAME         TYPE        CLUSTER-IP      EXTERNAL-IP   PORT(S)   AGE
kubernetes   ClusterIP   10.96.0.1       <none>        443/TCP   21m
web1         ClusterIP   10.98.161.194   <none>        80/TCP    6s
 
#查看资源详细信息 
[root@k8s-master ~]# kubectl describe pods web 
[root@k8s-master ~]# curl 10.98.161.194
Hello MyApp | Version: v1 | <a href="hostname.html">Pod Name</a>



#利用命令生成yaml模板文件
[root@k8s-master ~]# kubectl run txy --image reg.txy.org/library/myapp:v1 --dry-run=client -o yaml
apiVersion: v1
kind: Pod
metadata:
  creationTimestamp: null
  labels:
    run: txy
  name: txy
spec:
  containers:
  - image: myapp:v1
    name: txy
    resources: {}
  dnsPolicy: ClusterFirst
  restartPolicy: Always
status: {}
[root@k8s-master ~]# kubectl run txy --image reg.txy.org/library/myapp:v1 --dry-run=client -o yaml > txy.yml
[root@k8s-master ~]# kubectl create deployment txy --image reg.txy.org/library/myapp:v1 --dry-run=client -o yaml > deployment-txy.yml
[root@k8s-master ~]# vim deployment-txy.yml 
[root@k8s-master ~]# kubectl apply -f deployment-txy.yml 
deployment.apps/txy created
[root@k8s-master ~]# kubectl get deployments.apps txy
NAME   READY   UP-TO-DATE   AVAILABLE   AGE
zx     0/1     1            0           11s
 
[root@k8s-master ~]# kubectl delete -f deployment-txy.yml 
deployment.apps "txy" deleted
 

 

#查看资源详细信息 
[root@k8s-master ~]# kubectl describe pods web
 
#查看资源日志
[root@k8s-master ~]# kubectl logs pods/web1
10.244.0.0 - - [13/Sep/2024:00:54:07 +0000] "GET / HTTP/1.1" 200 65 "-" "curl/7.76.1" "-"


#运行交互pod
[root@k8s-master ~]# kubectl run -it testpod --image reg.txy.org/library/busyboxplus
If you don't see a command prompt, try pressing enter.        #ctrl+pq退出不停止pod
/ # 
/ # ls
bin      etc      lib      linuxrc  mnt      proc     run      sys      usr
dev      home     lib64    media    opt      root     sbin     tmp      var
/ # Session ended, resume using 'kubectl attach testpod -c testpod -i -t' command when the pod is running
#运行非交互pod
[root@k8s-master ~]# kubectl run myapp --image reg.txy.org/library/myapp:v1 
#进入到已经运行的容器,且容器有交互环境
[root@k8s-master ~]# kubectl attach pods/testpod -it
If you don't see a command prompt, try pressing enter.
/ # 
 
#在已经运行的pod(myapp)中运行指定命令,可进入交互模式
[root@k8s-master ~]# kubectl exec -it pods/myapp /bin/ash
kubectl exec [POD] [COMMAND] is DEPRECATED and will be removed in a future version. Use kubectl exec [POD] -- [COMMAND] instead.
/ # 
/ # ls
bin    dev    etc    home   lib    media  mnt    proc   root   run    sbin   srv    sys    tmp    usr    var
/ # 
 
[root@k8s-master ~]# kubectl cp anaconda-ks.cfg myapp:/
[root@k8s-master ~]# kubectl exec -it pods/myapp /bin/ash
kubectl exec [POD] [COMMAND] is DEPRECATED and will be removed in a future version. Use kubectl exec [POD] -- [COMMAND] instead.
/ # ls
anaconda-ks.cfg  etc              media            root             srv              usr
bin              home             mnt              run              sys              var
dev              lib              proc             sbin             tmp
/ # touch 1.txt
/ # ls
1.txt            dev              lib              proc             sbin             tmp
anaconda-ks.cfg  etc              media            root             srv              usr
bin              home             mnt              run              sys              var
/ # exec attach failed: error on attach stdin: read escape sequence
command terminated with exit code 126
[root@k8s-master ~]# 
[root@k8s-master ~]# kubectl cp myapp:/1.txt 1.txt
tar: removing leading '/' from member names
#利用命令生成yaml模板文件
[root@k8s-master ~]# kubectl create deployment --image reg.txy.org/library/nginx:latest webcluster --dry-run=client -o yaml > webcluster.yml
 
#利用yaml文件生成资源
[root@k8s-master ~]# kubectl apply -f webcluster.yml 
deployment.apps/webcluster created
[root@k8s-master ~]# 
[root@k8s-master ~]# kubectl get deployments.apps 
NAME         READY   UP-TO-DATE   AVAILABLE   AGE
webcluster   1/1     1            1           7s
 
#管理资源标签
[root@k8s-master ~]# kubectl run nginx --image reg.txy.org/library/nginx:latest
pod/nginx created
[root@k8s-master ~]# kubectl get pods --show-labels 
NAME                          READY   STATUS    RESTARTS   AGE    LABELS
myapp                         1/1     Running   0          21m    run=myapp
nginx                         1/1     Running   0          12s    run=nginx
testpod                       1/1     Running   0          23m    run=testpod
web                           1/1     Running   0          43m    run=web
web1                          1/1     Running   0          31m    run=web1
webcluster-645f4d7468-hk4tx   1/1     Running   0          109s   app=webcluster,pod-template-hash=645f4d7468
[root@k8s-master ~]# kubectl label pods nginx app=txy
pod/nginx labeled
[root@k8s-master ~]# kubectl get pods --show-labels 
NAME                          READY   STATUS    RESTARTS   AGE    LABELS
myapp                         1/1     Running   0          21m    run=myapp
nginx                         1/1     Running   0          31s    app=zx,run=nginx
testpod                       1/1     Running   0          23m    run=testpod
web                           1/1     Running   0          43m    run=web
web1                          1/1     Running   0          31m    run=web1
webcluster-645f4d7468-hk4tx   1/1     Running   0          2m8s   app=webcluster,pod-template-hash=645f4d7468
 
#更改标签
[root@k8s-master ~]# kubectl label pods nginx app=webcluster --overwrite
pod/nginx labeled
 
#删除标签
[root@k8s-master ~]# kubectl label pods nginx app-
pod/nginx unlabeled
[root@k8s-master ~]# kubectl get pods --show-labels 
NAME                          READY   STATUS    RESTARTS   AGE     LABELS
myapp                         1/1     Running   0          22m     run=myapp
nginx                         1/1     Running   0          52s     app=webcluster,run=nginx
testpod                       1/1     Running   0          23m     run=testpod
web                           1/1     Running   0          43m     run=web
web1                          1/1     Running   0          32m     run=web1
webcluster-645f4d7468-hk4tx   1/1     Running   0          2m29s   app=webcluster,pod-template-hash=645f4d7468
 
#标签时控制器识别pod示例的标识
[root@k8s-master ~]# kubectl get pods nginx --show-labels
NAME    READY   STATUS    RESTARTS   AGE    LABELS
nginx   1/1     Running   0          119s   run=nginx
 
#删除pod上的标签
[root@k8s-master ~]# kubectl label pods webcluster-645f4d7468-hk4tx app-
pod/webcluster-645f4d7468-hk4tx unlabeled
#控制器会重新启动新pod
[root@k8s-master ~]# kubectl get pods --show-labels
NAME                          READY   STATUS              RESTARTS   AGE     LABELS
myapp                         1/1     Running             0          26m     run=myapp
nginx                         1/1     Running             0          4m52s   run=nginx
testpod                       1/1     Running             0          27m     run=testpod
web                           1/1     Running             0          47m     run=web
web1                          1/1     Running             0          36m     run=web1
webcluster-645f4d7468-4m7ck   0/1     ContainerCreating   0          5s      app=webcluster,pod-template-hash=645f4d7468
webcluster-645f4d7468-hk4tx   1/1     Running             0          6m29s   pod-template-hash=645f4d7468

四、什么是pod

  • Pod是可以创建和管理Kubernetes计算的最小可部署单元

  • 一个Pod代表着集群中运行的一个进程,每个pod都有一个唯一的ip。

  • 一个pod类似一个豌豆荚,包含一个或多个容器(通常是docker)

  • 多个容器间共享IPC、Network和UTC namespace。

1、创建自助式pod

  1. 优点:
  • 灵活性高:

可以精确控制 Pod 的各种配置参数,包括容器的镜像、资源限制、环境变量、命令和参数等,满足特定的应用需求。

  • 学习和调试方便:

对于学习 Kubernetes 的原理和机制非常有帮助,通过手动创建 Pod 可以深入了解 Pod 的结构和配置方式。在调试问题时,可以更直接地观察和调整 Pod 的设置。

  • 适用于特殊场景:

在一些特殊情况下,如进行一次性任务、快速验证概念或在资源受限的环境中进行特定配置时,手动创建 Pod 可能是一种有效的方式。

  1. 缺点:
  • 管理复杂:

如果需要管理大量的 Pod,手动创建和维护会变得非常繁琐和耗时。难以实现自动化的扩缩容、故障恢复等操作。

  • 缺乏高级功能:

无法自动享受 Kubernetes 提供的高级功能,如自动部署、滚动更新、服务发现等。这可能导致应用的部署和管理效率低下。

  • 可维护性差:

手动创建的 Pod 在更新应用版本或修改配置时需要手动干预,容易出现错误,并且难以保证一致性。相比之下,通过声明式配置或使用 Kubernetes 的部署工具可以更方便地进行应用的维护和更新。

 

 2、利用控制器管理pod

  • 高可用性和可靠性:
  • 自动故障恢复:如果一个 Pod 失败或被删除,控制器会自动创建新的 Pod 来维持期望的副本数量。确保应用始终处于可用状态,减少因单个 Pod 故障导致的服务中断。
  • 健康检查和自愈:可以配置控制器对 Pod 进行健康检查(如存活探针和就绪探针)。如果 Pod 不健康,控制器会采取适当的行动,如重启 Pod 或删除并重新创建它,以保证应用的正常运行。
  • 可扩展性:
  • 轻松扩缩容:可以通过简单的命令或配置更改来增加或减少 Pod 的数量,以满足不同的工作负载需求。例如,在高流量期间可以快速扩展以处理更多请求,在低流量期间可以缩容以节省资源。
  • 水平自动扩缩容(HPA):可以基于自定义指标(如 CPU 利用率、内存使用情况或应用特定的指标)自动调整 Pod 的数量,实现动态的资源分配和成本优化。
  • 版本管理和更新:
  • 滚动更新:对于 Deployment 等控制器,可以执行滚动更新来逐步替换旧版本的 Pod 为新版本,确保应用在更新过程中始终保持可用。可以控制更新的速率和策略,以减少对用户的影响。
  • 回滚:如果更新出现问题,可以轻松回滚到上一个稳定版本,保证应用的稳定性和可靠性。
  • 声明式配置:
  • 简洁的配置方式:使用 YAML 或 JSON 格式的声明式配置文件来定义应用的部署需求。这种方式使得配置易于理解、维护和版本控制,同时也方便团队协作。
  • 期望状态管理:只需要定义应用的期望状态(如副本数量、容器镜像等),控制器会自动调整实际状态与期望状态保持一致。无需手动管理每个 Pod 的创建和删除,提高了管理效率。
  • 服务发现和负载均衡:
  • 自动注册和发现:Kubernetes 中的服务(Service)可以自动发现由控制器管理的 Pod,并将流量路由到它们。这使得应用的服务发现和负载均衡变得简单和可靠,无需手动配置负载均衡器。
  • 流量分发:可以根据不同的策略(如轮询、随机等)将请求分发到不同的 Pod,提高应用的性能和可用性。
  • 多环境一致性:
  • 一致的部署方式:在不同的环境(如开发、测试、生产)中,可以使用相同的控制器和配置来部署应用,确保应用在不同环境中的行为一致。这有助于减少部署差异和错误,提高开发和运维效率。
#建立控制器并自动运行pod
[root@k8s-master ~]# kubectl create deployment test --image reg.txy.org/library/nginx
deployment.apps/test created
[root@k8s-master ~]# kubectl get pods
NAME                  READY   STATUS    RESTARTS   AGE
test-966c99d7-wfq5x   1/1     Running   0          6s
 
#扩容
[root@k8s-master ~]# kubectl scale deployment test --replicas 6
deployment.apps/test scaled
[root@k8s-master ~]# kubectl get pods
NAME                  READY   STATUS    RESTARTS   AGE
test-966c99d7-csj9s   1/1     Running   0          14s
test-966c99d7-knvpp   1/1     Running   0          14s
test-966c99d7-msmgz   1/1     Running   0          14s
test-966c99d7-nfkff   1/1     Running   0          14s
test-966c99d7-wfq5x   1/1     Running   0          38s
test-966c99d7-z5w7m   1/1     Running   0          14s
 
#缩容
[root@k8s-master ~]# kubectl scale deployment test --replicas 2
deployment.apps/test scaled
[root@k8s-master ~]# kubectl get pods
NAME                  READY   STATUS    RESTARTS   AGE
test-966c99d7-knvpp   1/1     Running   0          43s
test-966c99d7-nfkff   1/1     Running   0          43s

 3、应用版本的更新

#利用控制器建立pod
[root@k8s-master ~]# kubectl create deployment test --image reg.txy.org/library/myapp:v1 --replicas 2
 
#暴漏端口
[root@k8s-master ~]# kubectl expose deployment test --port 80 --target-port 80
service/test exposed
[root@k8s-master ~]# kubectl get services
NAME         TYPE        CLUSTER-IP      EXTERNAL-IP   PORT(S)   AGE
kubernetes   ClusterIP   10.96.0.1       <none>        443/TCP   105m
test         ClusterIP   10.99.228.45    <none>        80/TCP    9s
 
[root@k8s-master ~]# kubectl describe services test
Name:              test
Namespace:         default
Labels:            app=test
Annotations:       <none>
Selector:          app=test
Type:              ClusterIP
IP Family Policy:  SingleStack
IP Families:       IPv4
IP:                10.99.228.45
IPs:               10.99.228.45
Port:              <unset>  80/TCP
TargetPort:        80/TCP
Endpoints:         10.244.1.32:80,10.244.2.36:80        
Session Affinity:  None
Events:            <none>
 
 
#访问服务
[root@k8s-master ~]# curl 10.99.228.45
Hello MyApp | Version: v1 | <a href="hostname.html">Pod Name</a>
[root@k8s-master ~]# curl 10.99.228.45/hostname.html
test-6b6b678b78-56vs4
[root@k8s-master ~]# curl 10.99.228.45/hostname.html
test-6b6b678b78-rbghr
[root@k8s-master ~]# curl 10.99.228.45/hostname.html
test-6b6b678b78-rbghr
[root@k8s-master ~]# curl 10.99.228.45/hostname.html
test-6b6b678b78-rbghr
[root@k8s-master ~]# curl 10.99.228.45/hostname.html
test-6b6b678b78-56vs4
 
#查看历史版本
[root@k8s-master ~]# kubectl rollout history deployment test
deployment.apps/test 
REVISION  CHANGE-CAUSE
1         <none>
 
#更新控制器镜像版本
[root@k8s-master ~]# kubectl set image deployments/test myapp=reg.txy.org/library/myapp:v2
 
#查看历史版本
[root@k8s-master ~]# kubectl rollout history deployment test
deployment.apps/test 
REVISION  CHANGE-CAUSE
1         <none>
2         <none>
 
#访问内容测试
[root@k8s-master ~]# curl 10.99.228.45
Hello MyApp | Version: v2 | <a href="hostname.html">Pod Name</a>
 
#版本回滚
[root@k8s-master ~]# kubectl rollout undo deployment test --to-revision 1
deployment.apps/test rolled back
#访问内容测试
[root@k8s-master ~]# curl 10.99.228.45
Hello MyApp | Version: v1 | <a href="hostname.html">Pod Name</a>

4、利用yaml文件部署应用

(1)优点

  • 声明式配置:
  • 清晰表达期望状态:以声明式的方式描述应用的部署需求,包括副本数量、容器配置、网络设置等。这使得配置易于理解和维护,并且可以方便地查看应用的预期状态。
  • 可重复性和版本控制:配置文件可以被版本控制,确保在不同环境中的部署一致性。可以轻松回滚到以前的版本或在不同环境中重复使用相同的配置。
  • 团队协作:便于团队成员之间共享和协作,大家可以对配置文件进行审查和修改,提高部署的可靠性和稳定性。
  • 灵活性和可扩展性:
  • 丰富的配置选项:可以通过 YAML 文件详细地配置各种 Kubernetes 资源,如 Deployment、Service、ConfigMap、Secret 等。可以根据应用的特定需求进行高度定制化。
  • 组合和扩展:可以将多个资源的配置组合在一个或多个 YAML 文件中,实现复杂的应用部署架构。同时,可以轻松地添加新的资源或修改现有资源以满足不断变化的需求。
  • 与工具集成:
  • 与 CI/CD 流程集成:可以将 YAML 配置文件与持续集成和持续部署(CI/CD)工具集成,实现自动化的应用部署。例如,可以在代码提交后自动触发部署流程,使用配置文件来部署应用到不同的环境。
  • 命令行工具支持:Kubernetes 的命令行工具 kubectl 对 YAML 配置文件有很好的支持,可以方便地应用、更新和删除配置。同时,还可以使用其他工具来验证和分析 YAML 配置文件,确保其正确性和安全性。

(2)资源清单参数 

(3)资源帮助命令

kubectl explain pod.spec.containers

(4)示例 

示例1:运行简单的单个容器pod
# 用命令获取yaml模板
[root@k8s-master ~]# kubectl run yml-test1 --image reg.txy.org/library/myapp:v1 --dry-run=client -o yaml > yml-test1.yml
[root@k8s-master ~]# cat yml-test1.yml 
apiVersion: v1
kind: Pod
metadata:
  creationTimestamp: null
  labels:
    run: yml-test1
  name: yml-test1
spec:
  containers:
  - image: reg.txy.org/library/myapp:v1
    name: yml-test1
    resources: {}
  dnsPolicy: ClusterFirst
  restartPolicy: Always
status: {}

 

示例2:运行多个容器pod

注意如果多个容器运行在一个pod中,资源共享的同时在使用相同资源时也会干扰,比如端口

在一个pod中开启多个容器时一定要确保容器彼此不能互相干扰

# 在示例1基础上实现
[root@k8s-master ~]# vim yml-test1.yml 
[root@k8s-master ~]# kubectl apply -f yml-test1.yml 
pod/yml-test1 created
[root@k8s-master ~]# kubectl get pods
NAME                    READY   STATUS    RESTARTS   AGE
yml-test1               2/2     Running   0          11s
[root@k8s-master ~]# cat yml-test1.yml 
apiVersion: v1
kind: Pod
metadata:
  creationTimestamp: null
  labels:
    run: yml-test1
  name: yml-test1
spec:
  containers:
  - image: reg.txy.org/library/myapp:v1
    name: yml-test1
    resources: {}
  - image: reg.txy.org/library/nginx
    name: yml-test2
    command: ["/bin/sh","-c","sleep 1000000"]
  dnsPolicy: ClusterFirst
  restartPolicy: Always
status: {}
示例3:理解pod间的网络整合
[root@k8s-master ~]# vim yml-test1.yml 
[root@k8s-master ~]# kubectl apply -f yml-test1.yml 
pod/test created
[root@k8s-master ~]# kubectl get pods
NAME        READY   STATUS    RESTARTS   AGE
test        2/2     Running   0          7s
yml-test1   2/2     Running   0          6m37s
[root@k8s-master ~]# 
[root@k8s-master ~]# kubectl exec test -c busyboxplus -- curl -s localhost
Hello MyApp | Version: v1 | <a href="hostname.html">Pod Name</a>
[root@k8s-master ~]# 
[root@k8s-master ~]# cat yml-test1.yml 
apiVersion: v1
kind: Pod
metadata:
  creationTimestamp: null
  labels:
    run: yml-test1
  name: test
spec:
  containers:
  - image: reg.txy.org/library/myapp:v1
    name: myapp1
    resources: {}
  - image: reg.txy.org/library/busyboxplus:latest
    name: busyboxplus
    command: ["/bin/sh","-c","sleep 1000000"]
示例4:端口映射
[root@k8s-master ~]# kubectl run yml-test2 --image reg.zx.org/library/myapp:v1 --dry-run=client -o yaml > yml-test2.yml
[root@k8s-master ~]# vim yml-test2.yml 
[root@k8s-master ~]# kubectl apply -f yml-test2.yml 
pod/yml-test2 created
[root@k8s-master ~]# kubectl get pods -o wide
NAME        READY   STATUS    RESTARTS   AGE     IP            NODE               NOMINATED NODE   READINESS GATES
test        2/2     Running   0          6m14s   10.244.1.33   k8s-node1.txy.org   <none>           <none>
yml-test1   2/2     Running   0          12m     10.244.2.37   k8s-node2.txy.org   <none>           <none>
yml-test2   1/1     Running   0          14s     10.244.1.34   k8s-node1.txy.org   <none>           <none>
 
[root@k8s-master ~]# curl k8s-node1.txy.org
Hello MyApp | Version: v1 | <a href="hostname.html">Pod Name</a>
 
[root@k8s-master ~]# cat yml-test2.yml 
apiVersion: v1
kind: Pod
metadata:
  creationTimestamp: null
  labels:
    run: yml-test2
  name: yml-test2
spec:
  containers:
  - image: reg.txy.org/library/myapp:v1
    name: yml-test2
    ports:
    - name: http
      containerPort: 80
      hostPort: 80
      protocol: TCP
示例5:如何设定环境变量
[root@k8s-master ~]# kubectl run yml-test3 --image reg.txy.org/library/busyboxplus:latest --dry-run=client -o yaml > yml-test3.yml
[root@k8s-master ~]# vim yml-test3.yml 
[root@k8s-master ~]# kubectl apply -f yml-test3.yml 
pod/yml-test3 created
[root@k8s-master ~]# cat yml-test3.yml 
apiVersion: v1
kind: Pod
metadata:
  creationTimestamp: null
  labels:
    run: yml-test3
  name: yml-test3
spec:
  containers:
  - image: reg.txy.org/library/busyboxplus:latest
    name: yml-test3
    command: ["/bin/sh","-c","echo $NAME;sleep 3000000"]
    env:
    - name: NAME
      value: zx
[root@k8s-master ~]# kubectl logs pods/yml-test3 yml-test3
txy
示例6:资源限制

资源限制会影响pod的Qos Class资源优先级,资源优先级分为Guaranteed > Burstable > BestEffort

QoS(Quality of Service)即服务质量

资源设定优先级类型
资源限定未设定BestEffort
资源限定设定且最大和最小不一致Burstable
资源限定设定且最大和最小一致Guaranteed
[root@k8s-master ~]# kubectl run yml-test4 --image reg.txy.org/library/myapp:v1 --dry-run=client -o yaml > yml-test4.yml
[root@k8s-master ~]# 
[root@k8s-master ~]# vim yml-test4.yml 
[root@k8s-master ~]# kubectl apply -f yml-test4.yml 
[root@k8s-master ~]# kubectl get pods
NAME                    READY   STATUS    RESTARTS   AGE
yml-test4               1/1     Running   0          4s
[root@k8s-master ~]# cat yml-test4.yml 
apiVersion: v1
kind: Pod
metadata:
  creationTimestamp: null
  labels:
    run: yml-test4
  name: yml-test4
spec:
  containers:
  - image: reg.txy.org/library/myapp:v1
    name: yml-test4
    resources: 
      limits:
        cpu: 500m
        memory: 100M
      requests:
        cpu: 500m
        memory: 100M
示例7:选择运行节点
[root@k8s-master ~]# kubectl run yml-test6 --image reg.txy.org/library/myapp:v1 --dry-run=client -o yaml > yml-test6.yml
[root@k8s-master ~]# vim yml-test6.yml 
[root@k8s-master ~]# kubectl apply -f yml-test6.yml 
pod/yml-test6 created
[root@k8s-master ~]# kubectl get pods -o wide
NAME                    READY   STATUS    RESTARTS   AGE   IP            NODE               NOMINATED NODE   READINESS GATES
test-6b6b678b78-wz8pt   1/1     Running   0          39m   10.244.1.37   k8s-node1.txy.org   <none>           <none>
[root@k8s-master ~]# cat yml-test6.yml 
apiVersion: v1
kind: Pod
metadata:
  creationTimestamp: null
  labels:
    run: yml-test6
  name: yml-test6
spec:
  nodeSelector:
    kubernetes.io/hostname: k8s-node1.txy.org
  containers:
  - image: reg.txy.org/library/myapp:v1
    name: yml-test6
    resources: {}
  dnsPolicy: ClusterFirst
  restartPolicy: Always
status: {}
示例8:共享宿主机网络
[root@k8s-master ~]# kubectl run yml-test7 --image reg.txy.org/library/busyboxplus:latest  --dry-run=client -o yaml > yml-test7.yml
[root@k8s-master ~]# vim yml-test7.yml 
[root@k8s-master ~]# kubectl apply -f yml-test7.yml 
pod/yml-test7 created
[root@k8s-master ~]# kubectl exec -it pods/yml-test7 -c busybox -- /bin/sh
/ # ifconfig

五、pod的生命周期

  • Pod 可以包含多个容器,应用运行在这些容器里面,同时 Pod 也可以有一个或多个先于应用容器启动的 Init 容器。
  • Init 容器与普通的容器非常像,除了如下两点:
  1.  它们总是运行到完成
  2. init 容器不支持 Readiness,因为它们必须在 Pod 就绪之前运行完成,每个 Init 容器必须运行成功,下一个才能够运行。
  • 如果Pod的 Init 容器失败,Kubernetes 会不断地重启该 Pod,直到 Init 容器成功为止。但是,如果 Pod 对应的 restartPolicy 值为 Never,它不会重新启动。

1、init 容器的功能


Init 容器可以包含一些安装过程中应用容器中不存在的实用工具或个性化代码。

Init 容器可以安全地运行这些工具,避免这些工具导致应用镜像的安全性降低。

应用镜像的创建者和部署者可以各自独立工作,而没有必要联合构建一个单独的应用镜像。

Init 容器能以不同于Pod内应用容器的文件系统视图运行。因此,Init容器可具有访问 Secrets 的权限,而应用容器不能够访问。

由于 Init 容器必须在应用容器启动之前运行完成,因此 Init 容器提供了一种机制来阻塞或延迟应用容器的启动,直到满足了一组先决条件。一旦前置条件满足,Pod内的所有的应用容器会并行启动。

[root@k8s-master ~]# mkdir pod
[root@k8s-master ~]# cd pod/
[root@k8s-master pod]# kubectl run init-test --image reg.txy.org/library/myapp:v1  --dry-run=client -o yaml > init-test.yml
[root@k8s-master pod]# vim init-test.yml 
[root@k8s-master pod]# kubectl apply -f init-test.yml 
pod/init-test created
[root@k8s-master pod]# kubectl get pods
NAME        READY   STATUS     RESTARTS   AGE
init-test   0/1     Init:0/1   0          6s
[root@k8s-master pod]# kubectl logs pods/init-test init-myservice 
wating for myservice
wating for myservice
wating for myservice
wating for myservice
wating for myservice
wating for myservice
wating for myservice
wating for myservice
wating for myservice
wating for myservice
wating for myservice
wating for myservice
wating for myservice
wating for myservice
wating for myservice
wating for myservice
wating for myservice
wating for myservice
[root@k8s-master pod]# kubectl exec pods/init-test -c init-myservice -- /bin/sh -c "touch /testfile"
[root@k8s-master pod]# kubectl get  pods 
NAME        READY   STATUS    RESTARTS   AGE
init-test   1/1     Running   0          68s
[root@k8s-master pod]# cat init-test.yml 
apiVersion: v1
kind: Pod
metadata:
  creationTimestamp: null
  labels:
    run: init-test
  name: init-test
spec:
  containers:
  - image: reg.txy.org/library/myapp:v1
    name: myapp
  initContainers:
    - name: init-myservice
      image: reg.txy.org/library/busyboxplus:latest
      command: ["sh","-c","until test -e /testfile;do echo wating for myservice; sleep 2;done"]

2、探针

探针是由 kubelet 对容器执行的定期诊断:

  • ExecAction:在容器内执行指定命令。如果命令退出时返回码为 0 则认为诊断成功。
  • TCPSocketAction:对指定端口上的容器的 IP 地址进行 TCP 检查。如果端口打开,则诊断被认为是成功的。
  • HTTPGetAction:对指定的端口和路径上的容器的 IP 地址执行 HTTP Get 请求。如果响应的状态码大于等于200 且小于 400,则诊断被认为是成功的。

每次探测都将获得以下三种结果之一:

  • 成功:容器通过了诊断。
  • 失败:容器未通过诊断。
  • 未知:诊断失败,因此不会采取任何行动。

Kubelet 可以选择是否执行在容器上运行的三种探针执行和做出反应:

  • livenessProbe:指示容器是否正在运行。如果存活探测失败,则 kubelet 会杀死容器,并且容器将受到其 重启策略 的影响。如果容器不提供存活探针,则默认状态为 Success。
  • readinessProbe:指示容器是否准备好服务请求。如果就绪探测失败,端点控制器将从与 Pod 匹配的所有 Service 的端点中删除该 Pod 的 IP 地址。初始延迟之前的就绪状态默认为 Failure。如果容器不提供就绪探针,则默认状态为 Success。
  • startupProbe: 指示容器中的应用是否已经启动。如果提供了启动探测(startup probe),则禁用所有其他探测,直到它成功为止。如果启动探测失败,kubelet 将杀死容器,容器服从其重启策略进行重启。如果容器没有提供启动探测,则默认状态为成功Success。

ReadinessProbe 与 LivenessProbe 的区别

  1. ReadinessProbe 当检测失败后,将 Pod 的 IP:Port 从对应的 EndPoint 列表中删除。
  2. LivenessProbe 当检测失败后,将杀死容器并根据 Pod 的重启策略来决定作出对应的措施

StartupProbe 与 ReadinessProbe、LivenessProbe 的区别

  1. 如果三个探针同时存在,先执行 StartupProbe 探针,其他两个探针将会被暂时禁用,直到 pod 满足 StartupProbe 探针配置的条件,其他 2 个探针启动,如果不满足按照规则重启容器。
  2. 另外两种探针在容器启动后,会按照配置,直到容器消亡才停止探测,而 StartupProbe 探针只是在容器启动后按照配置满足一次后,不在进行后续的探测。

存活探针示例 

[root@k8s-master ~]# kubectl run liveness --image reg.txy.org/library/myapp:v1  --dry-run=client -o yaml > liveness.yml
[root@k8s-master ~]# vim liveness.yml 
[root@k8s-master ~]# kubectl apply -f liveness.yml 
pod/liveness created
[root@k8s-master ~]# cat liveness.yml 
apiVersion: v1
kind: Pod
metadata:
  labels:
    run: liveness
  name: liveness
spec:
  containers:
  - image: reg.txy.org/library/myapp:v1
    name: myapp
    livenessProbe:
      tcpSocket:
        port: 8080
      initialDelaySeconds: 3
      periodSeconds: 1
      timeoutSeconds: 1
[root@k8s-master ~]# kubectl get pods -o wide
NAME        READY   STATUS             RESTARTS      AGE     IP            NODE               NOMINATED NODE   READINESS GATES
init-test   1/1     Running            0             19m     10.244.2.44   k8s-node2.txy.org   <none>           <none>
liveness    0/1     CrashLoopBackOff   6 (62s ago)   4m20s   10.244.1.43   k8s-node1.txy.org   <none>           <none>
[root@k8s-master ~]# 
[root@k8s-master ~]# kubectl describe pods liveness 
就绪探针示例
[root@k8s-master ~]# kubectl run readiness --image reg.txy.org/library/myapp:v1  --dry-run=client -o yaml > readiness.yml
[root@k8s-master ~]# vim readiness.yml 
[root@k8s-master ~]# kubectl apply -f readiness.yml 
pod/readiness created
[root@k8s-master ~]# kubectl get pods
NAME        READY   STATUS             RESTARTS        AGE
init-test   1/1     Running            0               30m
liveness    0/1     CrashLoopBackOff   9 (3m58s ago)   15m
readiness   0/1     Running            0               10s
 
[root@k8s-master ~]# kubectl expose pod readiness --port 80 --target-port 80
service/readiness exposed
 
[root@k8s-master ~]# kubectl describe pods readiness
……
Warning  Unhealthy  2s (x22 over 57s)  kubelet            Readiness probe failed: HTTP probe failed with statuscode: 404
 
[root@k8s-master ~]# kubectl describe services readiness
Name:              readiness
Namespace:         default
Labels:            run=readiness
Annotations:       <none>
Selector:          run=readiness
Type:              ClusterIP
IP Family Policy:  SingleStack
IP Families:       IPv4
IP:                10.101.55.183
IPs:               10.101.55.183
Port:              <unset>  80/TCP
TargetPort:        80/TCP
Endpoints:                         #没有暴漏端口,就绪探针探测不满足暴漏条件
Session Affinity:  None
Events:            <none>
 
[root@k8s-master ~]# kubectl exec pods/readiness -c myapp -- /bin/sh -c "echo test > /usr/share/nginx/html/test.html"
 
[root@k8s-master ~]# kubectl get pods
NAME        READY   STATUS             RESTARTS       AGE
init-test   1/1     Running            0              42m
liveness    0/1     CrashLoopBackOff   15 (42s ago)   27m
readiness   1/1     Running            0              3m13s
 
 
[root@k8s-master ~]# kubectl describe service readiness
Name:              readiness
Namespace:         default
Labels:            run=readiness
Annotations:       <none>
Selector:          run=readiness
Type:              ClusterIP
IP Family Policy:  SingleStack
IP Families:       IPv4
IP:                10.101.55.183
IPs:               10.101.55.183
Port:              <unset>  80/TCP
TargetPort:        80/TCP
Endpoints:         10.244.1.44:80      #满组条件端口暴漏
Session Affinity:  None
Events:            <none>

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2201415.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

动态线程池设计与实现

为什么要有动态线程池 ThreadPoolExecutor 核心线程参数对某些业务不知到设置多少合适调整参数需要重新启动服务没有告警功能 设计思路 流程设计 库表抽象 更新操作流程图 代码实现 GitCode - 全球开发者的开源社区,开源代码托管平台

C++ 内部类

个人主页&#xff1a;Jason_from_China-CSDN博客 所属栏目&#xff1a;C系统性学习_Jason_from_China的博客-CSDN博客 所属栏目&#xff1a;C知识点的补充_Jason_from_China的博客-CSDN博客 概念概述 如果一个类定义在另一个类的内部&#xff0c;这个内部类就叫做内部类。内部类…

(02)python-opencv图像处理——更改颜色空间HSV

前言 1、更改颜色空间 1.1BGR 到 Gray 的示例 1.2 BGR 到 HSV 的示例&#xff1a; ​编辑 1.3 通过HSV进行颜色追踪 1.3.1hsv cv.cvtColor(frame, cv.COLOR_BGR2HSV) 1.3.2 BGR vs HSV&#xff1a; 1.3.3 为什么使用 HSV 颜色空间&#xff1f; 1.3.4 cv.inRange(hsv…

oracle-函数-instr()的妙用以及相似功能like

INSTR(C1,C2[,I[,J]]) 【功能】在一个字符串中搜索指定的字符,返回发现指定的字符的位置; 【说明】多字节符(汉字、全角符等)&#xff0c;按1个字符计算 【参数】 C1 被搜索的字符串 C2 希望搜索的字符串 I 搜索的开始位置,默认为1 J 第J次出现的位置,默认为1 【…

安全帽未佩戴预警系统 劳保防护用品穿戴监测系统 YOLO

在建筑、矿山、电力等高危行业中&#xff0c;工人面临着各种潜在的危险&#xff0c;如高空坠物、物体打击等。安全帽能够有效地分散和吸收冲击力&#xff0c;大大降低头部受伤的严重程度。一旦工人未正确佩戴安全帽&#xff0c;在遭遇危险时&#xff0c;头部将直接暴露在危险之…

Linux网络编程 -- 网络套接字预备与udp

本文主要介绍网络编程的相关知识&#xff0c;在正式介绍网络编程之前&#xff0c;我们得先了解一些前置的知识。 1、端口号 我们上网其实就是两种动作&#xff0c;一个是将远处的数据拉取到本地&#xff0c;另一个是把我们的数据发送给远端。其实大部分的网络通信行为都是用户…

基于springboot vue3 工商局商家管理系统设计与实现

博主介绍&#xff1a;专注于Java&#xff08;springboot ssm springcloud等开发框架&#xff09; vue .net php phython node.js uniapp小程序 等诸多技术领域和毕业项目实战、企业信息化系统建设&#xff0c;从业十五余年开发设计教学工作☆☆☆ 精彩专栏推荐订阅☆☆☆☆…

【公共祖先】二叉树专题

里面涉及多个plus题 前言1.二叉树的最近公共祖先2.二叉搜索树的最近公共祖先3.二叉树的最近公共祖先II4.二叉树的最近公共祖先III5.二叉树的最近公共祖先IV 前言 公共祖先这一类题目&#xff0c;难度不大&#xff0c;但是非常实用&#xff0c;也是面试问到概率比较大的一类题目…

夜间数据库IO负载飙升?MySQL批量删除操作引发的问题排查

目录 问题现象 问题分析 修改建议 总结 问题现象 近日&#xff0c;某用户反馈他们的MySQL数据库实例在凌晨时段会频繁出现IO负载急剧上升的情况&#xff0c;这种状态会持续一段时间&#xff0c;随后自行恢复正常。为了查明原因&#xff0c;该用户通过DBdoctor工具收集了相…

DLL中函数导出时的注意事项

1.使用.def文件导出函数 1.1示例代码:使用stdcall 关键字 和 extern "C" 关键字修饰 dll中函数 BOOL APIENTRY DllMain( HMODULE hModule,DWORD ul_reason_for_call,LPVOID lpReserved) {switch (ul_reason_for_call){case DLL_PROCESS_ATTACH:case DLL_THREAD_ATT…

sahi密集检测的推理技巧

最近在做一些计数的项目&#xff0c;样本中存在一些非常密集的目标&#xff0c;如果混杂一起训练指标很难达到要求&#xff0c;所以考虑在训练时不加入密集目标&#xff0c;训练使用正常的样本&#xff0c;在推理时使用密集检测方案。 在高分辨率图像中检测小目标一直是一个技…

【Qt+Python项目构建】- 02 Qt creator 14.0 + PySide6 如何让图像控件的尺寸变化和窗口一致

前言&#xff1a;【这是个AI不会回答的问题】 Qt Creator 新的版本又发出了&#xff0c;Pyside6 有很多新功能。但是&#xff0c;一些传统的方法要被淘汰了。 一个经典的例子是&#xff1a; 我有个一个图像要显示在Form里面的图像控件上&#xff0c;OK&#xff0c; 我现在拖…

Unity实现自定义图集(一)

以下内容是根据Unity 2020.1.0f1版本进行编写的   Unity自带有图集工具,包括旧版的图集(设置PackingTag),以及新版的图集(生成SpriteAtlas)。一般来说,unity自带的图集系统已经够用了,但是实际使用上还是存在一些可优化的地方,例如加载到Canvas上的资源,打图集不能…

JVM(学习预热 - 走进Java)(持续更新迭代)

目录 一、彻底认识Java虚拟机 开创世纪&#xff1a;Sun Classic 开创世纪&#xff1a;Exact VM 武林霸主&#xff1a;HotSpot VM 移动端虚拟机&#xff1a;Mobile/Embedded VM “三大”其二&#xff1a;BEA JRockit/IBM J9 VM 软硬结合&#xff1a;BEA Liquid VM/Azul VM…

更新子节点的优化策略1:目标old节点的位置预测

更新子节点的优化策略1&#xff1a;目标old节点的位置预测&#xff1a; 如果 oldStartVnode 和 newStartVnode 是同一个节点&#xff0c;直接 patchVnode&#xff0c;同时 oldStartIdx、newStartIdx 索引都加 1&#xff08;向右移动&#xff09;如果 oldEndVnode 和 newEndVno…

PE结构之 重定位表

那么,我们找到了某个 需要修改的绝对地址 的RVA, 将这个RVA转换成FOA后,这个绝对地址是读DWORD ,还是QWORD? 就是说,32位和64位是否有区别? 实验: 找到重定位表的数据,并观察在内存中和文件中的区别 将引用dll的exe文件,设置一下基址 同时DLL文件的基址和EXE文件设置一样,并…

肝了4天,我用ChatTTS和LLM让deeplearning.ai课程说上流畅中文

以下是「 豆包MarsCode 体验官」优秀文章&#xff0c;作者X2046。 我们都知道外网上有很多优秀的视频教程平台&#xff0c;比如 Coursera 和 deeplearning.ai。尤其是后者&#xff0c;由吴恩达老师与OpenAI、Langchain、LlamaIndex、AutoGen等公司和作者合作&#xff0c;推出了…

Spring Cloud Netflix Hystrix 熔断器讲解和案例示范

在分布式微服务架构中&#xff0c;每个服务之间相互依赖&#xff0c;当某个服务出现故障或延迟时&#xff0c;如果没有有效的故障隔离机制&#xff0c;可能导致整个系统雪崩式的失败。Netflix Hystrix 作为一种熔断器模式&#xff0c;旨在通过隔离服务之间的调用&#xff0c;提…

通过移动访问控制增强数据中心安全性

在当今数据驱动的世界里&#xff0c;信息是新的黄金标准&#xff0c;数据中心安全已成为每个 IT 部门的首要任务。数据隐私和道德管理不再仅仅是最佳实践&#xff0c;而是法律要求。因此&#xff0c;风险比以往任何时候都要高。 然后是内部威胁问题。根据 IBM 的 《2024 年数据…

Python案例--copy复制

在Python编程中&#xff0c;数据的复制是一个常见且重要的操作&#xff0c;它涉及到赋值、浅拷贝和深拷贝三种不同的概念。正确理解这三种操作对于编写高效且正确的程序至关重要。本文将通过一个简单的Python示例&#xff0c;探讨这三种数据复制方式的区别及其应用场景&#xf…