K8s基础6——应用配置管理方案、调度策略、污点和污点容忍

news2024/9/23 11:21:36

文章目录

  • 一、应用配置管理方案
    • 1.1 ConfigMap
      • 1.1.1 注入变量
      • 1.1.2 挂载数据卷
    • 1.2 Secret
  • 二、调度策略
    • 2.1 nodeSelector定向调度
      • 2.1.1 正例
      • 2.1.2 反例
    • 2.2 nodeAffinity亲和力调度
      • 2.2.1 In硬策略
      • 2.2.2 NotIn硬策略
      • 2.2.3 软策略
    • 2.3 PodAffinity亲和力调度
      • 2.3.1 pod共存
      • 2.3.2 pod互斥
  • 三、Taint与Tolerations
    • 3.1 添加污点
    • 3.2 污点容忍
    • 3.3 弹性驱逐调度
  • 四、优先级抢占调度
  • 五、Nodename调度

一、应用配置管理方案

应用配置管理方案是什么?

  • 实际生产中,为了提高程序对配置文件的复用率需要把应用所需的配置信息和程序分离开,通过不同的配置实现更灵活的功能。
  • 当把应用打包为镜像后,通过环境变量或者外挂文件的方式在创建容器时进行配置注入,K8s就给出了解决方案ConfigMap和Secret。

2个配置管理方案:

  1. ConfigMap存储配置文件信息,是应用程序需要的配置信息。
  2. Secret存储敏感数据,与ConfiMap相似,区别就是使用场景不一样,存敏感数据,比如账号密码、凭据等。

概念图:
在这里插入图片描述

1.1 ConfigMap

实现原理:

  • 创建ConfigMap后,数据实际会存储在K8s中Etcd,然后通过创建Pod时引用该数据。
  • 创建一个ConfigMap,在其里面定义其他对象所需要使用的配置信息,创建pod时引用该ConfigMap 中的数据配置pod中的容器。Pod 和 ConfigMap 必须要在同一个 名字空间 中。

Pod中使用configmap的2种方式:

  1. 变量注入。
  2. 数据卷挂载。

应用场景:

  • 应用程序配置

  • 官方参考文档

1.1.1 注入变量

1.编辑yaml文件创建ConfigMap,名为qingjun,定义一个类属性链为abc=mq,再创建pod时引用ConfigMap,从而引用该变量。

[root@k8s-master bck]# cat configmap2.yaml 
apiVersion: v1
kind: ConfigMap
metadata:
  name: qingjun
data:
  abc: "mq"       #类属性链,每一个链都映射到一个简单的值。

在这里插入图片描述
2.创建pod,引用ConfigMap中刚设置的变量abc。

[root@k8s-master bck]# cat pods.yaml 
apiVersion: v1
kind: Pod
metadata:
  name: configmap-pod     ##pod名称。
spec:
  containers:
    - name: demo        
      image: nginx        
      env:                   ##定义环境变量。
        - name: zhangsan       ##变量名称,也就是$echo 【变量名】,这里和ConfigMap中的链名是不一样的。
          valueFrom:
            configMapKeyRef:
              name: qingjun       ##引用哪个ConfigMap。
              key: abc             ##需要取值的链。


[root@k8s-master bck]# kubectl  apply -f pods.yaml 

在这里插入图片描述
3.进入容器,查看引用的变量。
在这里插入图片描述

1.1.2 挂载数据卷

1.编辑yaml文件创建ConfigMap,定义一个类文件链,链名为baidu,再创建pod时引用ConfigMap,从而将其挂载到pod内的容器中。

[root@k8s-master bck]# cat configmap2.yaml 
apiVersion: v1
kind: ConfigMap
metadata:
  name: maq
data:
  baimu: |
    port: 6379
    host: 192.168.130.147

[root@k8s-master bck]# kubectl  apply -f configmap2.yaml 

在这里插入图片描述
2.创建pod,将ConfigMap中刚设置的类文件链挂载到容器里。

[root@k8s-master bck]# cat pods1.yaml 
apiVersion: v1
kind: Pod
metadata:
  name: configmap-pod-2
spec:
  containers:
    - name: demo2
      image: nginx
      volumeMounts:
      - name: config
        mountPath: "/opt/ceshi"    ##容器内的挂载路径。
        readOnly: true
  volumes:                ##设置卷,将其挂载到pod内的容器中。
    - name: config       ##卷名,自定义。
      configMap:    
        name: maq       ##设置要挂载的ConfigMap的名字。
        items:            ##来自ConfigMap的一组链,将被创建为文件。
        - key: "baimu"     ##第一组类文件链名称。
          path: "baimu"      ##挂载到容器里创建的文件名称,可以自定义,一般都是写和类文件名称一样。

在这里插入图片描述
3.进入容器查看挂载文件内容。

在这里插入图片描述

1.2 Secret

作用:

  • 与ConfigMap类似,区别在于Secret主要存储敏感数据,所有的数据要经过base64编码。

应用场景:

  • 凭据

支持三种数据类型:

  • docker-registry:存储镜像仓库认证信息
  • generic:存储用户名、密码
  • tls:存储证书
  • 类型参考地址
    在这里插入图片描述

1.将用户密码信息进行编码
在这里插入图片描述
2.创建ConfigMap,名为ceshi。

[root@k8s-master bck]# cat configmap3.yaml 
apiVersion: v1
kind: Secret
metadata:
  name: ceshi
type: Opaque
data:
  username: YWRtaW4=
  password: Y2l0bXNAMTIz

[root@k8s-master bck]# kubectl  apply -f configmap3.yaml

在这里插入图片描述

3.创建pod,yaml文件里引用名为ceshi的Secret。

[root@k8s-master bck]# cat pod.yaml 
apiVersion: v1
kind: Pod
metadata:
  name: secret-demo-pod    
spec:
  containers:
    - name: demo
      image: nginx 
      env:             ##定义变量。
        - name: user     ##变量名,自定义,和Secret中的名不一样。
          valueFrom:
            secretKeyRef:
              name: ceshi         ##引用哪个Secret。
              key: username      ##引用该Secret中的哪个类属性链。
        - name: password   ##定义第二组变量。
          valueFrom:
            secretKeyRef:
              name: ceshi
              key: password
      volumeMounts:
      - name: config
        mountPath: "/config"    #挂载到容器内的路径。
        readOnly: true        ##容器内生成的文件状态,只读,一般不在容器内修改配置文件参数。
  volumes:
    - name: config     ##自定义卷名。
      secret:
        secretName: ceshi     #引用哪个Secret。
        items:              #引用该Secret中的哪个类文件链。
        - key: username      #链名。
          path: my-username     #挂载到容器内生成的文件名,自定义。
        - key: password      ##定义第二个链名。
          path: my-password

[root@k8s-master bck]# kubectl  apply -f pod.yaml

4.进入容器,查看挂载生成的链文件内容。
在这里插入图片描述

二、调度策略

为什么会有Pod调度?

  • 在前面的操作实验中,我们经常会用到deploy控制器,通过ReplicaSet自动部署一个容器应用的多份副本,持续监控副本的数量,集群内始终维持用户指定的副本数量。整个过程都是由系统全自动完成调度,pod最终运行在哪个节点上,完全由Master节点上的Scheduler调度器经过一系列算法计算得出,我们无法干预。用户无法干预调度过程和结果。
  • 这样依赖就会出现很多弊端,比如我想把redis集群和es集群安装在不通的机器上,我要怎么去控制?像mysql、kafka等有状态集群启动停止顺序是有要求的,我要怎么实现?再比如需要收集每个节点上的日志和主机性能,要怎么玩呢?
  • 根据实际的生产场景,K8s陆续推出了调度策略来一一实现以上情景功能。

Pod中影响调度的主要属性:

  1. 资源调度依据。比如容器资源限制值、容器最小资源需求值,这在后面资源配额和资源限制展开说。
  2. 调度策略。比如schedulerName自定义调度器、nodeName根据节点名称调度、nodeSelector:定向调度、affinity亲和力调度、污点驱逐,等等。

调度失败原因分析思路:

  • 节点CPU/内存不足。
  • 有污点,没容忍。
  • 没有匹配到节点标签。

pod调度流程图:
在这里插入图片描述

2.1 nodeSelector定向调度

作用:

  • 可以将Pod调度到匹配Label的Node节点上,如果没有匹配的标签会调度失败。
  • 所以我们在玩nodeselector时,需要提前给节点打标签。

特点:

  • 约束Pod到特定的节点运行。
  • 完全匹配节点标签。

应用场景:

  • 专用节点:根据业务线将Node分组管理。
  • 配备特殊硬件:部分Node配有SSD硬盘、GPU。

命令格式:

  • 节点打标签:kubectl label nodes < node-name > < label-key1 >=< label-value1 > < label-key2 >=< label-value2 >
  • 删除节点标签:kubectl label node k8s-node1 < label-key >-

注意事项:

  1. 此种方式是完全匹配标签,缺少或多一个字符都匹配不上会报错。
  2. 可以同时设置多个标签。

2.1.1 正例

1.先查看节点默认标签。

[root@k8s-master bck]# kubectl  get nodes --show-labels 

在这里插入图片描述
2.给node1节点添加标签,标签为disktype=ssd。

[root@k8s-master bck]# kubectl label nodes k8s-node1 disktype=ssd

在这里插入图片描述
3.编辑pod.yaml文件,添加nodeSeletor字段,指定标签disktype=ssd,到创建pod时就会根据此标签完全匹配具有该标签的节点并完成创建。
在这里插入图片描述
4.导入yaml文件,验证查看。此时的Pod是创建在node1节点,测试成功。
在这里插入图片描述
4.删除节点标签。

[root@k8s-master bck]# kubectl  label node k8s-node1 disktype-

在这里插入图片描述

2.1.2 反例

  • 若yaml文件里的标签不能完全匹配到给节点定义的标签内容,则会创建失败。
  • 即时存在正常可用的node节点,在没有匹配对应的标签时,也会创建失败。

1.编辑yaml文件,修改标签内容为"ss",上文给Node1节点设置的标签为“ssd”,两边是没有完全匹配的,所以在后面创建Pod任务一直处于等待中。
在这里插入图片描述

2.导入yaml标签,查看。

在这里插入图片描述
在这里插入图片描述

2.2 nodeAffinity亲和力调度

作用:

  • 可以根据节点上的标签来约束Pod可以调度到哪些节点。
  • 是定向调度的升级版,因为定向调度不能完全应付所有工作场景,所以支持的操作符很多样。

支持操作符:

  • In:将pod调度到匹配具有定义标签的节点上。
  • NotIn:将pod调度到,除具有定义标签的其他节点上。
  • Exists:若label标签存在,则调度到具备该标签的节点上。
  • DoesNotExist: 若label标签不存在,则调度到不具备该标签的节点上。
  • Gt:label 的值大于某个值。
  • Lt:label 的值小于某个值。

调度策略分类:

  • 分为硬策略和软策略。
  • required硬策略:必须满足指定的规则才可以调度Pod到指定Node节点上,功能与nodeSelector很像,但是使用的是不同的语法。
  • preferred软策略:K8s调度背后是计分制,参考因素较多,软策略的存在就是多个权重值,在调度时把我们加进去的权重值累计上再进行调度,考量的是调度到某个节点上的欲望是否强烈。多个优先级规则还可以设置权重(weight)值,以定义执行的先后顺序。若Pod所在节点在Pod运行期间标签发生变更,不再符合该Pod的节点亲和性需求,则系统将忽略Node上Label的变化,该Pod能继续在该节点上运行。

注意事项:

  • 若同时指定nodeSelector 和 nodeAffinity,两者必须满足才能将 Pod调度到候选节点上。

  • 若在nodeAffinity策略中定义了多个nodeSelectorTerms条件,只要满足其中一个nodeSelectorTerms 条件,Pod就可以被调度到节点上。

  • 若在nodeSelectorTerms 策略中,单个matchExpressions 字段下指定多个表达式, 则只有当所有表达式都满足时,Pod 才能被调度到节点上。

  • 参考官网

2.2.1 In硬策略

1.先查看节点标签,此时节点只有默认标签。
在这里插入图片描述
2.编辑pod.yaml文件,添加标签。上面为硬策略,必须满足;下面为软策略,尽量满足,但不确定。此时先看硬策略,配有标签ssd。
在这里插入图片描述
3.导入yaml文件,查看pod状态为等待状态。是因为我们两个node节点都没有设置标签,所有一直为pending。
在这里插入图片描述
4.此时再去给ndoe1节点打标签,之后再重新导入yaml文件,pod状态改变为runing状态,pod被调度到node1节点。
在这里插入图片描述

2.2.2 NotIn硬策略

1.将pod.yaml文件的操作符修改成NotIn,代表把pod创建到没有该标签的节点上。以下规则表示哪个节点标签没有disktype=ssd,则调度到那个节点上去。

在这里插入图片描述
2.导入yaml文件,查看新pod在node2节点上创建完成。因为node1有ssd标签,所有就分配在除node1节点之外的节点上。
在这里插入图片描述

2.2.3 软策略

  • 软策略主要讲究权重值(1~100),值越大,代表越能优先匹配到符合定义标签的节点上创建pod;若没有符合该标签的节点,则依然会创建pod,不会让其处于pending状态。

1.编辑pod.yaml文件,添加软策略,代表当调度pod时计算的分值+权重值=最后调度分值,分值越高则调度到匹配对应标签的欲望越大。
在这里插入图片描述

2.导入yaml文件,查看pod被创建在node2节点上。因为我的集群三个节点都没有disktype=ssd2标签,所以三个节点都有可能被分配,只是这里创建在node2节点上了。
在这里插入图片描述

2.3 PodAffinity亲和力调度

基本了解:

  • pod亲和力调度更偏向于将pod调度到某一个拓扑域内,且具备某一标签的pod上。比如es集群和redis集群分别部署在不同机器上,这样就可以看作两个拓扑域,当我新增redis容器时,我想把它调度到redis集群所在的节点上,此时就需要满足两个条件:1.必须是redis集群形成的拓扑域;2.该拓扑域内有redis指定标签的pod。
  • 此种调度略测同样具备硬策略和软策略之分。
  • 不建议在包含数百个节点的集群中使用这类设置,因为需要大量计算量,显著降低调度速度。

拓扑域的概念:

  • 一个拓扑域由一些Node节点组成。比如同一个机架、机房或地区的region拓扑域;地区级别的Zone拓扑域。
  • 实际生活中我们更多的是根据机架规划拓扑域,数据库服务器在哪个机架上,应用服务器在哪个机架上,对应的服务器打上对应的拓扑域标签。
  • K8s内置常用默认拓扑域:topology.kubernetes.io/zone、topology.kubernetes.io/region、kubernetes.io/hostname。

2种用法:

  • Pod Affinity:相关联的两种或多种Pod可以在同一个拓扑域中共存。
  • Pod AntiAffinity:相关联的两种或多种Pod可以在同一个拓扑域中互斥。

支持操作符:

  • In:将pod调度到匹配具有定义标签的节点上。
  • NotIn:将pod调度到,除具有定义标签的其他节点上。
  • Exists:若label标签存在,则调度到具备该标签的节点上。
  • DoesNotExist: 若label标签不存在,则调度到不具备该标签的节点上。
  • Gt:label 的值大于某个值。
  • Lt:label 的值小于某个值。

2.3.1 pod共存

1.先创建一个参考pod1 nginx,比作后面新创建的pod需要调度到此pod所在的拓扑域节点上,此时参考pod在node2上。
在这里插入图片描述
2.现在要新建第二个pod,要求是需要跟pod1在同一个区域。确切的讲,是仅当节点和至少一个已运行且有 app=nginx 或security=R1 的标签的 Pod 处于同一区域时,才可以将该新Pod 调度到节点上。

[root@k8s-master ~]# cat poaffinity.yaml 
apiVersion: v1
kind: Pod
metadata:
  name: web3
spec:
  affinity:
    podAffinity:
      requiredDuringSchedulingIgnoredDuringExecution:
      - labelSelector:
          matchExpressions:
          - key: app             ##条件二,该该区域内的集群节点上有标签app=nginx的pod在运行。
            operator: In
            values:
            - nginx
        topologyKey: topology.kubernetes.io/zone     ##条件一,调度到具备此标签的拓扑域内。
  containers:
  - name: nginx
    image: nginx

[root@k8s-master ~]# kubectl  apply -f poaffinity.yaml 

3.此时查看新pod就被分配在与nginx所在的同一个区域内,同时满足了以上2个条件。
在这里插入图片描述

2.3.2 pod互斥

1.同样还是以pod1 nginx为参考。

在这里插入图片描述
2.现在需要新建第二个Pod,调度条件是需要和app=nginx标签的pod所处在同一个zone区域中,且不能和security=R1标签的pod所在同一个hostname区域中。

[root@k8s-master ~]# cat poaffinity.yaml 
apiVersion: v1
kind: Pod
metadata:
  name: web4
spec:
  affinity:
    podAffinity:
      requiredDuringSchedulingIgnoredDuringExecution:
      - labelSelector:
          matchExpressions:
          - key: app
            operator: In
            values:
            - nginx
        topologyKey: topology.kubernetes.io/zone
    podAntiAffinity:
      requiredDuringSchedulingIgnoredDuringExecution:
      - labelSelector:
          matchExpressions:
          - key: security
            operator: In
            values:
            - R1
        topologyKey: kubernetes.io/hostname
  containers:
  - name: nginx
    image: nginx

[root@k8s-master ~]# kubectl  apply -f poaffinity.yaml 

3.查看。此时nginx分配在node2上,node1和node2都有topology.kubernetes.io/zone标签,所以node1和node2组成了zone区域。两节点上都具备kubernetes.io/hostname标签,有各自组成了一个区域。所以条件一满足了就是要将Pod分配的node1或node2上,满足条件二就只能调度到node1上。
在这里插入图片描述

三、Taint与Tolerations

为什么会有taint污点的存在?

  • 污点的作用类似与亲和力调度中的NotIn用法,只是亲和力调度是基于pod标签分配pod,而污点是基于Node层面来玩的,通过在Node上添加污点属性,来避免Pod被分配到不合适的节点上。
  • 比如磁盘要满、资源不足、存在安全隐患的节点需要升级维护,此时希望新的Pod不会被调度过来这些节点上,不然会影响业务。若仍需将某些Pod调度到这些节点上时,可以通过使用Toleration属性来实现。

基本概念:

  • Taints:污点,避免Pod调度到指定Node节点上。
  • Tolerations:污点容忍,允许Pod调度到持有Taints的Node上。

master节点为什么会在搭建集群时就默认打污点?

  1. 提高安全性。当黑客入侵容器时,不会渗透到master节点控制整个k8s集群。
  2. 专门作为跑管理节点组件,方便管理。
    在这里插入图片描述

相关命令:

  • 添加命令: kubectl taint node [node] key=value:[effect]
  • 验证命令:kubectl describe node k8s-node1 |grep Taint
  • 删除污点:kubectl taint node [node] key:[effect]-

[effect] 可取值:

  1. NoSchedule :一定不能被调度。
  2. PreferNoSchedule:尽量不要调度,非必须配置容忍。
  3. NoExecute:不仅不会调度,还会驱逐Node上已有的Pod。可以设置tolerationSeconds参数,表明Pod可以在Taint添加到Node之后还能在这个Node上运行多久(单位为s),时间已过就被驱逐。

3.1 添加污点

1.给node1节点打污点,其中key=gpu,value=yes,eddect=NoSchedule。

[root@k8s-master bck]# kubectl  taint node k8s-node1 gpu-yes:NoSchedule

2.查看节点污点。

#查看某一节点污点情况。
[root@k8s-master bck]# kubectl describe node k8s-node1|grep Taint

#查看集群所有节点污点情况。
[root@k8s-master bck]# kubectl describe nodes|grep Taint

在这里插入图片描述
3.此时常规pod就不会被调度创建在node1上了。
在这里插入图片描述

3.2 污点容忍

1.给node2节点打完污点后,再创建第二个pod ,此时该pod一直等待状态。要怎么解决呢?打污点容忍。

[root@k8s-master bck]# kubectl  taint node k8s-node2 gpu=ok2:NoSchedule

在这里插入图片描述

在这里插入图片描述
2.yaml文件添加污点容忍字段,导入yaml后pod被创建在node2节点上。容忍污点为gpu=ok2:NoSchedule的污点,也就是容忍在node2节点。

apiVersion: v1
kind: Pod
metadata:
  name: my-pod
spec:
  containers:
  - name: test
    image: busybox
  tolerations:
  - key: "gpu"
    operator: "Equal"
    value: "yes"
    effect: "NoSchedule"

在这里插入图片描述
3.删除Node2节点的污点。

[root@k8s-master bck]# kubectl taint node k8s-node2 gpu-

在这里插入图片描述

3.3 弹性驱逐调度

  • K8s从1.6版本开始引入两个与Taint相关的新特性:TaintNodesByCondition和TaintBasedEvictions,用来改善异常情况下的Pod调度与驱逐问题,比如在节点内存吃紧、节点磁盘空间已满、节点失联等情况下,是否自动驱逐某些Pod或者暂时保留这些Pod等待节点恢复正常。
  • 这两个特性现在已被默认启用。
    • TaintNodesByCondition特性只会为节点添加NoSchedule效果的污点。
    • TaintBasedEviction只为节点添加NoExecute效果的污点。在TaintBasedEvictions特性被开启之后,kubelet会在有资源压力时对相应的Node节点自动加上对应的NoExecute效果的Taint,例如node.kubernetes.io/memory-pressure、node.kubernetes.io/disk-pressure。如果Pod没有设置对应的Toleration,则这部分Pod将被驱逐,以确保节点不会崩溃。

流程逻辑:

  1. 不断地检查所有Node状态,设置对应的Condition。
  2. 不断地根据Node Condition设置对应的Taint。
  3. 不断地根据Taint驱逐Node上的Pod。

自动为Node节点添加Taint的几种情况:

  1. node.kubernetes.io/not-ready: 节点未就绪。对应NodeConditionOReady为False的情况
  2. node.kubernetes.io/unreachable:节点不可触达。对应NodeCondition Ready为Unknown的情况。
  3. node.kubernetes.io/out-of-disk: 节点磁盘空间已满。
  4. node.kubernetes.io/network-unavailable: 节点网络不可用。
  5. node.kubernetes.io/unschedulable: 节点不可调度。
  6. node.cloudprovider.kubernetes.io/uninitialized: 若kubelet是由“外部”云服务商启动的,则该污点用来标识某个节点当前为不可用状态。在云控制器 (cloud-controller-manager) 初始化这个节点以后,kubelet会将此污点移除。

四、优先级抢占调度

基本了解:

  1. 这种调度策略是为了提高资源利用率,但弊端颇多,只做了解。
  2. 当有大规模集群时,为了提高集群的资源利用率可以采用优先级方案,即不同类型的负载对应不同的优先级,同时允许集群中的所有负载所需的资源总量超过集群可提供的资源,在这种情况下,当发生资源不足的情况时,系统可以选择释放一些不重要的负载(优先级最低的) ,保障最重要的负载能够获取足够的资源稳定运行。

抢占式调度:

  • Pod Priority Preemption抢占式调度策略,会尝试释放目标节点上低优先级的Pod,以腾出空间(资源 安置高优先级的Pod,这种调度方式被称为“抢占式调度”。
  • 抢占式调度策略出来之前,若有优先级高的Pod被创建后只能处于pending状态,等待释放资源后才能创建,所以解决这个问题官方才会引出抢占式调度。
  • 1.11版本已升级为Beta版本,默认开启。

衡量负载优先级指标:

  • Priority: 优先级
  • QoS: 服务质量等级
  • 系统定义的其他度量指标。

驱逐、抢占:

  • Eviction驱逐,是kubelet进程的行为。当一个Node资源不足时kubelet会执行驱逐动作,kubelet会综合考虑该节点上的Pod的优先级、资源申请量与实际使用量等信息来计算哪些Pod需要被驱逐。当同样优先级的Pod需要被驱逐时,实际使用的资源量超过申请量最大倍数的高耗能Pod会被首先驱逐。
  • Preemption抢占,是Scheduler调度器执行的行为。当一个新的Pod因为资源无法满足而不能被调度时,Scheduler有权决定选择驱逐部分低优先级的Pod实例来满足此Pod的调度目标。

注意事项:

  1. 这种调度策略可能导致某些Pod永远无法被成功调度。优先级调度是一个复杂的玩法,可能会带来额外不稳定的因素。所以当出现资源紧张的局面时,首先要考虑的是集群扩容。
  2. 反观优先级调度策略初学者只做了解,实际应用中需要考量很多因素,比如批处理任务pod。

五、Nodename调度

  • 可以在pod.yaml中指定节点名称,将Pod调度到指定的Node上,不经过调度器。

1.pod.yaml中添加nodeName参数,指定调度节点。

[root@k8s-master ~]# cat pos.yaml 
apiVersion: v1
kind: Pod
metadata:
  name: my-pod
spec:
  nodeName: k8s-node2   #指点调度节点。
  containers:
  - name: web3
    image: nginx

[root@k8s-master ~]# kubectl  apply -f pos.yaml 

2.查看pod被调度到node2上。
在这里插入图片描述

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/498942.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

【机器学习】信息量、香农熵、信息增益

这节可以搭配 【机器学习】Logistic回归&#xff08;重新整理&#xff09;信息量&#xff08;信息&#xff09;信息量公式的推理过程 香农熵信息增益 【机器学习】Logistic回归&#xff08;重新整理&#xff09; B站视频&#xff1a;“交叉熵”如何做损失函数&#xff1f;打包…

RabbitMQ、RabbitMQ发布/订阅模式

1.RabbiMQ RabbitMQ是一个消息中间件 MQ的基本结构 1.1RabitMQ安装 参考&#xff1a;Docker安装 Docker中部署RabbitMQ 2.入门案例 2.1.publisher实现 package cn.itcast.mq.helloworld;import com.rabbitmq.client.Channel; import com.rabbitmq.client.Connection; im…

链表中倒数第k个结点

描述 输入一个链表&#xff0c;输出该链表中倒数第k个结点。 示例1 输入&#xff1a; 1,{1,2,3,4,5} 复制返回值&#xff1a; {5}看代码 struct ListNode* FindKthToTail(struct ListNode* pListHead, int k ) {struct ListNode* fast pListHead, *slow pListHead;whi…

Redis实现分布式锁详细解读

文章目录 什么是分布式锁&#xff1f;如何用Redis实现分布式锁&#xff1f;分布式锁的改进锁过期处理集群环境下Redis宕机问题RedLock的引入RedLock的实现步骤RedLock带来的弊端 什么是分布式锁&#xff1f; 我们在学多线程的时候遇到过ReetrantLock&#xff0c;这种锁主要应用…

node install编译失败原因

关键报错信息 npm ERR! gyp verb check python checking for Python executable "python2.7" in the PATH npm ERR! gyp verb which failed Error: not found: python2.7 或者 npm ERR! code ERESOLVE npm ERR! ERESOLVE could not resolve npm ERR! npm ERR! Whi…

车载以太网时间同步之EthTsync

车载以太网时间同步之EthTsync 前言 首先&#xff0c;请问大家几个小小问题&#xff0c;你清楚&#xff1a; 你知道EthTsync模块的主要作用是什么吗&#xff1f;EthTsync模块与其他AUTOSAR基础软件模块交互关系&#xff1b;Eth Tsync模块使用的时间同步协议是什么&#xff1f…

Java—JDK8新特性—函数式接口

目录 函数式接口 3.1 什么是函数式接口 3.2 functionalinterface注解 源码分析 3.3 Lambda表达式和函数式接口关系 3.4 使用函数式接口 函数式接口 3.1 什么是函数式接口 如果一个接口中只包含一个抽象方法&#xff0c;这个接口称为函数式接口 如果一个接口包含&#xff0…

mac php8 安装xdebug模块失败

安装 xdebug 模块,官网有详细介绍Xdebug: Documentation Installation 本机是mac php使用brew安装,想着可以直接使用以下方式安装,还是美滋滋的 但是安装途中发生了错误 PHP Warning: mkdir(): File exists in /usr/local/Cellar/php/8.0.10/share/php/pear/System.php on…

解决报错ERROR: No matching distribution found for torchvision==0.11.2+cu111

目录 一、猜测 二、验证 三、解决方案 四、检验 该报错是在按官网方法用指令&#xff1a; pip install torch1.9.1cu111 torchvision0.10.1cu111 torchaudio0.9.1 -f https://download.pytorch.org/whl/torch_stable.html 安装pytorch时出现的&#xff0c;以下是分析&#…

粗糙集属性约简方法与Python实现【1】

1. 方法概述 1.1 定义 粗糙集是波兰理工大学Z.pawlak教授提出用来研究不完整数据,不精确知识的表达、学习,归纳等的一套理论。它是一种新的处理模糊和不确定性问题的数学工具,已被广泛应用于知识发现、机器学习、决策支持、模式识别、专家系统及归纳推理等领域。 粗糙集理…

开源相亲小程序

此项目目前已完成前台开发。源码结构清晰&#xff0c;完美实现模块化组件化思想&#xff0c;易维护。 曾经&#xff0c;作者也为寻求自己的另一半苦恼&#xff0c;因为平时工作繁忙&#xff0c;交际圈窄小&#xff0c;而父母又各种催婚&#xff0c;无奈上了“XX网”去碰碰运气。…

webpack5搭建react框架-antd组件库使用

antd组件库使用 一、前言 前面已经完成了webpack5 react框架的配置搭建&#xff0c;我们在进行项目开发的时候大多还会使用第三方的组件库&#xff0c;而antd组件库在react项目中使用是非常非常多的&#xff0c;所以就将react框架使用最多的antd组件库引入并使用。 二、ant…

京东给了兄弟姐妹们稳稳的幸福

“今天我看了宿舍楼&#xff0c;我真的是气得想打人&#xff1b;我原来一直说的是高级单身公寓&#xff01;可实际情况呢&#xff1f;我说了多少遍了&#xff0c;要让员工、让兄弟们活的有尊严。而我们宿迁分公司的管理层是怎么做的呢&#xff0c;说难听的就是没有把员工当人去…

低代码平台的多租户SAAS系统实战解决方案—JeecgBoot

JeecgBoot免费低代码平台&#xff0c;提供一键切换多租户模式机制&#xff01;快速实现全系统的saas租户方案&#xff0c;通过租户ID进行数据隔离。 租户设计思路 1、开启全系统租户隔离 开启方法 将 org.jeecg.config.mybatis.MybatisPlusSaasConfig#OPEN_SYSTEM_TENANT_CO…

RabbitMQ --- 消息可靠性

消息队列在使用过程中&#xff0c;面临着很多实际问题需要思考&#xff1a; 一、消息可靠性 消息从发送&#xff0c;到消费者接收&#xff0c;会经理多个过程&#xff1a; 其中的每一步都可能导致消息丢失&#xff0c;常见的丢失原因包括&#xff1a; 发送时丢失&#xff1a; …

(java)继承和多态 (详解)

目录 1 继承 1.1为什么需要继承 1.2 继承概念 1.3 继承的语法 1.4 父类成员访问 1.4.1 子类中访问父类的成员变量 1.4.2 子类中访问父类的成员方法 1.5 super关键字 1.6 子类构造方法 1.7 super和this 1.7.1 this 1.7.2 super和this 1.8 再谈初始化 1.9 继承方…

软考信管高级——人力资源管理

人力资源管理内容 人力资源管理计划 内容&#xff1a; 角色与职责&#xff1a;定义项目所需的岗位、技能和能力项目组织图&#xff0c;说明项目所需的人员数量人员配备管理计划&#xff0c;说明需要每个团队的时间段以及有助于项目团队参与的其他重要信息 成功的项目团队的特…

Linux安装java jdk

1、检查系统中jdk 版本&#xff1a;java -version 2、检测 jdk 安装包&#xff1a;rpm -qa | grep java 3、卸载 openjdk rpm -e --nodeps tzdata-java-2017b-1.el7.noarch rpm -e --nodeps java-1.8.0-openjdk-1.8.0.131-11.b12.el7.x86_64 rpm -e --nodeps java-1.8.0-open…

深度学习细节总结

计算机视觉 目标检测&#xff0c;语义分割&#xff0c;目标分类 自然语言处理NLP 数据结构 数据结构 访问元素 线性回归 可以看成是一个单层的神经网络&#xff0c;有显式的解 优化算法 梯度下降&#xff0c;超参数&#xff1a;学习率、批量大小 分类回归 单层感知机…

RuntimeError:cuDNN error:CUDNN_STATUS_EXECUTION_FAILED

背景 最近在服务器上跑Deeplabv3进行语义分割时&#xff0c;需要使用GPU版的pytorch。 我在Anaconda下配置了适配服务器CUDA的pytorch&#xff0c;但是报错如下&#xff0c;&#xff08;下图无限接近于我的错误&#xff0c;但是我忘记截图我的报错了&#xff0c;所以用了下面这…