k8s pv pvc的使用

news2024/9/22 19:40:08

k8s pv pvc的使用

  1. 安装nfs服务器
yum install rpcbind nfs-utils -y
systemctl enable rpcbind
systemctl enable nfs
systemctl start rpcbind
systemctl start nfs
mkdir -p /root/data/sc-data
[root@master sc-data]# cat /etc/exports
/root/data/sc-data 192.168.1.0/24(rw,no_root_squash)
/root/data/nginx/pv  192.168.1.0/24(rw,no_root_squash)
别的服务器检测是否能用
[root@node1 ~]# showmount -e 192.168.1.90
Export list for 192.168.1.90:
/root/data/sc-data  192.168.1.0/24
/root/data/nginx/pv 192.168.1.0/24

静态创建 pv pvc

  1. 创建pv
[root@master xiongfei]# cat  pv-nginx.yaml 
apiVersion: v1
kind: PersistentVolume
metadata:
  name:  pv-nginx  # pv 的名字
spec:
  capacity:  # 容量
    storage: 5Gi
  accessModes: # 访问模式
  - ReadWriteMany  
  persistentVolumeReclaimPolicy: Retain  # 删除pv之后,nfs目录下数据的保存方式 ,delte 删除,Retain 保留
  nfs:
    path: /root/data/nginx/pv
    server: 192.168.1.90
  1. 创建pvc
[root@master xiongfei]# cat nginx-pvc.yaml 
apiVersion: v1
kind: PersistentVolumeClaim
metadata:
  name: pvc-nginx
  namespace: dev
spec:
  accessModes: 
  - ReadWriteMany
  resources:
    requests:
      storage: 4Gi # 这个地方的容量尽量要在pv的范围之内,他会去匹配到和她比较合适的pv 进行绑定
  1. 创建一个configmap
[root@master xiongfei]# cat nginx-configmap.yaml 
apiVersion: v1
kind: ConfigMap
metadata:
  name: nginx-configmap
  namespace: dev
data:
  default.conf: |-
    server {
       listen       80;
       server_name  localhost;

       #charset koi8-r;

       #access_log  logs/host.access.log  main;

       location / {
        root   /usr/share/nginx/html/account;  
        index  index.html index.htm;
       }
 

        location /account {
                proxy_pass http://192.168.1.130:8088/account;
          }         
        

        error_page 405 =200 $uri;

        error_page   500 502 503 504  /50x.html;
        location = /50x.html {
            root   html;
        }
    }

     server {
         listen 8081;
         server_name localhost;
         location / {
            root   /usr/share/nginx/html/org; 
            index  index.html index.htm;
        }
                    
         location /org {
          
            proxy_pass http://192.168.1.130:8082/org;  
           # 使用websocket的协议进行
            proxy_http_version 1.1;
            proxy_set_header Upgrade $http_upgrade;
            # 启用支持websscoket连接
            proxy_set_header Connection "Upgrade";
            proxy_set_header X-Real-IP $remote_addr;
            proxy_read_timeout 600s;
          }
                  
        location ~ ^/V1.0/(.*) {
            rewrite /(.*)$ /org/$1 break; 
            proxy_pass http://192.168.1.130:8082;
            proxy_set_header Host $proxy_host; 
           }        
      }
  1. 创建一个hpa,提高可用行(这个在这里不用看)
[root@master xiongfei]# cat nginx-hpa.yaml 
apiVersion: autoscaling/v1
kind: HorizontalPodAutoscaler
metadata:
  name: pc-hpa
  namespace: dev
spec:
  minReplicas: 1  #最小pod数量
  maxReplicas: 10 #最大pod数量
  targetCPUUtilizationPercentage: 10 # CPU使用率指标
  scaleTargetRef:   # 指定要控制的nginx信息
    apiVersion:  apps/v1
    kind: Deployment
    name: nginx-deploy  # 控制器的名字

  1. 创建一个pod 实例验证一下
[root@master xiongfei]# cat nginx-service-deployment.yaml 
apiVersion: v1
kind: Service
metadata:
  labels:
    app: nginx-service
  name: nginx-service   
  namespace: dev
spec:
  ports:
  - name: account-nginx
    port: 80
    protocol: TCP
    targetPort: 80
    nodePort: 30013
  - name: org-nginx
    port: 8081
    protocol: TCP
    targetPort: 8081
    nodePort: 30014
  selector:
    app: nginx-pod1
  type: NodePort

---
apiVersion: apps/v1
kind: Deployment
metadata:
  labels:
    app: nginx-deploy
  name: nginx-deploy
  namespace: dev
spec:
  replicas: 1
  selector:
    matchLabels:
      app: nginx-pod1
  strategy:
    type: RollingUpdate
  template:
    metadata:
      labels:
        app: nginx-pod1
      namespace: dev
    spec:
      containers:
      - image: nginx:1.17.1
        name: nginx
        ports:
        - containerPort: 80
          protocol: TCP
        - containerPort: 8081
          protocol: TCP
        resources:
          limits:
            cpu: "1" 
          requests:
            cpu: "500m"
        volumeMounts:
        - name: nginx-config
          mountPath: /etc/nginx/conf.d/
          readOnly: true
        - name: nginx-html
          mountPath: /usr/share/nginx/html/
          readOnly: false              
       # - name: nginx-html2
       #   mountPath: /usr/share/nginx/html/app-vue2
       #   readOnly: false
      volumes:
      - name: nginx-config
        configMap:
          name: nginx-configmap # 指定configmap 的名字
      - name: nginx-html
        persistentVolumeClaim:
          claimName: pvc-nginx # 指定pvc 的名字
          readOnly: false

  1. 查看pv pvc 之间的绑定状态
[root@master ~]# kubectl get pv,pvc  -n dev  
NAME                                                        CAPACITY   ACCESS MODES   RECLAIM POLICY   STATUS   CLAIM           STORAGECLASS   REASON   AGE
persistentvolume/pv-nginx                                   5Gi        RWX            Retain           Bound    dev/pvc-nginx                           2d6h

NAME                              STATUS   VOLUME     CAPACITY   ACCESS MODES   STORAGECLASS   AGE
persistentvolumeclaim/pvc-nginx   Bound    pv-nginx   5Gi        RWX                           2d6h

  1. 创建一个pod 实例验证一下
    在这里插入图片描述
以上的这种演示方式是通过手动的情况下创建的

通过StorageClass 动态创建pv,pvc

在这里插入图片描述

  1. 创建 nfs provisioner (nfs 配置器)
[root@master k8s-StorageClass]# cat deployment.yaml 
kind: Deployment
apiVersion: apps/v1
metadata:
 name: nfs-client-provisioner  # 我们这里存储后端使用的是 nfs,那么我们就需要使用到一个 nfs-client 的自动配置程序,我们也叫它 Provisioner(制备器),这个程序使用我们已经配置好的 nfs 服务器,来自动创建持久卷,也就是自动帮我们创建 PV。
 namespace: kube-system
spec:
 replicas: 2
 strategy:
   type: Recreate
 selector:
   matchLabels:
     app: nfs-client-provisioner
 template:
   metadata:
     labels:
       app: nfs-client-provisioner
   spec:
     serviceAccountName: nfs-client-provisioner
     affinity:
       podAntiAffinity:
         preferredDuringSchedulingIgnoredDuringExecution:
         - weight: 100
           podAffinityTerm:
             topologyKey: kubernetes.io/hostname
             labelSelector:
               matchLabels:
                 app: nfs-client-provisioner
       # nodeAffinity:
         # requiredDuringSchedulingIgnoredDuringExecution:
           # nodeSelectorTerms:
           # - matchExpressions:
             # - key: dedicated
               # operator: In
               # values:
               # - "cmp"
     containers:
       - name: nfs-client-provisioner
         image: quay.io/external_storage/nfs-client-provisioner:v3.1.0-k8s1.11
         volumeMounts:
           - name: nfs-client-root
             mountPath: /persistentvolumes
         env:
           - name: PROVISIONER_NAME
             value: nfs-client-provisioner
           - name: NFS_SERVER
             value: 192.168.1.90
           - name: NFS_PATH
             value: /root/data/sc-data
     volumes:
       - name: nfs-client-root
         nfs:
           server: 192.168.1.90
           path: /root/data/sc-data

  1. 创建rbac 资源的授权策略集合
[root@master k8s-StorageClass]# cat rabc.yaml 
kind: ServiceAccount
apiVersion: v1
metadata:
 name: nfs-client-provisioner
 namespace: kube-system
---
kind: ClusterRole
apiVersion: rbac.authorization.k8s.io/v1
metadata:
 name: nfs-client-provisioner-runner
rules:
 - apiGroups: [""]
   resources: ["persistentvolumes"]
   verbs: ["get", "list", "watch", "create", "delete"]
 - apiGroups: [""]
   resources: ["persistentvolumeclaims"]
   verbs: ["get", "list", "watch", "update"]
 - apiGroups: ["storage.k8s.io"]
   resources: ["storageclasses"]
   verbs: ["get", "list", "watch"]
 - apiGroups: [""]
   resources: ["events"]
   verbs: ["create", "update", "patch"]
---
kind: ClusterRoleBinding
apiVersion: rbac.authorization.k8s.io/v1
metadata:
 name: run-nfs-client-provisioner
subjects:
 - kind: ServiceAccount
   name: nfs-client-provisioner
   namespace: kube-system
roleRef:
 kind: ClusterRole
 name: nfs-client-provisioner-runner
 apiGroup: rbac.authorization.k8s.io
---
kind: Role
apiVersion: rbac.authorization.k8s.io/v1
metadata:
 namespace: kube-system
 name: leader-locking-nfs-client-provisioner
rules:
 - apiGroups: [""]
   resources: ["endpoints"]
   verbs: ["get", "list", "watch", "create", "update", "patch"]
---
kind: RoleBinding
apiVersion: rbac.authorization.k8s.io/v1
metadata:
 namespace: kube-system
 name: leader-locking-nfs-client-provisioner
subjects:
 - kind: ServiceAccount
   name: nfs-client-provisioner
   # replace with namespace where provisioner is deployed
   namespace: kube-system
roleRef:
 kind: Role
 name: leader-locking-nfs-client-provisioner
 apiGroup: rbac.authorization.k8s.io

  1. 创建storageclass
[root@master k8s-StorageClass]# cat storageclass.yaml 
apiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:
  annotations:
    kubectl.kubernetes.io/last-applied-configuration: |
      {"apiVersion":"storage.k8s.io/v1","kind":"StorageClass","metadata":{"annotations":{},"name":"nfs"},"provisioner":"nfs-client-provisioner","reclaimPolicy":"Delete"}
    storageclass.beta.kubernetes.io/is-default-class: "true"
    storageclass.kubernetes.io/is-default-class: "true"
  name: nfs
provisioner: nfs-client-provisioner
parameters:
  archiveOnDelete: "true"  ## 删除pv的时候,pv的内容是否要备份, 默认是true, 删除 pod  pvc 之后 nfs 目录下的 文件会以 archived-default-nginx-pvc-bcf313fa-a121-4833-8f74-2a255bdb7fcc 这样方式呈现,数据还在
reclaimPolicy: Retain  #有两种选择, Delete;Retain是保留文件
#reclaimPolicy: Retain #有两种选择, Delete;Retain是保留文件, 当删除pvc 时,pv 资源不会被立即回收,而是保留着,管理员可以手动对pv 进行清理,重用等操作,当 PVC 被删除时,PV 资源也会被删除

1. 第一种情况
parameters:
  archiveOnDelete: "true" 
reclaimPolicy: delete
	 文件会以arch... 命名,数据还在,新创立的pod,不会引用之前数据目录里的数据
2. 第二种情况
parameters:
  archiveOnDelete: "false" 
reclaimPolicy: delete
	 nfs 目录下的数据 会被全部删除

3. **第三种情况**
parameters:
  archiveOnDelete: "false"  # 默认是 true
reclaimPolicy: Retain   
   当回收策略改为Retain时, 删除pod时候, pvc  pv  在删除时, nfs 文件不会被清楚,还是以defatult 这样的形势存在,当再次创建pod,会引用之前的数据 
5. 第四种情况
parameters:
  archiveOnDelete: "true" 
reclaimPolicy: Retain
     数据目录下的 pvc的名字不变 还是以default 这样命名,新创建的pod ,不会引用之前留存的数据,pv的状态会变为Released 
  1. 创建一个测试pod
[root@master k8s-StorageClass]# cat test-nginx-pvc.yaml 
apiVersion: v1
kind: Pod
metadata:
  name: nginx
spec:
  containers:
  - name: nginx
    image: nginx:latest
    ports:
    - containerPort: 80
    volumeMounts:
      - name: www
        mountPath: /usr/share/nginx/html
  volumes:
    - name: www
      persistentVolumeClaim:
        claimName: nginx  # 这里写上pvc的名字 
---
# 创建一个pvc,通过 sc 
apiVersion: v1
kind: PersistentVolumeClaim
metadata:
  name: nginx
spec:
  storageClassName: "nfs"  #  指定storageclass 类的名字 
  accessModes:
    - ReadWriteMany
  resources:
    requests:
      storage: 5Gi

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/506090.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

搜索、添加、删除均为O(logn)的数据结构——跳表

文章目录 有序数组和链表的对比有序数组有序链表 跳表跳表的搜索跳表的插入跳表的删除 跳表完整Java实现代码(包含上面介绍的所有功能模块) 有序数组和链表的对比 有序数组 有序数组支持高效随机访问,可以使用二分查找使得查找的时间复杂度…

SEO外包是为了省钱还是为了更好的效果呢?我们的探讨!

SEO是指优化网站以获得更高的自然搜索引擎排名的一系列技术和方法,它可以提高网站的可见性、流量和收入。随着互联网的不断发展,越来越多的企业意识到了SEO的重要性,但是,由于技术难度和人力成本的限制,许多企业选择将…

TikTok选品思路你真的知道吗

TikTok是一款非常流行的短视频社交应用程序,用户群体广泛,主要集中在年轻人之间,越来越多跨境商家布局TikTok。那么在TikTok上进行选品时,要采用什么思路和方法才能让自己的产品比较出众吸睛并且让自己财源滚滚呢? 一、…

阿里云服务器镜像是什么?镜像系统怎么选择?

阿里云服务器镜像是云服务器的装机盘,镜像是为云服务器安装操作系统的。云服务器镜像系统怎么选择?云服务器操作系统镜像分为Linux和Windows两大类,Linux可以选择Alibaba Cloud Linux,Windows可以选择Windows Server 2022数据中心…

BI 数字化转型对央企和中小企业的利好

数字化产品和服务的大规模应用也让数字经济、数据价值得到了众多企业的重视。先说数字经济,据统计,2020年全球数字经济规模达到32.61万亿美元,与GDP总量比例为43.7%,其中中国数字经济规模达到了5.4万亿美元,并维持着9.…

手麻系统源码,PHP手术麻醉临床信息系统源码,手术前管理模块功能

手麻系统源码,PHP手术麻醉临床信息系统源码,手术前管理模块功能 术前管理模块主要有手术排班、手术申请单、手术通知单、手术知情同意书、输血血液同意书、术前查房记录、术前访视、风险评估、手术计划等功能。 功能: 手术排班:…

免费换电池还倒塞用户200,iPhone惨遭“耐用”反噬

多年来 iPhone 最为诟病的几个缺点之一肯定少不了电池。 在 Android 已经普及4、5000mAh 大电池加快充组合的情况下,iPhone 仅有 Pro Max(Plus)勉强及格。 更难受的是今年3月,官方换电池还迎来了幅度不小的涨价。 苹果这是在建议我…

STM32F4_RTC实时时钟

目录 1. RTC实时时钟简介 2. RTC框图 3. RTC初始化和配置 3.1 RTC和低功耗模式 3.2 RTC中断 4. RTC相关寄存器 4.1 时间寄存器:RTC_TR 4.2 日期寄存器:RTC_DR 4.3 亚秒寄存器:RTC_SSR 4.4 控制寄存器:RTC_CR 4.5 RTC初…

【LoadRunner】教你快速编写一个性能测试脚本 demo

目录 LoadRunner 工具介绍 UI性能测试步骤 编写性能测试脚本(VUG) 创建测试场景(Controller) 生成测试报告(Analysis) LoadRunner 工具介绍 我们使用以上三个工具针对我们的项目进行性能测试。 a&am…

3U VPX 总线架构+ 2片国防科大银河飞腾 FT-M6678 多核浮点运算 DSP 设计资料--VPX303

板卡概述 VPX303 是一款基于 3U VPX 总线架构的高性能信号处理板,板载 2 片国防科大银河飞腾 FT-M6678 多核浮点运算 DSP,可以实现各 种实时性要求较高的信号处理算法。 板卡每个 DSP 均支持 5 片 DDR3 SDRAM 实现数据缓存,两片 DSP 之…

( 位运算 ) 268. 丢失的数字 ——【Leetcode每日一题】

❓268. 丢失的数字 难度:简单 给定一个包含 [0, n] 中 n 个数的数组 nums ,找出 [0, n] 这个范围内没有出现在数组中的那个数。 示例 1: 输入:nums [3,0,1] 输出:2 解释:n 3,因为有 3 个数…

正则表达式 - 匹配 Unicode 和其他字符

目录 一、匹配 Unicode 字符 1. 匹配 emoji 符号 (1)确定 emoji 符号的 Unicode 范围 (2)emoji 符号的存储 (3)正则表达式匹配 2. 匹配中文 (1)确定中文的 Unicode 范围 &am…

PostgreSQL-HA 高可用集群在 Rainbond 上的部署方案

PostgreSQL 是一种流行的开源关系型数据库管理系统。它提供了标准的SQL语言接口用于操作数据库。 repmgr 是一个用于 PostgreSQL 数据库复制管理的开源工具。它提供了自动化的复制管理,包括: 故障检测和自动故障切换:repmgr 可以检测到主服…

二叉搜索树中的插入操作

1题目 给定二叉搜索树(BST)的根节点 root 和要插入树中的值 value ,将值插入二叉搜索树。 返回插入后二叉搜索树的根节点。 输入数据 保证 ,新值和原始二叉搜索树中的任意节点值都不同。 注意,可能存在多种有效的插入…

YOLOv3论文解读/总结

本章论文: YOLOv3论文(YOLOv3: An Incremental Improvement)(原文+解读/总结+翻译) 系列论文: YOLOv1论文解读/总结_yolo论文原文_耿鬼喝椰汁的博客-CSDN博客 YOLOv2论文解读/总…

try(){}用法try-with-resources、try-catch-finally

属于Java7的新特性。 经常会用try-catch来捕获有可能抛出异常的代码。如果其中还涉及到资源的使用的话,最后在finally块中显示的释放掉有可能被占用的资源。 但是如果资源类已经实现了AutoCloseable这个接口的话,可以在try()括号中可以写操作资源的语句(…

cocos 项目实践总结

文章目录 组件文档的理解:开发过程顺序问题:1、获取锚点坐标2、事件监听3、批量生成选词按钮4、Button可以自定义边界、边界颜色、及弧度一些问题记录1、button点击过后重新恢复页面渲染,button的状态偶发还是点击态而非正常态2、偶发事件绑定…

【自动驾驶基础入门】SLAM应该怎么学习?

1、SLAM是什么? SLAM是Simultaneous Localization and Mapping的缩写,即同时定位与地图构建。也称为自主机器人导航或者无人车等领域的基本任务之一。 简单来说,SLAM是指在未知环境中,通过移动机器人并利用其搭载的各种传感器数据…

Yolov5训练日记~如何用Yolov5训练识别自己想要的模型~

目录 一.数据集准备 二.标签设置 三.模型训练 四.模型测试 最近尝试了Yolov5训练识别人体,用的是自己尝试做的训练集。见识到Yolo的强大后,决定分享给大家。 一.数据集准备 数据集是从百度图片上下载的,我当然不可能一个一个下载&#xff…

还没用过这12款建筑设计软件?你OUT了

每个建筑设计软件都针对不同的需求。选择最好的一个取决于许多因素,例如成本、与其他程序的兼容性以及您愿意花在绘图过程上的时间。它还取决于您在设计过程中所处的位置——我们可能都开始在纸上画草图,然后转向建筑软件。我们甚至需要图形设计软件来说…