K8S:Pod容器中的存储方式及PV、PVC

文章目录

  • Pod容器中的存储方式
  • 一.emptyDir存储卷
    • 1.emptyDir存储卷概念
    • 2.emptyDir存储卷示例
  • 二.hostPath存储卷
    • 1.hostPath存储卷概念
    • 2.hostPath存储卷示例
  • 三.nfs共享存储卷
    • 1.nfs共享存储卷示例
  • 四.PV和PVC
    • 1.PV、PVC概念
    • 2.PVC 的使用逻辑及数据流向
    • 3.storageclass插件
      • (1)storageclass插件概念
      • (2)StorageClass插件数据流向
    • 4.PV和PVC之间的相互作用及PV 的状态
      • (1)生命周期
      • (2)PV 的状态
      • (3)pv创建到销毁的整个流程
    • 5.PV和PVC基础操作
      • (1)查看pv的定义方式
      • (2)查看pv定义的规格
      • (3)查看PVC的定义方式
    • 6.k8s支持的存储插件的访问方式
    • 7.NFS使用PV、PVC静态示例
      • (1)NFS使用PV、PVC图示
      • (2)NFS使用PV、PVC配置
        • ①配置nfs存储
        • ②定义PV
        • ③定义PVC
        • ④测试访问
    • 8.搭建 StorageClass + NES实现 NES 的动态 PV 创建
      • (1)外部存储卷插件
      • (2)卷插件概念
      • (3)配置 StorageClass + NES实现 NES 的动态 PV 创建
        • ①在stor01节点上安装nfs,并配置nfs服务
        • ②创建 Service Account,用来管理 NFS Provisioner 在 k8s 集群中运行的权限,设置 nfs-client 对 PV,PVC,StorageClass 等的规则
        • ③使用 Deployment 来创建 NFS Provisioner
        • ④创建 StorageClass,负责建立 PVC 并调用 NFS provisioner 进行预定的工作,并让 PV 与 PVC 建立关联
        • ⑤创建 PVC 和 Pod 测试
  • 总:
    • 1.三个存储卷
    • 2.PV和PVC
    • 3.storageClass
    • 4.静态PV的使用及创建PV、PVC和Pod的过程

Pod容器中的存储方式

需要存储方式前提:容器磁盘上的文件的生命周期是短暂的,这就使得在容器中运行重要应用时会出现一些问题。

首先,当容器崩溃时,kubelet 会重启它,但是容器中的文件将丢失——容器以干净的状态(镜像最初的状态)重新启动。其次,在Pod中同时运行多个容器时,这些容器之间通常需要共享文件。Kubernetes 中的Volume抽象就很好的解决了这些问题。Pod中的容器通过Pause容器共享Volume。

一.emptyDir存储卷

1.emptyDir存储卷概念

当Pod被分配给节点时,首先创建emptyDir卷,并且只要该Pod在该节点上运行,该卷就会存在。正如卷的名字所述,它最初是空的。Pod 中的容器可以读取和写入emptyDir卷中的相同文件,尽管该卷可以挂载到每个容器中的相同或不同路径上。当出于任何原因从节点中删除 Pod 时,emptyDir中的数据将被永久删除。

2.emptyDir存储卷示例

#为了更方便查看将之前的pod删除
kubectl delete pod --all
#查看节点是否有污点,有则清除
kubectl describe nodes node01
kubectl describe nodes node02
mkdir /opt/volumes
cd /opt/volumes
vim pod-emptydir.yaml apiVersion: v1
kind: Pod
metadata:name: pod-emptydirnamespace: defaultlabels:app: myapptier: frontend
spec:containers:- name: myappimage: ikubernetes/myapp:v1imagePullPolicy: IfNotPresentports:- name: httpcontainerPort: 80#定义容器挂载内容volumeMounts:#使用的存储卷名称,如果跟下面volume字段name值相同,则表示使用volume的这个存储卷- name: blue#挂载至容器中哪个目录mountPath: /usr/share/nginx/html/- name: busyboximage: busybox:latestimagePullPolicy: IfNotPresentvolumeMounts:- name: blue#在容器内定义挂载存储名称和挂载路径mountPath: /data/command: ['/bin/sh','-c','while true;do echo $(date) >> /data/index.html;sleep 2;done']#定义存储卷volumes:#定义存储卷名称  - name: blue#定义存储卷类型emptyDir: {}
kubectl apply -f pod-emptydir.yaml
kubectl get pods -o wideNAME           READY   STATUS    RESTARTS   AGE   IP            NODE     NOMINATED NODE   READINESS GATES
pod-emptydir   2/2     Running   0          54s   10.244.2.31   node01   <none>           <none>

在这里插入图片描述

#在上面定义了2个容器,其中一个容器是输入日期到index.html中,然后验证访问nginx的html是否可以获取日期。以验证两个容器之间挂载的emptyDir实现共享。
curl 10.244.2.31

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

#进入容器查看
kubectl exec -it pod-emptydir -c busybox sh
cd /data/
cat index.html
exit

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

kubectl exec -1t pod-emptydir ic myapp sh
cd /usr/share/nginx/html/
cat index.html
exit

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

总:容器和容器之间共用了一个emptyDir卷,一旦容器挂掉,存储卷也不会存在

二.hostPath存储卷

1.hostPath存储卷概念

hostPath卷将 node 节点的文件系统中的文件或目录挂载到集群中。
hostPath可以实现持久存储,但是在node节点故障时,也会导致数据的丢失。

2.hostPath存储卷示例

可以使用此命令查看相关标签配置:kubectl explain pod.spec.volumes .hostpath

node01 节点操作

#在 node01 节点上创建挂载目录
mkdir -p /data/pod/volume1
echo 'node01.blue.com' > /data/pod/volumel/index.html

node02 节点操作

#在 node02 节点上创建挂载目录
mkdir -p /data/pod/volumel
echo 'node02.blue.com' > /data/pod/volumel/index.html

master 节点操作

#创建 Pod 资源
vim pod-hostpath.yamlapiVersion: v1
kind: Pod
metadata:name: pod-hostpathnamespace: default
spec:containers:- name: myappimage: ikubernetes/myapp:v1#定义容器挂载内容volumeMounts:#使用的存储卷名称,如果跟下面volume字段name值相同,则表示使用volume的这个存储卷- name: html#挂载至容器中哪个目录mountPath: /usr/share/nginx/html#读写挂载方式,默认为读写模式falsereadOnly: false#volumes字段定义了paues容器关联的宿主机或分布式文件系统存储卷volumes:#存储卷名称- name: html#路径,为宿主机存储路径hostPath:#在宿主机上目录的路径path: /data/pod/volume1#定义类型,这表示如果宿主机没有此目录则会自动创建type: DirectoryOrCreate
kubectl apply -f pod-hostpath.yaml
#访问测试
kubectl get pods -o wide
curl 10.244.2.35node02.blue.com

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

#删除pod,再重建,验证是否依旧可以访问原来的内容
kubectl delete -f pod-hostpath.yaml  
kubectl apply -f pod-hostpath.yaml 
kubectl get pods -o wide
#访问测试
curl  10.244.2.37 
node02.blue.com

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

总:pod漂到哪一个节点上,哪一个节点共享数据,如果node节点挂了,数据会丢失

三.nfs共享存储卷

1.nfs共享存储卷示例

stor01节点操作

#查看是否安装nfs
rpm -q rpcbind nfs-utils
hostnamectl set-hostname stor01
#在stor01节点上安装nfs,并配置nfs服务
mkdir /data/volumes -p
chmod 777 /data/volumes
vim /etc/exports
/data/volumes 192.168.198.0/24(rw,no_root_squash)
systemctl start rpcbind
systemctl start nfs
showmount -e
Export list for stor01:
/data/volumes 192.168.198.0/24

node02节点操作

vim /etc/hosts
192.168.198.14 stor01

node01节点操作

vim /etc/hosts
192.168.198.14 stor01

master节点操作

vim pod-nfs-vol.yamlapiVersion: v1
kind: Pod
metadata:name: myapp01-nfsnamespace: default
spec:containers:- name: myappimage: ikubernetes/myapp:v1imagePullPolicy: IfNotPresentvolumeMounts:- name: nfsmountPath: /usr/share/nginx/htmlreadOnly: falserestartPolicy: AlwaysnodeSelector:kubernetes.io/hostname: node02volumes:- name: nfsnfs:path: /data/volumesserver: stor01
---
apiVersion: v1
kind: Pod
metadata:name: myapp02-nfsnamespace: default
spec:containers:- name: myappimage: ikubernetes/myapp:v1imagePullPolicy: IfNotPresentvolumeMounts:- name: nfsmountPath: /usr/share/nginx/htmlreadOnly: falserestartPolicy: AlwaysnodeSelector:kubernetes.io/hostname: node01volumes:- name: nfsnfs:path: /data/volumesserver: 192.168.198.14
kubectl apply -f pod-nfs-vol.yaml
kubectl get pods -o wide

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

stor01节点操作

#在nfs服务器上创建index.html
cd /data/volumes
vim index.html
<h1> nfs stor01</h1>

master节点操作

#master节点操作
curl 10.244.1.39<h1> nfs stor01</h1>curl 10.244.2.32<h1> nfs stor01</h1>

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

 #删除nfs相关pod,再重新创建,可以得到数据的持久化存储
kubectl delete -f pod-nfs-vol.yaml  
kubectl apply -f pod-nfs-vol.yaml
kubectl exec -it myapp01-nfs sh
cd /usr/share/nginx/html/
echo "this is node2" >> index.html
cat index.html
exit

总:共享存储挂载,nfs只要不挂,则数据就不会丢失

四.PV和PVC

1.PV、PVC概念

(1)PV 个称叫做 Persistent volume使持久化存储卷。它是用来描述或者说用来定义一个存储卷的,这个通常都是由运维工程师来定义。

(2)PVC 的全称是 Persistent Volume claim,是持久化存储的请求。它是用来描述希望使用什么样的或者说是满足什么条件的 PV 存储。

2.PVC 的使用逻辑及数据流向

(1)定义:在 Pod 中定义一个存储卷 (该存储卷类型为 PVC),定义的时候直接指定大小,PVC 必须与对应的PV 建立关系,PVC 会根据配置的定义去 PV 申请,而P V 是由存储空间创建出来的。PV 和 PVC 是 Kubernetes抽象出来的一种存储资源。

(2)数据流向

在这里插入图片描述

3.storageclass插件

(1)storageclass插件概念

Pv和Pc模式是需要运维人员先创建好PV,然后开发人员定义好PVC进行一对一的绑定,但是如果PVC请求成千上万,那么就需要创建成千上万的PV,对于运维人员来说维护成本很高,Kubernetes提供一种自动创建PV的机制,叫storageclass,它的作用就是创建PV的模板。

创建 storageclass 需要定义 PV 的属性,比如存储类型、大小等;另外创建这种 PV 需要用到的存储插件,比如Ceph 等。 有了这两部分信息,Kubernetes 就能够根据用户提交的 PVC,找到对应的 storaqeclass,然后Kubernetes 就会调用 storageclass 声明的存储插件,自动创建需要的 PV 并进行绑定。

(2)StorageClass插件数据流向

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

pod需求到pvc,通过api接口调用,通过存储插件调用storageclass插件到达PVC进行创建。

PV是集群中的资源。PVC是对这些资源的请求,也是对资源的索引检查。

4.PV和PVC之间的相互作用及PV 的状态

(1)生命周期

Provisioning (配置)——Binding (绑定)——Using(使用)——Releasing (释放)——Recycling (回收)

注解:

  • Provisioning:即PV的创建,可以直接创建 PV (静态方式),也可以使用 storageclass 动态创建——(管理员)

  • Binding (绑定):将PV 分配给 PVC——使用者

  • Using:Pod 通过 PVC 使用该 Volume,并可以通过准入控制storageProtection(1.9及以前版本为PvcProtection)阻止删除正在使用的 PVC

  • Releasing:Pod 释放 Volume 并删除 PVC

  • Reclaiming:回收 PV,可以保留 PV 以便下次使用,也可以直接从云存储中删除

(2)PV 的状态

根据这 5 个阶段,PV 的状态有以下 4 种:

  • Available (可用):表示可用状态,还未被任何 PVC 绑定
  • Bound (已绑定):表示 PV 已经绑定到 PVC
  • Released (已释放):表示 PVC 被删掉,但是资源尚未被集群回收
  • Eailed (失败):表示该 PV 的自动回收失败

(3)pv创建到销毁的整个流程

一个PV从创建到销毁的具体流程如下:

  • 一个PV创建完后状态会变成Available,等待被PVC绑定
  • 一旦被PVC绑定,PV的状态会变成Bound,就可以被定义了相应PVC的Pod使用
  • Pod使用完后会释放PV,PV的状态变成Released
  • 变成Released的PV会根据定义的回收策略做相应的回收工作。有三种回收策略,Retain、Delete和Recycle。Retain就是保留现场,K8S集群什么也不做,等待用户手动去处理PV里的数据,处理完后,再手动删除PV。Delete策略,K8S会自动删除该PV及里面的数据。Recycle方式,K8S会将PV里的数据删除,然后把PV的状态变成Available,又可以被新的PVC绑定使用。

5.PV和PVC基础操作

(1)查看pv的定义方式

kubectl explain pvFIELDS:apiVersion: v1kind: PersistentVolumemetadata:    #由于 PV 是集群级别的资源,即 PV 可以跨 namespace 使用,所以 PV 的 metadata 中不用配置 namespacename: spec

(2)查看pv定义的规格

kubectl explain pv.specspec:nfs:(定义存储类型)path:(定义挂载卷路径)server:(定义服务器名称)accessModes:(定义访问模型,有以下三种访问模型,以列表的方式存在,也就是说可以定义多个访问模式)- ReadWriteOnce          #(RWO)存储可读可写,但只支持被单个 Pod 挂载- ReadOnlyMany           #(ROX)存储可以以只读的方式被多个 Pod 挂载- ReadWriteMany          #(RWX)存储可以以读写的方式被多个 Pod 共享         注:官网
#nfs 支持全部三种;iSCSI 不支持 ReadWriteMany(iSCSI 就是在 IP 网络上运行 SCSI 协议的一种网络存储技术);HostPath 不支持 ReadOnlyMany 和 ReadWriteMany。capacity:(定义存储能力,一般用于设置存储空间)storage: 2Gi (指定大小)storageClassName: (自定义存储类名称,此配置用于绑定具有相同类别的PVC和PV)persistentVolumeReclaimPolicy: Retain    #回收策略(Retain/Delete/Recycle)
#Retain(保留):当删除与之绑定的PVC时候,这个PV被标记为released(PVC与PV解绑但还没有执行回收策略)且之前的数据依然保存在该PV上,但是该PV不可用,需要手动来处理这些数据并删除该PV。
#Delete(删除):删除与PV相连的后端存储资源(只有 AWS EBS, GCE PD, Azure Disk 和 Cinder 支持)
#Recycle(回收):删除数据,效果相当于执行了 rm -rf /thevolume/* (只有 NFS 和 HostPath 支持)

(3)查看PVC的定义方式

kubectl explain pvcKIND:     PersistentVolumeClaim
VERSION:  v1
FIELDS:apiVersion	<string>kind	<string>  metadata	<Object>spec	<Object>#PV和PVC中的spec关键字段要匹配,比如存储(storage)大小、访问模式(accessModes)、存储类名称(storageClassName)
kubectl explain pvc.spec
spec:accessModes: (定义访问模式,必须是PV的访问模式的子集)resources:requests:storage: (定义申请资源的大小)storageClassName: (定义存储类名称,此配置用于绑定具有相同类别的PVC和PV)

6.k8s支持的存储插件的访问方式

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

7.NFS使用PV、PVC静态示例

(1)NFS使用PV、PVC图示

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

pvc绑定PV的条件:大小和访问模式

(2)NFS使用PV、PVC配置

①配置nfs存储

stor01节点操作

mkdir /data/volumes -p
cd /data/volumes/
mkdir v{1,2,3,4,5}
vim /etc/exports
/data/volumes/v1 192.168.10.0/24(rw,no_root_squash)
/data/volumes/v2 192.168.10.0/24(rw,no_root_squash)
/data/volumes/v3 192.168.10.0/24(rw,no_root_squash)
/data/volumes/v4 192.168.10.0/24(rw,no_root_squash)
/data/volumes/v5 192.168.10.0/24(rw,no_root_squash)
exportfs -arv
showmount -e

官方文档:https://kubernetes.io/zh-cn/docs/tasks/configure-pod-container/configure-persistent-volume-storage/#create-a-persistentvolume

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

②定义PV

master节点操作

#这里定义5个PV,并且定义挂载的路径以及访问模式,还有PV划分的大小。

vim pv-demo.yamlapiVersion: v1
kind: PersistentVolume
metadata:name: pv001labels:name: pv001
spec:nfs:path: /data/volumes/v1server: stor01accessModes: ["ReadWriteMany","ReadWriteOnce"]capacity:storage: 1Gi
---apiVersion: v1
kind: PersistentVolume
metadata:name: pv002labels:name: pv002
spec:nfs:path: /data/volumes/v2server: stor01accessModes: ["ReadWriteOnce"]capacity:storage: 2Gi
---apiVersion: v1
kind: PersistentVolume
metadata:name: pv003labels:name: pv003
spec:nfs:path: /data/volumes/v3server: stor01accessModes: ["ReadWriteMany","ReadWriteOnce"]capacity:storage: 2Gi
---apiVersion: v1
kind: PersistentVolume
metadata:name: pv004labels:name: pv004
spec:nfs:path: /data/volumes/v4server: stor01accessModes: ["ReadWriteMany","ReadWriteOnce"]capacity:storage: 4Gi
---apiVersion: v1
kind: PersistentVolume
metadata:name: pv005labels:name: pv005
spec:nfs:path: /data/volumes/v5server: stor01accessModes: ["ReadWriteMany","ReadWriteOnce"]capacity:storage: 5Gi
kubectl apply -f pv-demo.yaml
kubectl get pv

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

③定义PVC

master节点操作

这里定义了pvc的访问模式为多路读写,该访问模式必须在前面pv定义的访问模式之中。定义PVC申请的大小为2Gi,此时PVC会自动去匹配多路读写且大小为2Gi的PV,匹配成功获取PVC的状态即为Bound

vim pod-vol-pvc.yamlapiVersion: v1
kind: PersistentVolumeClaim
metadata:name: mypvcnamespace: default
spec:accessModes: ["ReadWriteMany"]resources:requests:storage: 2Gi
---
apiVersion: v1
kind: Pod
metadata:name: pod-vol-pvcnamespace: default
spec:containers:- name: myappimage: ikubernetes/myapp:v1volumeMounts:- name: htmlmountPath: /usr/share/nginx/htmlvolumes:- name: htmlpersistentVolumeClaim:claimName: mypvc
kubectl apply -f pod-vol-pvc.yaml
kubectl get pv
kubectl get pvc

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

④测试访问

stor01节点操作

在存储服务器上创建index.html,并写入数据,通过访问Pod进行查看,可以获取到相应的页面。

cd /data/volumes/v3/
echo "welcome to use pv3" > index.html

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

master节点操作

kubectl get pods -o wide
curl 10.244.1.41welcome to use pv3

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

8.搭建 StorageClass + NES实现 NES 的动态 PV 创建

(1)外部存储卷插件

Kubernetes 本身支持的动态 PV 创建不包括 NFS,所以需要使用外部存储卷插件分配PV。详见:https://kubernetes.io/zh/docs/concepts/storage/storage-classes/

(2)卷插件概念

卷插件称为 Provisioner(存储分配器),NFS 使用的是 nfs-client,这个外部卷插件会使用已经配置好的 NFS 服务器自动创建 PV。
Provisioner:用于指定 Volume 插件的类型,包括内置插件(如 kubernetes.io/aws-ebs)和外部插件(如 external-storage 提供的 ceph.com/cephfs)。

(3)配置 StorageClass + NES实现 NES 的动态 PV 创建

①在stor01节点上安装nfs,并配置nfs服务
mkdir /opt/k8s
chmod 777 /opt/k8s/
vim /etc/exports
/opt/k8s 192.168.198.0/24(rw,no_root_squash,sync)
systemctl restart nfs
②创建 Service Account,用来管理 NFS Provisioner 在 k8s 集群中运行的权限,设置 nfs-client 对 PV,PVC,StorageClass 等的规则

在master节点操作

如果复制需要提前进入配置时:set paste再复制粘贴脚本即可正常

vim nfs-client-rbac.yaml
#创建 Service Account 账户,用来管理 NFS Provisioner 在 k8s 集群中运行的权限
apiVersion: v1
kind: ServiceAccount
metadata:name: nfs-client-provisioner
---
#创建集群角色
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRole
metadata:name: nfs-client-provisioner-clusterrole
rules:- apiGroups: [""]resources: ["persistentvolumes"]verbs: ["get", "list", "watch", "create", "delete"]- apiGroups: [""]resources: ["persistentvolumeclaims"]verbs: ["get", "list", "watch", "update"]- apiGroups: ["storage.k8s.io"]resources: ["storageclasses"]verbs: ["get", "list", "watch"]- apiGroups: [""]resources: ["events"]verbs: ["list", "watch", "create", "update", "patch"]- apiGroups: [""]resources: ["endpoints"]verbs: ["create", "delete", "get", "list", "watch", "patch", "update"]
---
#集群角色绑定
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRoleBinding
metadata:name: nfs-client-provisioner-clusterrolebinding
subjects:
- kind: ServiceAccountname: nfs-client-provisionernamespace: default
roleRef:kind: ClusterRolename: nfs-client-provisioner-clusterroleapiGroup: rbac.authorization.k8s.io
kubectl apply -f nfs-client-rbac.yaml
kubectl get sa

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

③使用 Deployment 来创建 NFS Provisioner

在master节点操作

NFS Provisione(即 nfs-client),有两个功能:一个是在 NFS 共享目录下创建挂载点(volume),另一个则是将 PV 与 NFS 的挂载点建立关联。

#由于 1.20 版本启用了 selfLink,所以 k8s 1.20+ 版本通过 nfs provisioner 动态生成pv会报错,解决方法如下:
vim /etc/kubernetes/manifests/kube-apiserver.yaml
spec:containers:- command:- kube-apiserver- --feature-gates=RemoveSelfLink=false       #添加这一行- --advertise-address=192.168.198.11
......

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

kubectl get pod -n kube-system
或
kubectl get pod -n kube-system|grep apiserver

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

kubectl apply -f /etc/kubernetes/manifests/kube-apiserver.yaml
kubectl get pod -n kube-system|grep apiserver

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

kubectl delete pods kube-apiserver -n kube-system 
kubectl get pods -n kube-system | grep apiserver

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

#创建 NFS Provisioner
vim nfs-client-provisioner.yamlvim nfs-client-provisioner.yaml
kind: Deployment
apiVersion: apps/v1
metadata:name: nfs-client-provisioner
spec:replicas: 1selector:matchLabels:app: nfs-client-provisionerstrategy:type: Recreatetemplate:metadata:labels:app: nfs-client-provisionerspec:serviceAccountName: nfs-client-provisioner   	  #指定Service Account账户containers:- name: nfs-client-provisionerimage: quay.io/external_storage/nfs-client-provisioner:latestimagePullPolicy: IfNotPresentvolumeMounts:- name: nfs-client-rootmountPath: /persistentvolumesenv:- name: PROVISIONER_NAMEvalue: nfs-storage       #配置provisioner的Name,确保该名称与StorageClass资源中的provisioner名称保持一致- name: NFS_SERVERvalue: stor01           #配置绑定的nfs服务器- name: NFS_PATHvalue: /opt/k8s          #配置绑定的nfs服务器目录volumes:              #申明nfs数据卷- name: nfs-client-rootnfs:server: stor01path: /opt/k8s
#查看node节点是否有stor01的地址映射
vim /etc/hosts
192.168.198.14 stor01
kubectl apply -f nfs-client-provisioner.yaml 
kubectl get pod

在这里插入图片描述

#在node节点可以查看到容器
docker images

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

#查看拉下来的容器镜像
kubectl describe pod nfs-client-provisioner-5d7df8dcc8-wjtdf
#如果拉不下来可以使用镜像安装包导入
docker load -i nfs-client-provisioner

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

④创建 StorageClass,负责建立 PVC 并调用 NFS provisioner 进行预定的工作,并让 PV 与 PVC 建立关联
vim nfs-client-storageclass.yamlapiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:name: nfs-client-storageclass
provisioner: nfs-storage     #这里的名称要和provisioner配置文件中的环境变量PROVISIONER_NAME保持一致
parameters:archiveOnDelete: "false"   #false表示在删除PVC时不会对数据进行存档,即删除数据
kubectl apply -f nfs-client-storageclass.yaml
kubectl get storageclass

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

⑤创建 PVC 和 Pod 测试
vim test-pvc-pod.yamlapiVersion: v1
kind: PersistentVolumeClaim
metadata:name: test-nfs-pvc
spec:accessModes:- ReadWriteManystorageClassName: nfs-client-storageclass    #关联StorageClass对象resources:requests:storage: 1Gi
---
apiVersion: v1
kind: Pod
metadata:name: test-storageclass-pod
spec:containers:- name: busyboximage: busybox:latestimagePullPolicy: IfNotPresentcommand:- "/bin/sh"- "-c"args:- "sleep 3600"volumeMounts:- name: nfs-pvcmountPath: /mntrestartPolicy: Nevervolumes:- name: nfs-pvcpersistentVolumeClaim:claimName: test-nfs-pvc      #与PVC名称保持一致
kubectl apply -f test-pvc-pod.yaml
#PVC 通过 StorageClass 自动申请到空间
kubectl get pvc
NAME           STATUS   VOLUME                                     CAPACITY   ACCESS MODES   STORAGECLASS              AGE
mypvc          Bound    pv003                                      2Gi        RWO,RWX                                  4h24m
test-nfs-pvc   Bound    pvc-0ff197d1-b2fd-4c52-8415-9271630a2717   1Gi        RWX            nfs-client-storageclass 

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

stor01节点操作

#查看 NFS 服务器上是否生成对应的目录,自动创建的 PV 会以 ${namespace}-${pvcName}-${pvName} 的目录格式放到 NFS 服务器上
ls /opt/k8s/default-test-nfs-pvc-pvc-0ff197d1-b2fd-4c52-8415-9271630a2717

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

master节点操作**

进入 Pod 在挂载目录 /mnt 下写一个文件,然后查看 NFS 服务器上是否存在该文件
kubectl exec -it test-storageclass-pod sh
/ # cd /mnt/
/mnt # echo 'this is test file' > test.txt

stor01节点操作

#发现 NFS 服务器上存在,说明验证成功
cd default-test-nfs-pvc-pvc-0ff197d1-b2fd-4c52-8415-9271630a2717

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

总:

1.三个存储卷

(1)emptyDir: 可以实现pod 中的容器之间共享数据,但是存储卷不能持久化数据,且会随着pod生命周结束而一起删除

(2)hostpath:可以实现持久化存储,使用node节点的目录或文件挂载到容器,但是存储空会收到node节点单机限制,node节点故险数据就会丢失,pod跨node节点不能共享数据

(3)nfs:可以实现持久化存储,使用nfs存储设备空间挂载到容器,pod可以跨node节点共享数据

2.PV和PVC

(1)pv是K8S在指定的存储设备空间创建的可持久化的存储资源

(2)PVC是对PV存储资源的请求和绑定

3.storageClass

storageClass简称:SC(存储类)是联动存储卷插件,根据PVC请求动态创建OV资源

4.静态PV的使用及创建PV、PVC和Pod的过程

(1)提前准备存储设备和共享目录

(2)创建PV资源:配置存储卷类型、访问模式、存储能力的大小

(3)创建PVC资源:配置请求PV、资源的访问模式和存储大小、绑定PV,PVC和PV是一对一的绑定关系

(4)PV访问模式必须支持PVC,请求访问模式,请求的存储空间会优先选择存储大小的PV资源;如果没有会选择大于请求的存储大小的PV资源

(5)创建pod资源:存储卷的类型需要设置成为PVC,在容器配置中一定要配置存储卷的挂载

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/84362.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

自动化测试:yaml结合ddt实现数据驱动!

在pythonunittestseleniumddt的框架中&#xff0c;数据驱动常见有以下几种方式实现&#xff1a; Csv/txtExcelYAML 本文主要给大家介绍测试数据存储在YAML文件中的使用场景。首先先来简单介绍一下YAML。 1. 什么是YAML 一种标记语言类似YAML&#xff0c;它实质上是一种通用…

git安装配置教程

目录 git安装配置1. 安装git2. git 配置3.生成ssh key:4. 获取生产的密钥3. gitee或者github添加ssh-key4.git使用5. git 使用-本地仓库与远程仓库建立连接第一步&#xff1a;进入项目文件夹&#xff0c;初始化本地仓库第二步&#xff1a;建立远程仓库。 建立远程连接的小技巧 …

Git学习笔记9

Gitlab中的代码是要部署到生产服务器上。 CI&#xff1a; Continuous integration 简称CI&#xff1a; 是一种软件开发实践&#xff0c;即开发团队成员经常集成他们的工作&#xff0c;通常每个成员每天至少集成一次&#xff0c;也就意味着每天可能会发生多次集成。每次集成都…

多目标优化算法:基于非支配排序的鱼鹰优化算法(NSOOA)MATLAB

一、鱼鹰优化算法 鱼鹰优化算法&#xff08;Osprey optimization algorithm&#xff0c;OOA&#xff09;由Mohammad Dehghani 和 Pavel Trojovsk于2023年提出&#xff0c;其模拟鱼鹰的捕食行为。 Python&#xff1a;鱼鹰优化算法&#xff08;Osprey optimization algorithm&a…

新版发布 | Cloudpods v3.10.5 和 v3.9.13 正式发布

Cloudpods v3.10.5 本期发布中&#xff0c;ocboot 部署脚本有较多变化&#xff0c;首先支持以非 root 用户执行安装流程&#xff0c;其次响应社区的呼吁&#xff0c;增加了–stack 参数&#xff0c;允许 Allinone 一键安装仅包含私有云&#xff08;参数为 edge&#xff09;或云…

ESP8266 WiFi物联网智能插座—项目简介

目录 1、项目背景 2、设备节点功能 3、上位机功能 物联网虽然能够使家居设备和系统实现自动化、智能化管理&#xff0c;但是依然需要依靠更为先进的终端插座作为根本保障&#xff0c;插座是所有家用电器需要使用的电源设备&#xff0c;插座的有序智能管理&#xff0c;对于实…

服务器免密登录设置

例如服务器A想要免密连接服务器B&#xff0c;需要以下2个步骤 步骤1&#xff1a;在服务器A上执行命令ssh-keygen –t rsa&#xff0c;直接回车&#xff0c;会在默认路径/root/.ssh下生成私钥和公钥 步骤2&#xff1a;将服务器A上生成的公钥id_rsa.pub的内容&#xff0c;复制粘…

进程的管理

#include <unistd.h> void _exit(int status); #include <stdlib.h> void _Exit(int status); status参数&#xff1a;是进程退出时的状态信息&#xff0c;父进程在回收子进程资源的时候可以获取到 #include<stdio.h> #include<stdlib.h> #includ…

【C++】搜索二叉树底层实现

目录 一&#xff0c;概念 二&#xff0c;实现分析 1. 插入 &#xff08;1.&#xff09;非递归版本 &#xff08;2.&#xff09;递归版本 2. 打印搜索二叉树 3.查找函数 &#xff08;1.&#xff09;非递归版本 &#xff08;2.&#xff09;递归版本 4. 删除函数&#x…

flex弹性盒模型与阿里图标的使用

华子目录 flex布局flex布局原理flex使用三要素 阿里图标&#xff08;字体&#xff09; flex布局 相关学习网站&#xff1a;http://c.biancheng.net/css3/flex.html 1.flex是当前最主流的布局方式&#xff1a;用它布局起来更方便&#xff0c;取代了浮动的作用。 2.浮动布局有缺…

Redis混合模式持久化原理

前言 前面文章中我们也介绍过Redis的持久化方式有两种&#xff1a;rdb持久化和aof持久化&#xff0c;具体详情可查看之前文章redis持久化。rdb持久化还是aof持久化它们都有各自的缺点。 rdb和aof缺点 rdb持久化&#xff1a;由于是定期对内存数据快照进行持久化&#xff0c;因此…

宝塔重装注意事项

欢迎关注我的公众号&#xff1a;夜说猫&#xff0c;让一个贫穷的程序员不靠打代码也能吃饭~ 前言 宝塔8.0版本&#xff0c;宝塔卸载重装&#xff0c;或者重装Linux系统后重新安装宝塔也适用。 不能上来直接就执行安装宝塔脚本&#xff0c;除非之前没有安装过宝塔。 步骤 1、…

Flutter粒子生成演示

演示&#xff1a; 直接上代码&#xff1a; import dart:math; import dart:ui;import package:flutter/material.dart; import package:kq_flutter_widgets/widgets/chart/ex/extension.dart;class ParticleView extends StatefulWidget {const ParticleView({super.key});ove…

Vue 使用vue-cli构建SPA项目(超详细)

目录 一、什么是vue-cli 二&#xff0c;构建SPA项目 三、 运行SPA项目 前言&#xff1a; 在我们搭建SPA项目时候&#xff0c;我们必须去检查我们是否搭建好NodeJS环境 cmd窗口输入以下指令&#xff1a;去检查 node -v npm -v 一、什么是vue-cli Vue CLI&#xff08;Vu…

Qt/C++音视频开发53-本地摄像头推流/桌面推流/文件推流/监控推流等

一、前言 编写这个推流程序&#xff0c;最开始设计的时候是用视频文件推流&#xff0c;后面陆续增加了监控摄像头推流&#xff08;其实就是rtsp视频流&#xff09;、网络电台和视频推流&#xff08;一般是rtmp或者http开头m3u8结尾的视频流&#xff09;、本地摄像头推流&#…

短视频矩阵系统,短视频矩阵源码技术开发

开发短视频矩阵系统的源码需要以下步骤&#xff1a; 确定系统需求&#xff1a;根据客户的需求&#xff0c;确定系统的功能和特点&#xff0c;例如用户注册登录、视频上传、视频浏览、评论点赞等。 设计系统架构&#xff1a;根据系统需求&#xff0c;设计系统的整体架构&#x…

【Java 基础篇】Java同步代码块解决数据安全

多线程编程是现代应用程序开发中的常见需求&#xff0c;它可以提高程序的性能和响应能力。然而&#xff0c;多线程编程也带来了一个严重的问题&#xff1a;数据安全。在多线程环境下&#xff0c;多个线程同时访问和修改共享的数据可能导致数据不一致或损坏。为了解决这个问题&a…

【差旅游记】初见乌海湖

哈喽&#xff0c;大家好&#xff0c;我是雷工。 最近在乌海出差&#xff0c;有幸见到了传说中在沙漠中看海的“黄河明珠”——乌海湖。 前段时间一直有点忙&#xff0c;现在有点时间&#xff0c;趁还没忘光&#xff0c;简单整理记录下。 那是在上个月&#xff0c;2023年8月8号…

Flutter的路由router-页面跳转

文章目录 概念介绍基本路由&#xff08;Basic Routing&#xff09;跳转到某个页面弹出页面 命名路由&#xff08;Named Routing&#xff09;第三方路由管理库&#xff08;Third-Party Routing Libraries&#xff09; Android原生的路由Intent-based Routing&#xff08;基于Int…

【Spatial-Temporal Action Localization(七)】论文阅读2022年

文章目录 1. TubeR: Tubelet Transformer for Video Action Detection摘要和结论引言&#xff1a;针对痛点和贡献模型框架TubeR Encoder&#xff1a;TubeR Decoder&#xff1a;Task-Specific Heads&#xff1a; 2. Holistic Interaction Transformer Network for Action Detect…