PersistentVolume(简称PV)是由管理员设置的
存储,它同样是集群中的一类资源,PV是容量插件,如Volumes(卷),但其生命周期独立使用PV的任何Pod,PV的创建可使用NFS、iSCSI、GFS、CEPH等。
PersistentVolumeClaim(简称PVC)是用户对存储的
请求,类似于Pod,Pod消耗节点资源,PVC消耗PV资源,Pod可以请求特定级别的资源(CPU和内存),PVC可以请求特定的大小和访问模式。例如,可以以一次读/写或只读多次的模式挂载。
虽然PVC允许用户使用抽象存储资源,但是用户可能需要具有不同性质的PV来解决不同的问题,比如使用SSD硬盘来提高性能。所以集群管理员需要能够提供各种PV,而不仅是大小和访问模式,并且无须让用户了解这些卷的实现方式,对于这些需求可以使用StorageClass资源实现。
目前PV的提供方式有两种:静态或动态。
静态PV由管理员提前创建,动态PV无需提前创建,只需指定PVC的StorageClasse即可。
PV的回收策略
当用户使用完卷时,可以从API中删除PVC对象,从而允许回收资源。回收策略会告诉PV如何处理该卷,目前卷可以保留、回收或删除。
Retain:保留,该策略允许手动回收资源,当删除PVC时,PV仍然存在,volume被视为已释放,管理员可以手动回收卷。
Recycle:回收,如果volume插件支持,Recycle策略会对卷执行rm -rf清理该PV,并使其可用于下一个新的PVC,但是本策略已弃用,建议使用动态配置。
Delete:删除,如果volume插件支持,删除PVC时会同时删除PV,动态卷默认为Delete。
PV的访问策略
ReadWriteOnce:可以被单节点以读写模式挂载,命令行中可以被缩写为RWO。
ReadOnlyMany:可以被多个节点以只读模式挂载,命令行中可以被缩写为ROX。
ReadWriteMany:可以被多个节点以读写模式挂载,命令行中可以被缩写为RWX。
NFS安装配置
NFS服务器安装服务端: yum install nfs* rpcbind -y
所有K8s节点安装NFS客户端:yum install nfs-utils -y
NFS服务端:mkdir /data/k8s -p
NFS服务器创建共享目录:vim /etc/exports
/data/k8s/ *(rw,sync,no_subtree_check,no_root_squash)
exportfs -r
systemctl restart nfs rpcbind
挂载测试:mount -t nfs nfs-serverIP:/data/k8s /mnt/
一、创建PV
1)基于NFS创建
apiVersion: v1
kind: PersistentVolume
metadata:
name: pv-nfs
spec:
capacity: # 容量配置
storage: 5Gi
volumeMode: Filesystem # 卷的模式,目前支持Filesystem(文件系统) 和 Block(块),其中Block类型需要后端存储支持,默认为文件系统
accessModes: # PV的访问模式
- ReadWriteOnce
persistentVolumeReclaimPolicy: Recycle # 回收策略
storageClassName: nfs-slow # PV的类,一个特定类型的PV只能绑定到特定类别的PVC
nfs: # NFS服务配置
path: /data/k8s
server: 172.17.0.2
2)基于hostPath创建
kind: PersistentVolume
apiVersion: v1
metadata:
name: task-pv-volume
labels:
type: local
spec:
storageClassName: hostpath
capacity:
storage: 10Gi
accessModes:
- ReadWriteOnce
hostPath:
path: "/mnt/data"
3)基于CephRBD创建
apiVersion: v1
kind: PersistentVolume
metadata:
name: ceph-rbd-pv
spec:
capacity:
storage: 1Gi
storageClassName: ceph-fast
accessModes:
- ReadWriteOnce
rbd:
monitors: # Ceph的monitor节点的IP
- 192.168.1.123:6789
- 192.168.1.124:6789
- 192.168.1.125:6789
pool: rbd # 所用Ceph Pool的名称,可以使用ceph osd pool ls查看
image: ceph-rbd-pv-test # Ceph块设备中的磁盘映像文件,可以使用rbd create POOL_NAME/IMAGE_NAME --size 1024创建,使用rbd list POOL_NAME查看
user: admin # Rados的用户名,默认是admin
secretRef: # 用于验证Ceph身份的密钥
name: ceph-secret
fsType: ext4 # 文件类型,可以是ext4、XFS等
readOnly: false # 是否是只读挂载
二、创建PVC
kind: PersistentVolumeClaim
apiVersion: v1
metadata:
name: task-pvc-claim
spec:
storageClassName: nfs-slow
accessModes:
- ReadWriteOnce
resources:
requests:
storage: 3Gi
三、pod使用PVC
apiVersion: apps/v1
kind: Deployment
metadata:
labels:
app: nginx
name: nginx
namespace: default
spec:
replicas: 2
revisionHistoryLimit: 10
selector:
matchLabels:
app: nginx
strategy:
rollingUpdate:
maxSurge: 1
maxUnavailable: 0
type: RollingUpdate
template:
metadata:
creationTimestamp: null
labels:
app: nginx
spec:
volumes:
- name: task-pv-storage
persistentVolumeClaim:
claimName: task-pvc-claim
containers:
- env:
- name: TZ
value: Asia/Shanghai
- name: LANG
value: C.UTF-8
image: nginx
imagePullPolicy: IfNotPresent
name: nginx
volumeMounts:
- mountPath: "/usr/share/nginx/html"
name: task-pv-storage