CephFS 简介
CephFS 是一个支持POSFIX 接口的文件系统,它使用Ceph 存储集群来存储数据。文件系统对于客户端来说可以方便的挂载至本地使用。CephFS 构建在RADOS之上,继承RADOS的容错性和扩展性,支持荣誉副本和数据高可靠性。
MDS元数据服务器
Ceph 文件系统要求 Ceph 存储集群内至少有一个 Ceph 元数据服务器
创建Ceph 文件系统
一个 Ceph 文件系统需要至少两个 RADOS 存储池,一个用于数据、一个用于元数据。配置这些存储池时需考虑:
1、为元数据存储池设置较高的副本水平,因为此存储池丢失任何数据都会导致整个文件系统失效。
2、为元数据存储池分配低延时存储器(像 SSD ),因为它会直接影响到客户端的操作延时。
创建存储池
默认设置为文件系统创建两个存储池
#ceph osd pool create cephfs_data 128
#ceph osd pool create cephfs_metadata 128
创建文件系统
#ceph fs new cephfs cephfs_metadata cephfs_data
查看创建的文件系统
#ceph fs ls
查看MDS 服务器状态
[root@ceph01 ceph]# ceph osd pool create cephfs_data 128
pool 'cephfs_data' created
[root@ceph01 ceph]# ceph osd pool create cephfs_metadata 128
pool 'cephfs_metadata' created
[root@ceph01 ceph]# ceph fs new cephfs cephfs_metadata cephfs_data
new fs with metadata pool 2 and data pool 1
[root@ceph01 ceph]# ceph fs ls
name: cephfs, metadata pool: cephfs_metadata, data pools: [cephfs_data ]
[root@ceph01 ceph]# ceph mds stat
e3: 1/1/1 up {0=ceph4=up:active
创建Ceph 用户,用于访问CephFS
[root@ceph01 ceph]# ceph auth get-or-create client.cephfs mon 'allow r' mds 'allow rw' osd 'allow rw pool=cephfs_data, allow rw pool=cephfs_metadata'
[client..cephfs]
key = CQCFHHxgK7eGIRAApzUf2Gr+M6bJkKwXTLS3tQ==
验证key 是否生效
[root@ceph01 ceph]#ceph auth get client.cephfs
exported keyring for client.cephfs
[client.cephfs]
key = AQAXTwte09lkFhAA0sSPRRm5+391tYUwte2qYg==
caps mds = "allow rw"
caps mon = "allow r"
caps osd = "allow rw pool=cephfs-data, allow rw pool=cephfs-metadata"
客户端挂载Ceph
Ceph监视器为: 10.65.3.76
以Kernel client 形式挂载CephFS
挂载整改文件系统
#mkdir /data/cephfs
#mount -t ceph 10.65.3.76:6789:/ /data/cephfs -o name=cephfs,secret=CQCFHHxgK7eGIRAApzUf2Gr+M6bJkKwXTLS3tQ==
卸载挂载
#umount /data/cephfs
CephFS 用户台挂载
安装ceph-fuse
#yum install ceph-fuse -y
挂载CeophFS
# scp /etc/ceph/ceph.client.admin.keyring 10.65.3.83:/etc/ceph
#mkdir /data/cephfs
# ceph-fuse -m 10.65.3.76:6789 /data/cephfs