ceph的集群操作管理(四)

(一)、查看ceph的守护进程

    $:systemctl list-unit-files | grep ceph

        ceph-disk@.service                            static 

        ceph-mds@.service                            disabled

        ceph-mgr@.service                             disabled

        ceph-mon@.service                            disabled

        ceph-osd@.service                              disabled

        ceph-radosgw@.service                      disabled

        ceph_exporter.service                         static 

        ceph-mds.target                                   enabled

        ceph-mgr.target                                    enabled

        ceph-mon.target                                   enabled

        ceph-osd.target                                    enabled

        ceph-radosgw.target                             enabled

        ceph.target                                            enabled


(二)、按照类型在ceph节点上启动特定类型的所有守护进程

    $:systemctl    start/restart/stop    ceph-osd.target

    $:systemctl    start/restart/stop    ceph-mon.target

    $:systemctl     start/restart/stop   ceph-mds.target


(三)、停止ceph节点上所有守护进程,不区分类型

    $:systemctl   stop   ceph   \*.service   ceph\*.target   (不建议执行)


(四)、按照类型停⽌节点上特定类型的所有守护进程

    $:systemctl   stop   ceph-mon   \*.service   ceph-mon.target      (不建议)


(五)、ceph 节点上启动特定的守护进程实例

    systemctl   start/status/restart/stop   ceph-osd@{id}

    systemctl   start/status/restart/stop   ceph-mon@{hostname}

    systemctl   start/status/restart/stop    ceph-msd@{hostname}


(六)、mon 监控状态检查

$:ceph    -s

$:ceph

ceph> health

        HEALTH_ERR 64 pgs are stuck inactive for more than 300         seconds; 64 pgs degraded; 64 pgs stuck degraded; 64 pgs stuck inactive; 64 pgs stuck unclean; 64 pgs stuck undersized; 64 pgs undersized; mon.x86-131 low disk space

ceph> status

        cluster 98593daf-5c1f-4bbe-aa74-da45291f8915

         health HEALTH_ERR

                64 pgs are stuck inactive for more than 300 seconds

                64 pgs degraded

                64 pgs stuck degraded

                64 pgs stuck inactive

                64 pgs stuck unclean

                64 pgs stuck undersized

                64 pgs undersized

                mon.x86-131 low disk space

         monmap e2: 1 mons at {x86-131=10.2.151.131:6789/0}

                election epoch 4, quorum 0 x86-131

            mgr no daemons active

         osdmap e5: 1 osds: 1 up, 1 in

                flags     sortbitwise,require_jewel_osds,require_kraken_osds

          pgmap v8: 64 pgs, 1 pools, 0 bytes data, 0 objects

                34008 kB used, 367 GB / 367 GB avail

                      64 undersized+degraded+peered

ceph> mon_status

        {"name":"x86-131","rank":0,"state":"leader","election_epoch":4,"quorum":[0],"features":{"required_con":"9025616074522624","required_mon":["kraken"],"quorum_con":"1152921504336314367","quorum_mon":["kraken"]},"outside_quorum":[],"extra_probe_peers":[],"sync_provider":[],"monmap":{"epoch":2,"fsid":"98593daf-5c1f-4bbe-aa74-da45291f8915","modified":"2018-11-24 15:40:34.379153","created":"2018-11-24 15:40:33.765968","features":{"persistent":["kraken"],"optional":[]},"mons":[{"rank":0,"name":"x86-131","addr":"10.2.151.131:6789\/0","public_addr":"10.2.151.131:6789\/0"}]}}

ceph> exit

$: ceph   status


(七)、ceph 日志记录

    ceph 日志默认的位置保存在节点/var/log/ceph/ceph.log 里面

    可以使用 ceph -w 查看实时的日志记录情况

$:ceph  -w

        ceph mon 也在不断的对自⼰状态进⾏各种检查,检查失败的时候会将自己的信息写到集群日志中去

$:  ceph   mon   stat

    检查 osd

$:ceph    osd    stat

$: ceph    osd    tree

    检查 pool 的大小以及可用状态

 $: ceph     df


(八)、ceph用户管理

        在ceph启用身份验证的时候,必须指定用户名以及密码或者是秘钥环如openstack 使用

ceph做后端存储

1、列出系统默认存在的用户

        $: ceph auth list

             权限解释

                class-read 给用户能够调用类的读⽅法

                class-write 给用户能够调用类 写的⽅法

                *.all 给用户特定的pool读写的权限 ,以及执⾏管理命令的权限


                profile osd (monitor only)

                授予用户作为 OSD 连接到其他 OSD 或监视集群状态的权限,授予 OSD 能够处理复

制⼼跳流量和状态报告


                profile mds (Monitor only)

                给予用户连接mds 的权限


                profile bootstrap-osd (Monitor only)

                给与用户引导启动 osd 权限,列如批量管理⼯具,如 ceph-volume, ceph-deploy


                profile rbd-read-only (OSD only)

                给予用户对 rdb 镜像只有读的权限


                profile bootstrap-mds (Monitor only)

                给予用户只有引导启动⼀个元数据服务的权限

2、获取一个用户的权限信息以及 key

                $: ceph auth get client.admin

                $: ceph auth export client.admin

3、添加一个用户的方法

                ceph auth add    //创建用户,并且生成秘钥,可以添加相关的权限

                $:ceph auth get-or-create client.li mon 'allow r' osd 'allow rw pool=disk'

                参数解释:

                ceph auth get-or-create    创建用户,并且返回一个秘钥文件格式,包括用户和密码如果用户已经存在,则仅仅返回秘钥文件格式的用户名和密码。同时也可可以添加一个 -o 可

以将输出保存到特定的文件里面去。

               $ceph  auth  get-or-create  client.xxxx  mon  'allow r'  osd  'allow rw pool=test ' -o test.keyring

ceph auth get-or-create-key client.ringo mon 'allow r' osd 'allow rw pool=test' -o   ringo.key //对于需要秘钥的客户端特别适用,如果用户存在,则此命令只返回秘钥。

将创建的秘钥传送到其他的节点上去,可以按照自⼰的需求进行传递

ceph auth get-or-create client.cinder |ssh xxx (主机)tee /ect/ceph/ceph.client.keyring

这个命令是将创建的 cinder 用户的秘钥传送到特定的主机上。

然后在传送的主机的上 修改秘钥的属组属主


4、修改用户的权限

            ceph  auth  caps  client.tom  'allow rw '  mon

            移除一个用户的权限

                ceph  auth  caps  client.tom  mon  ' ' osd ' '

            移除用户权限

                ceph  auth  caps  client.li  mon  ' ' osd ' '

            删除一个 ceph 用户

                ceph  auth  del  tom

            查看一个用户的 key

                ceph  auth  print-key  client.t


5、ceph pool 管理

        pool 是由逻辑组组成,用来存储数据,池用来管理组的数量,副本的梳理以及池的crush ,如果要使用池来管理数据,需要提供身份信息用于验证是否有权限使用池。

        Placement Groups

            当 ceph 集群接收到数据存储请求时,它本分散到各个 PG 中,根据 ceph 复制级

别,每个 pg 的数据会被复制并分发到 ceph 集群的多个 osd ,可以将 PG 看作一个逻

辑容器,这个容器里包含多个对象,这个逻辑容器将被映射到多个 osd 上面去。

从右到左 pool-pg-osd-disk

        创建 pool 如何设置 pg?

        建议:少于 5 个 osds 128

                    5-10       osds    512

                    10-50     osds    1024

    设置 pool 里面的 pg 个数

    ceph  osd  pool  set  {pool-name}  pg_num   {pg_num}

    $: ceph  osd  pool  set  vms  pg_num  256


   查看 pool 的 pg 个数

   ceph osd pool get {pool_name} pg_num


        CRUSH maps CRUSH 是允许 Ceph 在没有性能瓶颈的情况下扩展的重要组成部分,不

受可扩展性的限制,并且没有单点故障。CRUSH 映射将群集的物理拓扑结构提供给

CRUSH 算法,以确定应存储对象及其副本的数据的位置


    查看集群中 pool

    ceph osd pool ls

    ceph --help 查看帮助手册

    创建 pool 参数讲解

            pool-name 创建池的名字

            pg-num 一个池下面有多少个 PG 默认 8 个 不适用

            pgp-num 这个默认也是 8 个 ⼀般和 pg-num 保持⼀致

            replicated |erasure 创建池的类型,有个是复制,另⼀个是擦除池。

            ceph osd crush rule list 池的类型

            crush-rule-name 池的 crush 的名字

    设置 pool 配额

    可以设置每一个池最大的存储字节,同时你也可以设置最大的 objects

    ceph osd pool set-quota data (poolname) max_obejcts 200

    ceph osd pool set-quota test max_bytes 1000000


    查看某一个 pool 配额

    ceph osd pool set-quota vm


    删除一个池的操作

    cph osd pool delete vm vm --yes-i-really-really-mean-it


    修改 pool

    ceph osd pool rename dddd bb


    查看一个 pool 状态

    rados df


    pool 创建一个快照

    ceph osd pool mksnap test test-snap


    删除一个 pool 快照

    ceph osd pool rmsnap test -test-snap


    获取一个 pool 的相关信息

    ceph osd pool get {xxxx} {key}

    {key}=pg_num,size min_size


    设置一个 pool 的副本数量

    ceph osd pool set test size 2 个副本

    ceph osd pool get test size 获取 test pool 的副本数量

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 204,445评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,889评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 151,047评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,760评论 1 276
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,745评论 5 367
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,638评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,011评论 3 398
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,669评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,923评论 1 299
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,655评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,740评论 1 330
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,406评论 4 320
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,995评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,961评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,197评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,023评论 2 350
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,483评论 2 342

推荐阅读更多精彩内容