一、OSD 操作
0. 列出当前 osd
ceph osd tree
1. osd down
ceph osd out osd.xxx
2. 暂停 osd 服务
systemctl stop ceph-osd@xxxx.service
3. 删除 osd
ceph osd crush remove osd.xxx
ceph auth del osd.xxxx
ceph osd rm osd.xxx
4. 准备 osd
ceph-deploy 2.1 以后准备和激活合并为一个
ceph-deploy osd create --data /dev/sdxxx host_ip
ceph-deploy osd prepare host_ip:/dev/sdxxx
5. 激活 osd
ceph-deploy 2.1 以后准备和激活合并为一个
ceph-deploy osd create --data /dev/sdxxx host_ip
ceph-deploy osd activate host_ip:/dev/sdxxx
6. osd 使用情况
ceph osd df tree
| 字段 | 含义解释 | 示例 |
|---|---|---|
| ID | OSD / host / root 的唯一标识;host 为负数,OSD 为正数 |
16 / -30
|
| CLASS | 设备类型:hdd / ssd / nvme,旧版本常为空 |
hdd |
| WEIGHT | 决定数据分配的权重(基于磁盘容量),weight=0 表示不参与存储 | 7.27399 |
| REWEIGHT | 临时调整权重,用于避障、限制压力。不影响 CRUSH weight | 1.00000 |
| SIZE | OSD 的总容量 | 7.27TiB |
| USE | 已用的空间 | 4.49TiB |
| AVAIL | 剩余空间 | 2.78TiB |
| %USE | 使用率,用于判断是否均衡 | 61.74% |
| VAR | Variance(偏差系数) %USE / 集群平均使用率,>1.2 表示不均衡,>2 极度不均衡 |
2.36 |
| PGS | OSD 当前 PG 数量,决定负载与 rebalance 压力 | 133 |
| TYPE | 节点类别:root / host / osd
|
osd |
| NAME | 节点名称,例如主机名或 osd.XX | osd.16 |
7. osd 延迟情况
ceph osd perf
# 返回中包括 commit_latency(提交延迟)、apply_latency(应用延迟)
apply_latency 一次写操作,从“OSD 接收到请求”到“数据真正写入本地存储(Bluestore/Filestore)完成”的时间
commit_latency 一次写请求,被 Ceph 判定为“已安全提交(safe)并返回给客户端”的时间
8. osd 中 pg 情况
# 查看 osd 40 中所有 pg
ceph pg ls-by-osd 40
# 返回总数
ceph pg ls-by-osd 40 | wc -l
9. osd 配置
# 这个需要在 osd 所在的物理机上执行
ceph daemon osd.xx config show
10. osd 的 metadata 配置
# 返回所有 osd 的 metadata
ceph osd metadata
# 指定返回 osd 的 metadata
ceph osd metadata 10