Ceph Jewel vs Ceph Octopus+ 更换坏盘步骤对比表(二)
📌 Ceph 更换坏盘步骤对比
操作环节 | Jewel 版本 (ceph-disk) | Octopus 及以后 (ceph-volume + cephadm/rook) |
---|---|---|
部署工具 | ceph-disk | ceph-volume lvm + ceph orch |
OSD 元数据位置 | 全在 数据盘 上,日志盘只存 journal/WAL 数据 | 数据盘 + DB/WAL 盘(LVM LV 上保存 OSD 的元信息:osd_fsid、whoami 等) |
坏掉的是数据盘 | – OSD 报废 |
- Jewel 版本
- journal 盘不需要清理
- 新数据盘重新执行:
ceph-disk prepare --data /dev/sdX --journal /dev/sdY ceph-disk activate /dev/sdX
- Ceph 会重新写入 journal 盘 | – OSD 报废
- Ceph Octopus+
- 必须先清理 DB/WAL 卷:
ceph-volume lvm zap --destroy /dev/ceph-db/db-1
- 然后用 orchestrator 创建新的 OSD:
ceph orch daemon add osd <host>:data_devices=/dev/sdX,db_devices=/dev/ceph-db/db-1 ``` |
| 坏掉的是 journal/DB 盘 | – OSD 无法启动
- 必须换 journal 盘,并执行
ceph-disk prepare
重做 OSD | – OSD 无法启动 - 需要重新绑定新的 DB/WAL 卷,通常要 重建 OSD |
| 是否需要清理 journal/DB 盘 | ❌ 不需要,重建时会自动覆盖 | ✅ 必须清理,不然ceph orch
会报 already created 错误 |
| 自动化程度 | 低,需要手动ceph-disk prepare/activate
| 高,由 cephadm/rook 统一管理 OSD |
| 典型报错 | –No such keyring
- OSD 无法启动 | –
Created no osd(s); already created?
auth get failed: failed to find osd.X in keyring
stray daemon not managed by cephadm
|
✅ 一句话总结
- Jewel:只要数据盘坏了,直接换数据盘,journal 盘不用清理。
- Octopus+:数据盘坏了,还要先 清理旧的 DB/WAL LV,否则新 OSD 无法创建。