ceph19.2 squid版本容器化OSD 使用独立 db 盘,data盘损坏后的更换硬盘重建流程
假设: 1️⃣ 确认集群状态 确认问题 OSD(例如 osd.2)处于 down/in 或 down/out 状态。 2️⃣ 下线并清理旧 OSD (1) 从 CRUSH map 移除 (2) 停止并删除 daemon (3) 从 OSD map 移除 此时,集群会触发数据重平衡,只要副本数 ≥2,数据不会丢失。 3️⃣ 清理旧磁盘数据 清理数据盘: 清理 db 盘对应的 LV: 如果 db 盘上还有其他 OSD 的 RocksDB,请只清理对应分区/LV,不要全盘销毁。 4️⃣ 重新部署 OSD 使用 orchestrator: 5️⃣ 验证 OSD 状态 确认新 OSD 已经创建并 up
继续阅读 >>