标签: ceph

ceph19.2 squid版本容器化OSD 使用独立 db 盘,data盘损坏后的更换硬盘重建流程

​假设: 1️⃣ 确认集群状态 确认问题 OSD(例如 osd.2)处于 down/in 或 down/out 状态。 2️⃣ 下线并清理旧 OSD (1) 从 CRUSH map 移除 (2) 停止并删除 daemon (3) 从 OSD map 移除 此时,集群会触发数据重平衡,只要副本数 ≥2,数据不会丢失。 3️⃣ 清理旧磁盘数据 清理数据盘: 清理 db 盘对应的 LV: 如果 db 盘上还有其他 OSD 的 RocksDB,请只清理对应分区/LV,不要全盘销毁。 4️⃣ 重新部署 OSD 使用 orchestrator: 5️⃣ 验证 OSD 状态 确认新 OSD 已经创建并 up

继续阅读 >>

Ceph Jewel vs Ceph Octopus+ 更换坏盘步骤对比表(二)

📌 Ceph 更换坏盘步骤对比 操作环节 Jewel 版本 (ceph-disk) Octopus 及以后 (ceph-volume + cephadm/rook) 部署工具 ceph-disk ceph-volume lvm + ceph orch OSD 元数据位置 全在 数据盘 上,日志盘只存 journal/WAL 数据 数据盘 + DB/WAL 盘(LVM LV 上保存 OSD 的元信息:osd_fsid、whoami 等) 坏掉的是数据盘 – OSD 报废 | 坏掉的是 journal/DB 盘 | – OSD 无法启动 ✅ 一句话总结

继续阅读 >>

Kubernetes 1.31 + CephFS CSI 的部署和使用说明

1️⃣ 部署 CephFS CSI 驱动 如果不用 Rook,可以直接用 Ceph CSI 官方 YAML 安装: git clone –depth=1 https://github.com/ceph/ceph-csi.git cd ceph-csi/deploy/cephfs/kubernetes kubectl apply -f csi-cephfsplugin.yaml kubectl apply -f csi-cephfsplugin-provisioner.yaml 如果你的 K8s 节点没有 ceph-common 包,需要提前安装(用于挂载 CephFS)。 2️⃣ 创建访问

继续阅读 >>

【ceph运维】ceph如何查看osd中wal和db的大小

您可以使用ceph daemon osd.ID perf dump命令来检查 WAL/DB 分区是否即将填满及溢出。 slow_used_bytes 值显示即将溢出的数据量: # ceph daemon osd.1 perf dump | jq ‘.bluefs’ { “db_total_bytes”: 80014729216, #block.db总大小 “db_used_bytes”: 52428800, #block.db使用 “wal_total_bytes”: 8589930496, #bl

继续阅读 >>