分类: ceph分享

ceph19.2 squid版本容器化OSD 使用独立 db 盘,data盘损坏后的更换硬盘重建流程

​假设: 1️⃣ 确认集群状态 确认问题 OSD(例如 osd.2)处于 down/in 或 down/out 状态。 2️⃣ 下线并清理旧 OSD (1) 从 CRUSH map 移除 (2) 停止并删除 daemon (3) 从 OSD map 移除 此时,集群会触发数据重平衡,只要副本数 ≥2,数据不会丢失。 3️⃣ 清理旧磁盘数据 清理数据盘: 清理 db 盘对应的 LV: 如果 db 盘上还有其他 OSD 的 RocksDB,请只清理对应分区/LV,不要全盘销毁。 4️⃣ 重新部署 OSD 使用 orchestrator: 5️⃣ 验证 OSD 状态 确认新 OSD 已经创建并 up

继续阅读 >>

Ceph Jewel vs Ceph Octopus+ 更换坏盘步骤对比表(二)

📌 Ceph 更换坏盘步骤对比 操作环节 Jewel 版本 (ceph-disk) Octopus 及以后 (ceph-volume + cephadm/rook) 部署工具 ceph-disk ceph-volume lvm + ceph orch OSD 元数据位置 全在 数据盘 上,日志盘只存 journal/WAL 数据 数据盘 + DB/WAL 盘(LVM LV 上保存 OSD 的元信息:osd_fsid、whoami 等) 坏掉的是数据盘 – OSD 报废 | 坏掉的是 journal/DB 盘 | – OSD 无法启动 ✅ 一句话总结

继续阅读 >>

【ceph运维】ceph如何查看osd中wal和db的大小

您可以使用ceph daemon osd.ID perf dump命令来检查 WAL/DB 分区是否即将填满及溢出。 slow_used_bytes 值显示即将溢出的数据量: # ceph daemon osd.1 perf dump | jq ‘.bluefs’ { “db_total_bytes”: 80014729216, #block.db总大小 “db_used_bytes”: 52428800, #block.db使用 “wal_total_bytes”: 8589930496, #bl

继续阅读 >>

ceph squid 19.2 rocky9 安装前优化

## 安装前优化 在安装Ceph集群之前,对系统进行优化可以显著提高集群的性能和稳定性。以下是一些关键的优化措施: ### 内核参数优化 “`bash # 创建并编辑内核参数配置文件 cat > /etc/sysctl.d/90-ceph.conf << EOF # 文件系统和I/O优化 fs.aio-max-nr = 1048576 fs.file-max = 6553600 # 进程和内存优化 kernel.pid_max = 4194304 vm.max_map_count = 262144 vm.swappiness = 10 vm.dirty_ratio

继续阅读 >>