标签: ceph

ceph版本更新及时间

1、Ceph的起源与发展 Ceph项目起源于 2004年,是其创始人 SageWeil在加州大学 SantaCruz分校攻读博士期间的研究课题,系统最初设计目标为提供一款基于 POSIX、没有单点故障、大规模的分布式文件存储系统。所谓“大规模”和“分布式”,是指存储系统至少能够承载PB级别的数据,并且由成千上万的存储节点组成。大数据技术迅猛发展的今天,PB 级数据存储早已不是一个可以激动人心的系统设计目标,但应该指出,Ceph项目起源于2004 年,那是一个商用处理器以单核为主流、常见硬盘容量不足百 GB的年代,这和如今 CPU动辄 20核、40线程,还要双处理器、单块硬盘存储容量1

继续阅读 >>

ceph修复pg inconsistent

1、收到异常情况如下: health: HEALTH_ERR 2 scrub errors Possible data damage: 1 pg inconsistent 2、查看详细信息 ceph health detail HEALTH_ERR 2 scrub errors; Possible data damage: 1 pg inconsistent OSD_SCRUB_ERRORS 2 scrub errors PG_DAMAGED Possible data damage: 1 pg inconsistent pg 2.2f5 is active+clean+inconsisten

继续阅读 >>

zabbix监控Ceph Zabbix plugin 插件和模板

已有的git开源项目基础上做了一下针对性的优化和功能增强。 此监控插件功能能够满足项目的基本监控需求的。   项目地址: https://github.com/BodihTao/ceph-zabbix   主要改进: 采用 zabbix-agent(active) 模式,效率更高 采集脚本多机部署,数据发送到同一HOST,避免单点风险 增加支持 read/write iops item; 增加iops超高和ceph err告警 效果图: 安装配置也很简单,在已有的zabbix agent 上稍作修改 1. 把ceph-status.sh文件拷贝到zabbix_agent目录

继续阅读 >>

ceph空间不足报错,文件夹100000文件数限制问题处理

cephfs导入文件,磁盘空间足够,但是提示“no space left” 空间不足,查找资料发现官方说法 A directory fragment is elegible for splitting when its size exceeds mds_bal_split_size (default 10000). Ordinarily this split is delayed by mds_bal_fragment_interval, but if the fragment size exceeds a factor of mds_bal_fragment_fast_factorthe s

继续阅读 >>

ceph性能测试

ceph性能测试知道rados bench 测试读写性能 RADOS 性能测试:使用 Ceph 自带的 rados bench 工具 该工具的语法为:rados bench -p <pool_name> <seconds> <write|seq|rand> -b <block size> -t –no-cleanup pool_name:测试所针对的存储池 seconds:测试所持续的秒数 <write|seq|rand>:操作模式,write:写,seq:顺序读;rand:随机读 -b:block size,即块大小,默

继续阅读 >>

ceph增加删除osd操作教程

ceph增加删除osd操作教程 cep ceph 添加osd 扩容 ceph集群作为存储后端开始使用后扩osd时,每次添加完后等ceph集群恢复正常后再继续添加下一个,避免同时添加2个及以上的osd。 添加OSD # 准备磁盘(切换到my-cluster目录) ceph-deploy disk list node1 # 擦净磁盘 ceph-deploy disk zap node1:sdd # 创建OSD ceph-deploy osd prepare node1:sdd:/dev/sdb2 ceph-deploy osd activate node1:sdb1:/dev/sdb2 删除OSD

继续阅读 >>