Ceph OSD Down
2017-03-15 18:31
435 查看
CEPH集群跑了一段时间后有几个OSD变成down的状态了,但是我用这个命令去activate也不行
只能把osd从集群中移除,然后再重建了,这个过程必须在ceph重新把数据同步完成才可以做,保证down掉的数据在其他osd中恢复。
在集群中删除一个osd硬盘
#ceph osd rm 14
removed osd.14
#ceph osd crush rm osd.14
removed item id 24 name 'osd.24' from crush map
#ceph auth del osd.14
此时在x3节点上查看已经自动umount了osd.14
#umount /var/lib/ceph/osd/ceph-24
然后再重新创建即可,文档http://jqjiang.com/ceph/ceph/
然后等待ceph恢复数据同步
附:
摘掉osd的脚本如下
osd_id=`ceph osd tree | grep down | grep osd | awk '{print $3}' | awk -F . '{print $2}'`
ceph osd rm ${osd_id}
ceph osd crush rm osd.${osd_id}
ceph auth del osd.${osd_id}
umount /var/lib/ceph/osd/ceph-${osd_id}
ceph-deploy osd activate osd1:/dev/sdb2:/dev/sdb1
只能把osd从集群中移除,然后再重建了,这个过程必须在ceph重新把数据同步完成才可以做,保证down掉的数据在其他osd中恢复。
在集群中删除一个osd硬盘
#ceph osd rm 14
removed osd.14
#ceph osd crush rm osd.14
removed item id 24 name 'osd.24' from crush map
#ceph auth del osd.14
此时在x3节点上查看已经自动umount了osd.14
#umount /var/lib/ceph/osd/ceph-24
然后再重新创建即可,文档http://jqjiang.com/ceph/ceph/
然后等待ceph恢复数据同步
附:
摘掉osd的脚本如下
osd_id=`ceph osd tree | grep down | grep osd | awk '{print $3}' | awk -F . '{print $2}'`
ceph osd rm ${osd_id}
ceph osd crush rm osd.${osd_id}
ceph auth del osd.${osd_id}
umount /var/lib/ceph/osd/ceph-${osd_id}
相关文章推荐
- ceph源码分析--Monitor对osd report进行报down处理
- 一个ceph-osd异常DOWN掉的原因分析
- ceph pg+down+peering 故障排查与osd误删恢复
- 部署完ceph出现 osd down情况时的解决方法
- ceph修复osd为down的情况
- ceph-deploy osd activate激活OSD报错
- Ceph操作——监视OSD和PG
- Ceph学习—-在Ceph中加入新的主机做OSD服务
- 更换硬盘跳线,ceph osd 不能正常启动
- CEPH 使用SSD日志盘+SATA数据盘, 随OSD数目递增对性能影响的递增测试
- ceph集群reweight调整各osd权重使各osd pg数均衡
- 在ceph中:pool、PG、OSD的关系
- ceph集群jewel版本部署osd激活权限报错-故障排查
- ceph源码分析--Monitor对osd report进行报down处
- CEPH Ubuntu14.04 集群删除 OSD 节点
- Ceph修改OSD和Monitor的网络
- Ceph 查看osd的储存引擎
- ceph部署 关于osd磁盘选择以及激活问题
- ceph存储 ceph集群osd故障自我检测
- ceph 获取每个osd上pg的数量