ceph 添加删除磁盘mon osd mds
2016-03-13 15:51
495 查看
一、删除节点包含(mon osd mds)的节点1、摘除mon[root@ceph01 ~]# ceph mon remove ceph01removed mon.bgw-os-node153 at 10.240.216.153:6789/0, there are now 2 monitors2、摘除此节点上所有的osd1)、查看此节点的osd[root@ceph01 ~]# ceph osd tree -4 1.08 host ceph018 0.27 osd.8 up 19 0.27 osd.9 up 110 0.27 osd.10 up 111 0.27 osd.11 up 111 0.27 osd.12 up 12)、把上面的节点的osd进程停掉[root@ceph01 ~]# /etc/init.d/ceph stop osd=== osd.10 === Stopping Ceph osd.10 on ceph01..kill 2251...done=== osd.9 === Stopping Ceph osd.9 on ceph01...kill 2023...kill 2023...done=== osd.8 === Stopping Ceph osd.8 on ceph01 kill 1724...kill 1724...done=== osd.11 === Stopping Ceph osd.8 on ceph01 kill 1724...kill 1724...done=== osd.12=== Stopping Ceph osd.11 on ceph01...kill 1501...done3)、再次查看ceph osd状态[root@ceph01 ~]# ceph osd tree-4 1.08 host ceph018 0.27 osd.8 down 19 0.27 osd.9 down 110 0.27 osd.10 down 111 0.27 osd.11 down 14)、删除所有的osd[root@ceph01 ~]# ceph osd rm 8removed osd.8[root@ceph01 ~]# ceph osd rm 9removed osd.9[root@ceph01 ~]# ceph osd rm 10^[[Aremoved osd.10[root@ceph01 ~]# ceph osd rm 11removed osd.115)、删除所有osd的crush map [root@ceph01~]# ceph osd crush rm osd.8removed item id 8 name 'osd.8' from crush map[root@ceph01 ~]# ceph osd crush rm osd.9removed item id 9 name 'osd.9' from crush map[root@ceph01 ~]# ceph osd crush rm osd.10[[Aremoved item id 10 name 'osd.10' from crush map[root@ceph01 ~]# ceph osd crush rm osd.11removed item id 11 name 'osd.11' from crush map6)、删除所有osd的认证[root@ceph01 ~]# ceph auth del osd.8updated[root@ceph01~]# ceph auth del osd.9updated[root@ceph01 ~]# ceph auth del osd.10updated[root@ceph01 ~]# ceph auth del osd.11updated7)、在ceph osd tree中删除此机器host的crush map[root@ceph01 ~]# ceph osd crush rm ceph01removed item id -4 name 'ceph01' from crush map8)、卸载所有挂载在osd的硬盘[root@ceph01 ~]# umount /var/lib/ceph/osd/ceph-8[root@ceph01 ~]# umount /var/lib/ceph/osd/ceph-9[root@ceph01 ~]# umount /var/lib/ceph/osd/ceph-10[root@ceph01 ~]# umount /var/lib/ceph/osd/ceph-11
3、删除掉mds1、直接关闭此节点的mds进程[root@bgw-os-node153 ~]# /etc/init.d/ceph stop mds=== mds.bgw-os-node153 === Stopping Ceph mds.ceph01 on ceph013...kill 4981...done[root@ceph01 ~]# 2、删除此mds的认证[root@ceph01 ~]# ceph auth del mds.ceph01updated
3、删除掉mds1、直接关闭此节点的mds进程[root@bgw-os-node153 ~]# /etc/init.d/ceph stop mds=== mds.bgw-os-node153 === Stopping Ceph mds.ceph01 on ceph013...kill 4981...done[root@ceph01 ~]# 2、删除此mds的认证[root@ceph01 ~]# ceph auth del mds.ceph01updated
相关文章推荐
- s3 分段下载核心原理-获取指定范围的文件内容
- radosgw单机多实例
- s3 presigned upload 测试用例
- 使用Nginx代理S3时,需要禁用URL解码。
- ceph 运维常用命令总结
- Ceph配置参数(一)
- Ceph:一个 Linux PB 级分布式文件系统
- ceph calamri ubuntu安装
- [转]“Ceph浅析”系列之(—)—Ceph概况
- [转]“Ceph浅析”系列之(二)—Ceph的设计思想
- [转]“Ceph浅析”系列之(三)—Ceph的结构
- [转]“Ceph浅析”系列之(四)——Ceph的工作原理及流程
- [转]“Ceph浅析”系列之(五)——Ceph与OpenStack
- [转]“Ceph浅析”系列之(六)——关于Ceph的若干想法
- ceph 添加删除osd和mon
- ceph分布式存储--介绍篇
- ceph与openstack结合提供存储后端
- 通过Ceph-RBD和ISCSI-target实现硬盘共享
- ceph安装部署中,出现ImportError: No module named ceph_*?
- accelio介绍和信息汇总