RHCM 使用gnbd仲裁磁盘 建立HA高可用性集群 【实验补充】
2009-12-05 22:02
323 查看
【 建立基于仲裁的cluster 】
实验环境:192.168.0.10 node10.zhou.com gnbd192.168.0.11 node11.zhou.com apache1192.168.0.12 node12.zhou.com apache2
1、创建gnbd共享存储。192.168.0.10: gnbd_serv -n[root@node10 /]# gnbd_export -c -d /dev/sda8 -e qdisk1gnbd_export: created GNBD qdisk1 serving file /dev/sda8
192.168.0.11:
[root@node11 cluster]# modprobe gnbd[root@node11 cluster]# gnbd_import -i 192.168.0.10 -ngnbd_import: created directory /dev/gnbdgnbd_import: created gnbd device qdisk1gnbd_recvd: gnbd_recvd started
[root@node11 gnbd]# mkqdisk -c /dev/gnbd/qdisk1 -l qdisk1mkqdisk v0.6.0Writing new quorum disk label 'qdisk1' to /dev/gnbd/qdisk1.WARNING: About to destroy all data on /dev/gnbd/qdisk1; proceed [N/y] ? yInitializing status block for node 1...Initializing status block for node 2...Initializing status block for node 3...Initializing status block for node 4...Initializing status block for node 5...Initializing status block for node 6...Initializing status block for node 7...Initializing status block for node 8...Initializing status block for node 9...Initializing status block for node 10...Initializing status block for node 11...Initializing status block for node 12...Initializing status block for node 13...Initializing status block for node 14...Initializing status block for node 15...Initializing status block for node 16...[root@node11 gnbd]#
[root@node11 cluster]# ls /dev/gnbd/qdisk1
192.168.0.12:
[root@node12 cluster]# modprobe gnbd[root@node12 cluster]# gnbd_import -i 192.168.0.10 -ngnbd_import: created directory /dev/gnbdgnbd_import: created gnbd device qdisk1gnbd_recvd: gnbd_recvd started[root@node12 cluster]# ls /dev/gnbd/qdisk1
192.168.0.11:system-config-cluster【 相应截图配图 】
scp /etc/cluster/cluster.conf 192.168.0.12:/etc/cluster/cluster.conf
在192.168.0.12上检查/etc/cluster/下,有没有cluster.conf文件,有了就可以开启cman了。
节点上的两台机器同时依次开启 cman 服务。等待心跳连接。[root@node11 gnbd]# service cman start Starting cluster: Loading modules... done Mounting configfs... done Starting ccsd... done Starting cman... done Starting daemons... done Starting fencing... done [ OK ]
注意、只有节点中所有节点的cman都开启了,心跳连接成功的时候,cman 才会启动成功,这时候表示集群中的所有节点间通信都是正常的。然后两边启动资源,就可以正常使用这个集群了。
[root@node11 gnbd]# service rgmanager startStarting Cluster Service Manager: [ OK ]
另一台也要开启。
测试:[root@node10 /]# ping -c 1 192.168.0.222PING 192.168.0.222 (192.168.0.222) 56(84) bytes of data.64 bytes from 192.168.0.222: icmp_seq=1 ttl=64 time=4.37 ms
--- 192.168.0.222 ping statistics ---1 packets transmitted, 1 received, 0% packet loss, time 0msrtt min/avg/max/mdev = 4.379/4.379/4.379/0.000 ms
用firefox来测试服务是否开启。
页面访问成功,查看监控状态,图17
测试集群:将node11.zhou.com这个节点上的httpd服务停掉,然后查看是否会自动切换到备用机上:备用机页面使用的是红帽apache测试页。本文出自 “周旭光_不断进取” 博客,转载请与作者联系!
实验环境:192.168.0.10 node10.zhou.com gnbd192.168.0.11 node11.zhou.com apache1192.168.0.12 node12.zhou.com apache2
1、创建gnbd共享存储。192.168.0.10: gnbd_serv -n[root@node10 /]# gnbd_export -c -d /dev/sda8 -e qdisk1gnbd_export: created GNBD qdisk1 serving file /dev/sda8
192.168.0.11:
[root@node11 cluster]# modprobe gnbd[root@node11 cluster]# gnbd_import -i 192.168.0.10 -ngnbd_import: created directory /dev/gnbdgnbd_import: created gnbd device qdisk1gnbd_recvd: gnbd_recvd started
[root@node11 gnbd]# mkqdisk -c /dev/gnbd/qdisk1 -l qdisk1mkqdisk v0.6.0Writing new quorum disk label 'qdisk1' to /dev/gnbd/qdisk1.WARNING: About to destroy all data on /dev/gnbd/qdisk1; proceed [N/y] ? yInitializing status block for node 1...Initializing status block for node 2...Initializing status block for node 3...Initializing status block for node 4...Initializing status block for node 5...Initializing status block for node 6...Initializing status block for node 7...Initializing status block for node 8...Initializing status block for node 9...Initializing status block for node 10...Initializing status block for node 11...Initializing status block for node 12...Initializing status block for node 13...Initializing status block for node 14...Initializing status block for node 15...Initializing status block for node 16...[root@node11 gnbd]#
[root@node11 cluster]# ls /dev/gnbd/qdisk1
192.168.0.12:
[root@node12 cluster]# modprobe gnbd[root@node12 cluster]# gnbd_import -i 192.168.0.10 -ngnbd_import: created directory /dev/gnbdgnbd_import: created gnbd device qdisk1gnbd_recvd: gnbd_recvd started[root@node12 cluster]# ls /dev/gnbd/qdisk1
192.168.0.11:system-config-cluster【 相应截图配图 】
scp /etc/cluster/cluster.conf 192.168.0.12:/etc/cluster/cluster.conf
在192.168.0.12上检查/etc/cluster/下,有没有cluster.conf文件,有了就可以开启cman了。
节点上的两台机器同时依次开启 cman 服务。等待心跳连接。[root@node11 gnbd]# service cman start Starting cluster: Loading modules... done Mounting configfs... done Starting ccsd... done Starting cman... done Starting daemons... done Starting fencing... done [ OK ]
注意、只有节点中所有节点的cman都开启了,心跳连接成功的时候,cman 才会启动成功,这时候表示集群中的所有节点间通信都是正常的。然后两边启动资源,就可以正常使用这个集群了。
[root@node11 gnbd]# service rgmanager startStarting Cluster Service Manager: [ OK ]
另一台也要开启。
测试:[root@node10 /]# ping -c 1 192.168.0.222PING 192.168.0.222 (192.168.0.222) 56(84) bytes of data.64 bytes from 192.168.0.222: icmp_seq=1 ttl=64 time=4.37 ms
--- 192.168.0.222 ping statistics ---1 packets transmitted, 1 received, 0% packet loss, time 0msrtt min/avg/max/mdev = 4.379/4.379/4.379/0.000 ms
用firefox来测试服务是否开启。
页面访问成功,查看监控状态,图17
测试集群:将node11.zhou.com这个节点上的httpd服务停掉,然后查看是否会自动切换到备用机上:备用机页面使用的是红帽apache测试页。本文出自 “周旭光_不断进取” 博客,转载请与作者联系!
相关文章推荐
- RHCM 使用gnbd仲裁磁盘 建立HA高可用性集群 【详细图解】
- CentOS实验三:使用安装光盘建立本地软件源
- 如何使用Heartbeat组建一个高可用性的Apache集群?
- Kafka 0.9+Zookeeper3.4.6集群搭建、配置,新Client API的使用要点,高可用性测试,以及各种坑 (转载)
- Linux 高可用(HA)集群之Corosync+pacemaker安装使用
- 如何使用Heartbeat组建一个高可用性的Apache集群?
- 第二章:hadoop2+HA+Zookeeper QJM集群搭建实验
- 如何使用Heartbeat,组建一个高可用性的mysql集群
- 在VMWare中建立Hadoop虚拟集群的详细步骤(使用CentOS)
- 使用RHCS实现HA集群
- Windows建立基本磁盘和动态磁盘概念及使用说明
- 建立HBase的集群和HDInsight在Hadoop中使用Hive来查询它们
- CentOS实验三:使用安装光盘建立本地软件源
- HDFS HA【QJM】集群搭建以及使用Zookeeper集群进行故障转移
- 剖析使用物理端口建立的BGP关系(实验部分)
- 大数据实验增加,导致虚拟机的根目录/ 磁盘空间不够,会带来各种问题, 使用gpated工具解决!!
- 如何使用Hyper-V集群和存储功能以达到HA?
- XLinux高可用性服务器集群方案LATCH HA
- Kafka 0.9+Zookeeper3.4.6集群搭建、配置,新Client API的使用要点,高可用性测试,以及各种坑
- 从0开始部署hadoop HDFS的HA集群,使用zk实现自动容灾