ricci+luci集群
2018-02-11 21:24
369 查看
一、安装
上次实验中做到了主备nginx,需要这两台主机进行实验server6,server7
在server6上安装luci与ricci
passwd ricci设置ricci的密码,建议摄制成一样的密码,这样在配置的设置的时候会方便一点
在server7上安装ricci
开启两台主机的两个服务,并且一定要将他们都配置成开机自启
在开启luci服务时,会有一行网址,值浏览器中输入此网址即可进行访问redhat的高可用套件,默认端口时8084
二、基本设置
1、先创建一个集群
2、再在集群中创建节点
3、我在这个集群套件中加入一个fence设备,在某一个节点出现故障时,不管此节点是真正的挂掉了,还是暂时性,均给此设备进行断电设置,以避免出现用户使用时出现故障情况。
加入fence服务后,查看此服务是否是正常工作的,只需要在一台虚拟机执行这样的操作,看被执行的操作是否是出现重启。fence_node server7
4、将nginx服务加入了,需要nginx的脚本文件。
大概出来就是这样的情况。
![](http://i2.51cto.com/images/blog/201802/11/38881eb4c9fef77bc3d627f35624054e.png?x-oss-process=image/watermark,size_16,text_QDUxQ1RP5Y2a5a6i,color_FFFFFF,t_100,g_se,x_10,y_10,shadow_90,type_ZmFuZ3poZW5naGVpdGk=)
在luci上的/etc/cluster目录中,有相关设定的配置文件
![](http://i2.51cto.com/images/blog/201802/11/5adb9246a15e17b89adf67a309fe43b2.png?x-oss-process=image/watermark,size_16,text_QDUxQ1RP5Y2a5a6i,color_FFFFFF,t_100,g_se,x_10,y_10,shadow_90,type_ZmFuZ3poZW5naGVpdGk=)
集群在实验中必须保持是健康的,所有配置均是在集群的基础上进行设置的。
查看集群是否健康
可以看到,集群上的两个节点都是好的,并且现在nginx服务是工作在server6上的。
![](http://i2.51cto.com/images/blog/201802/11/8efc0cb45f052bf5e7922a2a7dcf5201.png?x-oss-process=image/watermark,size_16,text_QDUxQ1RP5Y2a5a6i,color_FFFFFF,t_100,g_se,x_10,y_10,shadow_90,type_ZmFuZ3poZW5naGVpdGk=)
三、使用集群实现共享存储(使用到了iscsi)
在一台虚拟机上共享出一块硬盘或者分区都可以
共享的主机上server2:vim /etc/tgt/targets.conf
![](http://i2.51cto.com/images/blog/201802/11/6181437059ef4f574c17e5b0893a3788.png?x-oss-process=image/watermark,size_16,text_QDUxQ1RP5Y2a5a6i,color_FFFFFF,t_100,g_se,x_10,y_10,shadow_90,type_ZmFuZ3poZW5naGVpdGk=)
开启服务:/etc/init.d/tgtd start
两台server6与server7进行登陆并使用共享出来的此分区
![](http://i2.51cto.com/images/blog/201802/11/f66fdbda591fe8916cea6219b520170e.png?x-oss-process=image/watermark,size_16,text_QDUxQ1RP5Y2a5a6i,color_FFFFFF,t_100,g_se,x_10,y_10,shadow_90,type_ZmFuZ3poZW5naGVpdGk=)
在server6与server7就可以进行使用了。
将分区格式话成gfs2模式的:mkfs.gfs2 -j 3 -p lock_dlm -t laozhao_ha:mygrs2 /dev/sda1 laozhao_ha是我集群的名字,必须与集群的名称是一致的。
格式话成gts2格式的话,只需要在集群的一个节点进行操作。
![](http://i2.51cto.com/images/blog/201802/11/a0659c331986d1356e548f1dab2629c1.png?x-oss-process=image/watermark,size_16,text_QDUxQ1RP5Y2a5a6i,color_FFFFFF,t_100,g_se,x_10,y_10,shadow_90,type_ZmFuZ3poZW5naGVpdGk=)
将此分区进行挂载后,在集群的一个进行了一个操作,在集群的所有节点上均会有此节点所进行的操作。
在进行共享分区时,尽量将分区搞成lvm格式。以便以后在此不够用时,可以即使进行扩展。
上次实验中做到了主备nginx,需要这两台主机进行实验server6,server7
在server6上安装luci与ricci
passwd ricci设置ricci的密码,建议摄制成一样的密码,这样在配置的设置的时候会方便一点
在server7上安装ricci
开启两台主机的两个服务,并且一定要将他们都配置成开机自启
在开启luci服务时,会有一行网址,值浏览器中输入此网址即可进行访问redhat的高可用套件,默认端口时8084
二、基本设置
1、先创建一个集群
2、再在集群中创建节点
3、我在这个集群套件中加入一个fence设备,在某一个节点出现故障时,不管此节点是真正的挂掉了,还是暂时性,均给此设备进行断电设置,以避免出现用户使用时出现故障情况。
加入fence服务后,查看此服务是否是正常工作的,只需要在一台虚拟机执行这样的操作,看被执行的操作是否是出现重启。fence_node server7
4、将nginx服务加入了,需要nginx的脚本文件。
大概出来就是这样的情况。
![](http://i2.51cto.com/images/blog/201802/11/38881eb4c9fef77bc3d627f35624054e.png?x-oss-process=image/watermark,size_16,text_QDUxQ1RP5Y2a5a6i,color_FFFFFF,t_100,g_se,x_10,y_10,shadow_90,type_ZmFuZ3poZW5naGVpdGk=)
在luci上的/etc/cluster目录中,有相关设定的配置文件
![](http://i2.51cto.com/images/blog/201802/11/5adb9246a15e17b89adf67a309fe43b2.png?x-oss-process=image/watermark,size_16,text_QDUxQ1RP5Y2a5a6i,color_FFFFFF,t_100,g_se,x_10,y_10,shadow_90,type_ZmFuZ3poZW5naGVpdGk=)
集群在实验中必须保持是健康的,所有配置均是在集群的基础上进行设置的。
查看集群是否健康
可以看到,集群上的两个节点都是好的,并且现在nginx服务是工作在server6上的。
![](http://i2.51cto.com/images/blog/201802/11/8efc0cb45f052bf5e7922a2a7dcf5201.png?x-oss-process=image/watermark,size_16,text_QDUxQ1RP5Y2a5a6i,color_FFFFFF,t_100,g_se,x_10,y_10,shadow_90,type_ZmFuZ3poZW5naGVpdGk=)
三、使用集群实现共享存储(使用到了iscsi)
在一台虚拟机上共享出一块硬盘或者分区都可以
共享的主机上server2:vim /etc/tgt/targets.conf
![](http://i2.51cto.com/images/blog/201802/11/6181437059ef4f574c17e5b0893a3788.png?x-oss-process=image/watermark,size_16,text_QDUxQ1RP5Y2a5a6i,color_FFFFFF,t_100,g_se,x_10,y_10,shadow_90,type_ZmFuZ3poZW5naGVpdGk=)
开启服务:/etc/init.d/tgtd start
两台server6与server7进行登陆并使用共享出来的此分区
iscsiadm -m discovery -t st -p 172.25.99.2 <br/>查看是否此ip有共享的分区<br/>iscsiadm -m node -l<br/>登陆
![](http://i2.51cto.com/images/blog/201802/11/f66fdbda591fe8916cea6219b520170e.png?x-oss-process=image/watermark,size_16,text_QDUxQ1RP5Y2a5a6i,color_FFFFFF,t_100,g_se,x_10,y_10,shadow_90,type_ZmFuZ3poZW5naGVpdGk=)
在server6与server7就可以进行使用了。
将分区格式话成gfs2模式的:mkfs.gfs2 -j 3 -p lock_dlm -t laozhao_ha:mygrs2 /dev/sda1 laozhao_ha是我集群的名字,必须与集群的名称是一致的。
格式话成gts2格式的话,只需要在集群的一个节点进行操作。
![](http://i2.51cto.com/images/blog/201802/11/a0659c331986d1356e548f1dab2629c1.png?x-oss-process=image/watermark,size_16,text_QDUxQ1RP5Y2a5a6i,color_FFFFFF,t_100,g_se,x_10,y_10,shadow_90,type_ZmFuZ3poZW5naGVpdGk=)
将此分区进行挂载后,在集群的一个进行了一个操作,在集群的所有节点上均会有此节点所进行的操作。
在进行共享分区时,尽量将分区搞成lvm格式。以便以后在此不够用时,可以即使进行扩展。
相关文章推荐
- 集群基础----(ricci+luci的安装)
- 集群 Ricci&&luci Fence机制
- RHCS集群套件之用Luci/Ricci实现Web集群的详细配置
- CentOS 6.6 上使用 luci/ricci 安装配置 RHCS 集群 推荐
- RHCS集群套件——Luci/Ricci实现Web高可用集群
- CentOS 6.6 上使用 luci-ricci 安装配置 RHCS 集群
- RHCS集群luci--ricci高集群
- luci+ricci构建集群
- 集群 luci+ricci
- luci+ricci集群管理
- RHCS套件web服务集群管理ricci luci
- HA高可用集群部署( ricci + luci + fence ) 双机热备
- 红帽HA(RHCS)ricci+luci+fence
- [rhel6.5]配置luci和ricci + Apache+iscsi || gfs2 + 遇到的错误以及解决办法
- RedHat6.1集群管理工具luci
- rhcs群集构建 scsi+iscsi+luci+ricci的web页面(附加gfs群集文件系统)
- HA高可用集群部署(ricci+luci+fence_virtd) 双机热备
- HA高可用集群(ricci+luci+fence_virted)
- RHCS高可用集群配置(luci+ricci+fence)
- rhcs群集构建 scsi+iscsi+luci+ricci的web页面配置