RHSC套件的配置
2016-07-21 18:04
295 查看
概述:
RHCS:RHCS是Red Hat Cluster Suite的缩写,红帽集群套件,RHCS是一个能够提供高可用性、高可靠性、负载均衡、存储共享且经济廉价的集群工具集合,它主要包含以下功能。
参考的概念文档:
http://blog.chinaunix.net/uid-26931379-id-3558604.html
1.1.准备工作:3台封装好的虚拟机,redhat 6.5 版本;1个真机,redhat 7 版本
(1)3台虚拟机ip: 172.25.37.5
172.25.37.6
(2)3台虚拟机的selinux=disabled; vim /etc/selinux/config
iptables stop 关闭火墙 iptables -F 刷新火墙策略
所有机器必须时间同步
(3)给4台机器都做解析 /etc/hosts
172.25.37.5 server5.example.com
172.25.37.6 server6.example.com
172.25.37.7 server7.example.com
172.25.37.250 server.example.com
(4)更改主机名
在企业6里面在 /etc/sysconfig/network
HOSTNAME=server.example.com 更改完成后要reboot才生效
在企业7里面用 hostnamectl set-hostname + 新的主机名 进行更改
2.
(1)由于三台虚拟机使用的是网络yum源:baseurl=http://172.25.37.250/yumsource6,所以
只能
看到yum源里面Server里的内容,其他的目录是看不到的,要实现高可用需要更改yum
源,将下面内容进行添加:
[HighAvailability]
name=Red Hat Enterprise Linux $releasever - $basearch - Source
baseurl=http://172.25.37.250/yumsource6/HighAvailability
gpgcheck=0
[LoadBalancer]
name=Red Hat Enterprise Linux $releasever - $basearch - Source
baseurl=http://172.25.37.250/yumsource6/LoadBalancer
gpgcheck=0
[ResilientStorage]
name=Red Hat Enterprise Linux $releasever - $basearch - Source
baseurl=http://172.25.37.250/yumsource6/ResilientStorage
gpgcheck=0
[ScalableFileSystem]
name=Red Hat Enterprise Linux $releasever - $basearch - Source
baseurl=http://172.25.37.250/yumsource6/ScalableFileSystem
gpgcheck=0
可以用yum repolist进行查看
(2) server6和7上
安装ricci:yum install -y ricci
(集群组件的节点之一,可称为受控端,作用是与集群管理套件luci进行通信,luci称为
主控端)
让ricci开机自起动:chkconfig ricci on
给ricci一个用户密码:echo lin | passwd --stdin ricci 这个用户安装好ricci就有了,
可以用id ricci查看该用户
启动ricci:/etc/init.d/ricci start
在server5上安装luci:yum install -y luci (集群管理套件的主控端)
启动luci:/etc/init.d/luci start
(3)打开firefox,输入https://server5.example.com:8084
输入主控端的root和密码进行登陆
点击Manage Clusters ->create
->Create Cluster
注意:当有一个节点出问题
b946
时,查看两个节点/etc/cluster/cluster.conf的内容是否一致,
Eg:内容如下:
<?xml version="1.0"?>
<cluster config_version="5" name="shuang_lin">
<clusternodes>
<clusternode name="server6.example.com" nodeid="1"/>
<clusternode name="server7.example.com" nodeid="2"/>
</clusternodes>
<cman expected_votes="1" two_node="1"/>
</cluster>
进行同步内容.再检查ricci用户密码是否正确,ricci服务的状态. 也可以reboot后再进行检查.
用clustat可以在节点上查看节点的状态
(4)添加Fence
Fence Devices -> Add -> Fence virt(Multicast Mode) -> Name [vmfence] ->Submit
在真机里安装下面几个包:fence-virtd-serial-0.3.0-16.el7.x86_64
fence-virtd-libvirt-0.3.0-16.el7.x86_64
fence-virtd-multicast-0.3.0-16.el7.x86_64
创建目录:mkdir /etc/cluster/ 在这个目录下建立一个内容随机的key文件
dd if=/dev/urandom of=fence_xvm.key bs=128 count=1
(urandom内容随机,bs=128,大小为128字节;count=1,数量为1个)
创建key:fence_virtd -c 默认选择回车即可,如果Interface 后不是br0时,需要输入
br0,再默认选择
将生成的key分发给两个节点:scp fence_xvm.key 172.25.37.6:/etc/cluster/
scp fence_xvm.key 172.25.37.7:/etc/cluster/
查看fence的状态:systemctl status fence_virtd.service,如果dead,打开它
Node -> server6.example.com -> Add Fence Method -> Method Name(fence-6) ->submit ->Add Fence Instance -> vmfence.. -> Domain (server6) -> Submit
server7.example.com上的操作相同,只是把Method Name(fence-7)替换
测试:在server6上 fence_node server7.example.com
(5) 添加mysql
Failover Domains -> Add
(6) 设置浮动IP的作用:eg:用户一直访问这个浮动的IP,当有双击热备的一个机器挂了的时候,另外一个备机接管了服务,用户不用再去更换访问地址了。
Resources -> Add
Add ->
在server6和7上yum install mysql-server -y,如果想检测mysql开启它
/etc/init.d/mysqld start,检测完记得关闭哦!
(7)Service Groups -> Add
Add Child Resource -> 172.25.37.37 -> Add Child Resource -> mysql
检测:在节点上用clustat可以看到mysql这个服务在哪个节点上运行着,
用clusvcadm -r mysql -m server7.example.com可以将服务在两个节点之间 迁移
(8) scsi和iscsi
在server5上:yum install scsi-* -y
fdisk -cu /dev/vda 创建一块磁盘,不做格式化
vim /etc/tgt/targets.conf 第38到40行改为
<target iqn.2016-07.com.example:server.target1>
backing-store /dev/vda
initiator-address 172.25.37.6
initiator-address 172.25.37.7
</target>
/etc/init.d/tgtd start 启动scsi的服务
在server6和7上yum install iscsi-* -y
在6里面把/dev/sdb做成LVM格式
注意:用vgdisplay clustervg查看设备是否支持集群Clustered yes,则表示支持,
如果没有,lvmconf --enable-cluster
/etc/init.d/clvmd restart 再查看是否支持集群,如果还不行
lvremove /dev/clustervg/demo 删除这个块设备
vgremove clustervg 删除这个组
vgcreate -cy clustervg /dev/sdb1 再查看
再lvcreate -L 2G -n demo clustervg
mkfs.ext4 /dev/clustervg/demo
mount /dev/clustervg/demo /mnt/
cp -rp /var/lib/mysql/* /mnt/
在/mnt/下:chown mysql.mysql . 为了防止文件的属性不同 卸载/mnt/
clusvcadm -d mysql 关闭mysql
在Service Groups 里把dbdata插到mysql前 Submit
clusvcadm -e mysql
用clustat和df查看服务状态,和是否挂载成功
RHCS:RHCS是Red Hat Cluster Suite的缩写,红帽集群套件,RHCS是一个能够提供高可用性、高可靠性、负载均衡、存储共享且经济廉价的集群工具集合,它主要包含以下功能。
参考的概念文档:
http://blog.chinaunix.net/uid-26931379-id-3558604.html
1.1.准备工作:3台封装好的虚拟机,redhat 6.5 版本;1个真机,redhat 7 版本
(1)3台虚拟机ip: 172.25.37.5
172.25.37.6
(2)3台虚拟机的selinux=disabled; vim /etc/selinux/config
iptables stop 关闭火墙 iptables -F 刷新火墙策略
所有机器必须时间同步
(3)给4台机器都做解析 /etc/hosts
172.25.37.5 server5.example.com
172.25.37.6 server6.example.com
172.25.37.7 server7.example.com
172.25.37.250 server.example.com
(4)更改主机名
在企业6里面在 /etc/sysconfig/network
HOSTNAME=server.example.com 更改完成后要reboot才生效
在企业7里面用 hostnamectl set-hostname + 新的主机名 进行更改
2.
(1)由于三台虚拟机使用的是网络yum源:baseurl=http://172.25.37.250/yumsource6,所以
只能
看到yum源里面Server里的内容,其他的目录是看不到的,要实现高可用需要更改yum
源,将下面内容进行添加:
[HighAvailability]
name=Red Hat Enterprise Linux $releasever - $basearch - Source
baseurl=http://172.25.37.250/yumsource6/HighAvailability
gpgcheck=0
[LoadBalancer]
name=Red Hat Enterprise Linux $releasever - $basearch - Source
baseurl=http://172.25.37.250/yumsource6/LoadBalancer
gpgcheck=0
[ResilientStorage]
name=Red Hat Enterprise Linux $releasever - $basearch - Source
baseurl=http://172.25.37.250/yumsource6/ResilientStorage
gpgcheck=0
[ScalableFileSystem]
name=Red Hat Enterprise Linux $releasever - $basearch - Source
baseurl=http://172.25.37.250/yumsource6/ScalableFileSystem
gpgcheck=0
可以用yum repolist进行查看
(2) server6和7上
安装ricci:yum install -y ricci
(集群组件的节点之一,可称为受控端,作用是与集群管理套件luci进行通信,luci称为
主控端)
让ricci开机自起动:chkconfig ricci on
给ricci一个用户密码:echo lin | passwd --stdin ricci 这个用户安装好ricci就有了,
可以用id ricci查看该用户
启动ricci:/etc/init.d/ricci start
在server5上安装luci:yum install -y luci (集群管理套件的主控端)
启动luci:/etc/init.d/luci start
(3)打开firefox,输入https://server5.example.com:8084
输入主控端的root和密码进行登陆
点击Manage Clusters ->create
->Create Cluster
注意:当有一个节点出问题
b946
时,查看两个节点/etc/cluster/cluster.conf的内容是否一致,
Eg:内容如下:
<?xml version="1.0"?>
<cluster config_version="5" name="shuang_lin">
<clusternodes>
<clusternode name="server6.example.com" nodeid="1"/>
<clusternode name="server7.example.com" nodeid="2"/>
</clusternodes>
<cman expected_votes="1" two_node="1"/>
</cluster>
进行同步内容.再检查ricci用户密码是否正确,ricci服务的状态. 也可以reboot后再进行检查.
用clustat可以在节点上查看节点的状态
(4)添加Fence
Fence Devices -> Add -> Fence virt(Multicast Mode) -> Name [vmfence] ->Submit
在真机里安装下面几个包:fence-virtd-serial-0.3.0-16.el7.x86_64
fence-virtd-libvirt-0.3.0-16.el7.x86_64
fence-virtd-multicast-0.3.0-16.el7.x86_64
创建目录:mkdir /etc/cluster/ 在这个目录下建立一个内容随机的key文件
dd if=/dev/urandom of=fence_xvm.key bs=128 count=1
(urandom内容随机,bs=128,大小为128字节;count=1,数量为1个)
创建key:fence_virtd -c 默认选择回车即可,如果Interface 后不是br0时,需要输入
br0,再默认选择
将生成的key分发给两个节点:scp fence_xvm.key 172.25.37.6:/etc/cluster/
scp fence_xvm.key 172.25.37.7:/etc/cluster/
查看fence的状态:systemctl status fence_virtd.service,如果dead,打开它
Node -> server6.example.com -> Add Fence Method -> Method Name(fence-6) ->submit ->Add Fence Instance -> vmfence.. -> Domain (server6) -> Submit
server7.example.com上的操作相同,只是把Method Name(fence-7)替换
测试:在server6上 fence_node server7.example.com
(5) 添加mysql
Failover Domains -> Add
(6) 设置浮动IP的作用:eg:用户一直访问这个浮动的IP,当有双击热备的一个机器挂了的时候,另外一个备机接管了服务,用户不用再去更换访问地址了。
Resources -> Add
Add ->
在server6和7上yum install mysql-server -y,如果想检测mysql开启它
/etc/init.d/mysqld start,检测完记得关闭哦!
(7)Service Groups -> Add
Add Child Resource -> 172.25.37.37 -> Add Child Resource -> mysql
检测:在节点上用clustat可以看到mysql这个服务在哪个节点上运行着,
用clusvcadm -r mysql -m server7.example.com可以将服务在两个节点之间 迁移
(8) scsi和iscsi
在server5上:yum install scsi-* -y
fdisk -cu /dev/vda 创建一块磁盘,不做格式化
vim /etc/tgt/targets.conf 第38到40行改为
<target iqn.2016-07.com.example:server.target1>
backing-store /dev/vda
initiator-address 172.25.37.6
initiator-address 172.25.37.7
</target>
/etc/init.d/tgtd start 启动scsi的服务
在server6和7上yum install iscsi-* -y
在6里面把/dev/sdb做成LVM格式
Server6里面 | Server7里面 |
pvcreate /dev/sdb1 | pvs |
vgcreate clustervg /dev/sdb1 | vgs |
lvcreate -L 2G -n demo clustervg | lvs |
如果没有,lvmconf --enable-cluster
/etc/init.d/clvmd restart 再查看是否支持集群,如果还不行
lvremove /dev/clustervg/demo 删除这个块设备
vgremove clustervg 删除这个组
vgcreate -cy clustervg /dev/sdb1 再查看
再lvcreate -L 2G -n demo clustervg
mkfs.ext4 /dev/clustervg/demo
mount /dev/clustervg/demo /mnt/
cp -rp /var/lib/mysql/* /mnt/
在/mnt/下:chown mysql.mysql . 为了防止文件的属性不同 卸载/mnt/
clusvcadm -d mysql 关闭mysql
在Service Groups 里把dbdata插到mysql前 Submit
clusvcadm -e mysql
用clustat和df查看服务状态,和是否挂载成功
相关文章推荐
- 点击ListView时背景阴影
- 异步缓存,异步加载
- 小问题大脑洞
- [算法学习笔记]冒泡排序和选择排序
- WebStorm的基本配置
- CodeForces 615A Bulbs (水。)
- jasmine单元测试
- 日历中的星期一问题
- 从线程返回信息
- UDP 多线程 通讯协议
- Java 程序员应会的 Linux 命令
- MySQL crash-safe replication
- 未关闭InputStream 引起的血案
- Android基础之Activity四种启动模式
- java中的 private Logger log=Logger.getLogger(this.getClass());
- c++学习笔记(十一):C++类的访问修饰符
- 数据结构实验之数组一:矩阵转置
- JavaScript的垃圾回收
- shell初步学习
- sql