LVS负载均衡群集--DR模式
2017-05-17 16:23
495 查看
在之前的博客里已经介绍过NAT模式,这里再部署一下DR模式。TUN模式不做阐述,因为应用到的环境比较大,但是往往一般大环境又不用TUN模式来做,所以TUN就直接放弃。
在DR模式的群集中,LVS负载调度器作为群集的访问入口,但不作为网关使用;服务器池中的所有节点都各自接入Internet,发送给客户端的Web响应数据包不需要经过LVS负载调度器。这种方式入站、出站访问数据被分别处理,因此LVS负载调度器和所有节点服务器都需要配置有VIP地址、以便响应对整个群集的访问。考虑到数据存储的安全性,共享存储设备会放在内部的专用网络中
采用虚拟接口的方式(eth0:0),为网卡eth0绑定VIP地址,以便响应群集访问。
配置结果为eth0=>172.16.1.128/24,eth0:0=>172.16.1.130/24
b. 调整/proc响应参数
对于DR群集模式来说,由于LVS负载调度器和各节点需要共有VIP地址,应该关闭Linux内核的重定向参数响应
c. 配置负载分配策略
a. 配置虚拟IP地址(VIP)
各节点的VI品低值仅用作发送Web响应数据包的源地址,并不需要监听客户机的访问请求(实际的需求是又调度器来做)。因此需要使用虚拟接口lo:0来承载VIP地址,并为本机添加一条路由记录,将访问VIP的数据限制在本地,以避免通信紊乱
b.调整/proc响应参数
为所有节点服务器对访问的回应和宣告做设置
c. 把各节点的网页跟目录挂载到NFS上,并开启服务,接下来要做的就是测试了(略)
通过下面命令查看群集节点状态
ipvsadm -ln
在DR模式的群集中,LVS负载调度器作为群集的访问入口,但不作为网关使用;服务器池中的所有节点都各自接入Internet,发送给客户端的Web响应数据包不需要经过LVS负载调度器。这种方式入站、出站访问数据被分别处理,因此LVS负载调度器和所有节点服务器都需要配置有VIP地址、以便响应对整个群集的访问。考虑到数据存储的安全性,共享存储设备会放在内部的专用网络中
1. 配置负载调度器
a. 配置虚拟IP地址(VIP)采用虚拟接口的方式(eth0:0),为网卡eth0绑定VIP地址,以便响应群集访问。
配置结果为eth0=>172.16.1.128/24,eth0:0=>172.16.1.130/24
cd /etc/sysconfig/network-scripts/ cp ifcfg-eth0 ifcfg-eth0:0 vim ifcfg-eth0:0 ......//省略部分 ONBOOT=yes IPADDR=172.16.1.130 NETMASK=255.255.255.0 ifup eth0:0
b. 调整/proc响应参数
对于DR群集模式来说,由于LVS负载调度器和各节点需要共有VIP地址,应该关闭Linux内核的重定向参数响应
vim /etc/sysctl.conf ....../省略部分信息 net.ipv4.conf.all.send_redirects = 0 net.ipv4.conf.default.send_redirects = 0 net.ipv4.conf.eth0.send_redirects = 0
c. 配置负载分配策略
service ipvsadm stop //清楚原有策略 ipvsadm -A -t 172.16.1.130:80 -s rr ipvsadm -a -t 172.16.1.130:80 -r 172.16.1.131:80 -m -w 1 ipvsadm -a -t 172.16.1.130:80 -r 172.16.1.132:80 -m -w 1 ipvsadm -a -t 172.16.1.130:80 -r 172.16.1.133:80 -m -w 1 ipvsadm -a -t 172.16.1.130:80 -r 172.16.1.134:80 -m -w 1 service ipvsadm save //保存策略
2.配置节点服务器
使用DR模式时,节点服务器也需要配置VIP地址,并调整内核的ARP响应参数以阻止更新VIP的MAC地址,避免发生冲突。a. 配置虚拟IP地址(VIP)
各节点的VI品低值仅用作发送Web响应数据包的源地址,并不需要监听客户机的访问请求(实际的需求是又调度器来做)。因此需要使用虚拟接口lo:0来承载VIP地址,并为本机添加一条路由记录,将访问VIP的数据限制在本地,以避免通信紊乱
cd /etc/sysconfig/network-scripts/ cp ifcfg-lo ifcfg-lo:0 vim ifcfg-lo:0 ......//省略部分 ONBOOT=yes IPADDR=172.16.1.130NETMASK=255.255.255.255 //这里子网掩码必须全为255 ifup lo:0 vim /etc/rc.local .....//省略部分 /sbin/route add -host 172.16.1.130 dev lo:0 //保证每次开机运行 route add -host 172.16.1.130 dev lo:0 //确保在当前生效
b.调整/proc响应参数
为所有节点服务器对访问的回应和宣告做设置
.....//省略部分 net.ipv4.conf.all.arp_ignore = 1 net.ipv4.conf.all.arp_announce = 2 net.ipv4.conf.default.arp_ignore = 1 net.ipv4.conf.default.arp_announce = 2 net.ipv4.conf.lo.arp_ignore = 1 net.ipv4.conf.lo.arp_announce = 2 sysctl -p
c. 把各节点的网页跟目录挂载到NFS上,并开启服务,接下来要做的就是测试了(略)
通过下面命令查看群集节点状态
ipvsadm -ln
相关文章推荐
- LVS负载均衡群集——DR模式
- LVS负载均衡群集2(DR模式)
- LVS负载均衡集群之DR模式
- lvs负载均衡群集搭建(DR)
- 高可用群集lvs DR模式搭建
- lvs负载均衡-DR模式
- Lvs群集(DR/NAT)两种模式配置
- LVS负载均衡群集1(NAT模式)
- lvs群集DR模式搭建
- LVS群集的DR模式配置
- 基于LVS-DR群集模式+keepalived实现高可用
- LVS负载均衡群集之NAT模型&&DR模型
- lvs负载均衡, ipvs的NAT模式,DR模式的实现,
- LVS负载均衡群集--NAT模式
- lvs群集DR模式介绍
- Lvs负载均衡(dr模式)
- LVS负载均衡群集之NAT模型&&DR模型
- lvs负载均衡集群之DR模式
- LVS负载均衡-DR模式
- LVS负载均衡-NET、DR模式配置