linux复盘:keepalived+lvs实现高可用负载均衡
2018-02-06 00:16
381 查看
完整的架构需要两台服务器(角色为dir),分别安装Keepalived工具,目的是实现高可用,但Keepalived本身也有负载均衡功能,所以本次使用可以只安装一台Keepalived。
Keepalived内置了ipvsadm的功能,所以不需要安装ipvsadm包,也不用编写和执行lvs_dr脚本。
三台机器:
这里并没有两台keepalived来搞高可用,lvs与keepalived可内置lvs功能:
IP:192.168.8.133;安装Keepalived
机器1:
IP:192.168.8.134
机器2:
IP:192.168.8.135
VIP:192.168.8.100
配置完成,在浏览器访问VIP:192.168.8.100,刷新网页,访问结果由real1、real2交替回复
如果只使用LVS,那么当LVS架构中某个机器,仍然会继续向其发送请求,添加Keepalived后会自动将宕机的机器清除出rs列表。
Keepalived内置了ipvsadm的功能,所以不需要安装ipvsadm包,也不用编写和执行lvs_dr脚本。
三台机器:
这里并没有两台keepalived来搞高可用,lvs与keepalived可内置lvs功能:
IP:192.168.8.133;安装Keepalived
机器1:
IP:192.168.8.134
机器2:
IP:192.168.8.135
VIP:192.168.8.100
开始搭建配置文件
yum install keepalived 自定义Keepalived配置文件: vim /etc/keepalived/keepalived.conf vrrp_instance VI_1 { #备用服务器上为 BACKUP state MASTER #绑定vip的网卡为ens33,你的网卡和阿铭的可能不一样,这里需要你改一下 interface ens33 virtual_router_id 51 #备用服务器上为90 priority 100 advert_int 1 authentication { auth_type PASS auth_pass 123456 } virtual_ipaddress { 192.168.8.100 } } virtual_server 192.168.8.100 80 { #(每隔10秒查询realserver状态) delay_loop 10 #(lvs 算法) lb_algo wlc #算法(DR模式) lb_kind DR #(同一IP的连接60秒内被分配到同一台realserver) persistence_timeout 0 #(用TCP协议检查realserver状态) protocol TCP real_server 192.168.8.134 80 { #(权重) weight 100 TCP_CHECK { #(10秒无响应超时) connect_timeout 10 nb_get_retry 3 delay_before_retry 3 connect_port 80 } } real_server 192.168.8.135 80 { weight 100 TCP_CHECK { connect_timeout 10 nb_get_retry 3 delay_before_retry 3 connect_port 80 } } } 启动Keepalived服务: [root@director ~]# systemctl start keepalived 查看网卡信息: ip add 2: ens33: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000 link/ether 00:0c:29:be:0e:17 brd ff:ff:ff:ff:ff:ff inet 192.168.8.133/24 brd 192.168.8.255 scope global ens33 valid_lft forever preferred_lft forever inet 192.168.8.100/32 scope global ens33 valid_lft forever preferred_lft forever inet6 fe80::592f:39cc:1b50:1d07/64 scope link valid_lft forever preferred_lft forever #虚拟IP(VIP)在ens33网卡上 查看ipvsadm规则: [root@director ~]# ipvsadm -ln IP Virtual Server version 1.2.1 (size=4096) Prot LocalAddress:Port Scheduler Flags -> RemoteAddress:Port Forward Weight ActiveConn InActConn TCP 192.168.8.100:80 wlc -> 192.168.8.134:80 Route 100 0 0 -> 192.168.8.135:80 Route 100 0 0
两台机器134和135上执行此脚本
配置路由转发脚本: vim /usr/local/sbin/lvs_rs.sh #/bin/bash vip=192.168.8.100 #把vip绑定在lo上,是为了实现rs直接把结果返回给客户端 ifconfig lo:0 $vip broadcast $vip netmask 255.255.255.255 up route add -host $vip lo:0 #以下操作为更改arp内核参数,目的是为了让rs顺利发送mac地址给客户端 #参考文档www.cnblogs.com/lgfeng/archive/2012/10/16/2726308.html echo "1" >/proc/sys/net/ipv4/conf/lo/arp_ignore echo "2" >/proc/sys/net/ipv4/conf/lo/arp_announce echo "1" >/proc/sys/net/ipv4/conf/all/arp_ignore echo "2" >/proc/sys/net/ipv4/conf/all/arp_announce
配置完成,在浏览器访问VIP:192.168.8.100,刷新网页,访问结果由real1、real2交替回复
Keepalived+LVS作用
Keepalived搭建高可用保证LVS中机器宕机后服务器不瘫痪如果只使用LVS,那么当LVS架构中某个机器,仍然会继续向其发送请求,添加Keepalived后会自动将宕机的机器清除出rs列表。
相关文章推荐
- Linux下部署lvs+keepalived实现高可用负载均衡
- 转载--CentOS 6.3下部署LVS(NAT)+keepalived实现高性能高可用负载均衡
- 利用LVS+Keepalived DR 实现高性能高可用负载均衡
- keepalived实现lvs高可用并负载均衡lamp
- LVS基础及LVS+Keepalived实现双主高可用负载均衡
- Lvs+keepalived 实现高可用负载均衡文档
- LVS+Keepalived实现高可用负载均衡
- RHEL 5.4下部署LVS(DR)+keepalived实现高性能高可用负载均衡
- keepalived+lvs实现高可用的负载均衡
- 通过LVS(直接路由方式)+Keepalived实现高可用负载均衡方案
- RHEL 5.4下部署LVS(DR)+keepalived实现高性能高可用负载均衡
- lvs+keepalived实现高可用的负载均衡
- LVS+Keepalived实现高可用负载均衡
- LVS+Keepalived实现高可用负载均衡
- RHEL 5.4下部署LVS(DR)+keepalived实现高性能高可用负载均衡
- linux下lvs+Keepalived实现高可用服务器集群(NAT模式)
- CentOS 6.3下部署LVS(NAT)+keepalived实现高性能高可用负载均衡
- VM虚拟机上 实现CentOS 6.X下部署LVS(NAT)+keepalived实现高性能高可用负载均衡
- LVS+Keepalived实现高可用负载均衡
- CentOS 6.3下部署LVS(NAT)+keepalived实现高性能高可用负载均衡【转】