linux bonding 负载均衡实现
2010-08-22 16:37
260 查看
关于bonding的实现,linux下:
今天继续写,先说几个概念性的东西,负载均衡(loadbalance)和高可用(HA),还有交换机的trunk。
负载均衡群集
负载均衡群集为企业需求提供了更为实用的系统。如其名称,这种系统使负载可以在多台计算机中尽可能平均地分摊处理。负载可以是需要均衡的应用程序处理负载或网络流量负载。在系统中,每个节点都可以处理一部分负载,并且可以在节点之间动态分配负载,以实现平衡。对于网络流量也是如此。
高可用性群集
高可用性群集的出现是为了使群集的整体服务尽可能可用。如果高可用性群集中的主节点发生了故障,那么这段时间内将由次节点代替它。次节点通常是主节点的镜像,所以当它代替主节点时,它可以完全接管其身份,对用户没有任何影响。
------------------------------------------------------------------
TRUNK是端口汇聚的意思,就是通过配置软件的设置,将2个或多个物理端口组合在一起成为一条逻辑的路径从而增加在交换机和网络节点之间的带宽,将属于这几个端口的带宽合并,给端口提供一个几倍于独立端口的独享的高带宽。Trunk是一种封装技术,它是一条点到点的链路,链路的两端可以都是交换机,也可以是交换机和路由器,还可以是主机和交换机或路由器。基于端口汇聚(Trunk)功能,允许交换机与交换机、交换机与路由器、主机与交换机或路由器之间通过两个或多个端口并行连接同时传输以提供更高带宽、更大吞吐量,大幅度提供整个网络能力。
一般情况下,在没有使用TRUNK时,大家都知道,百兆以太网的双绞线的这种传输介质特性决定在两个互连的普通10/100交换机的带宽仅为100M,如果是采用的全双工模式的话,则传输的最大带宽可以达到最大200M,这样就形成了网络主干和服务器瓶颈。要达到更高的数据传输率,则需要更换传输媒介,使用千兆光纤或升级成为千兆以太网,这样虽能在带宽上能够达到千兆,但成本却非常昂贵(可能连交换机也需要一块换掉),更本不适合低成本的中小企业和学校使用。如果使用TRUNK技术,把四个端口通过捆绑在一起来达到800M带宽,这样可较好的解决了成本和性能的矛盾。
bonding对于服务器来是个比较好的选择,在没有千兆网卡时,
用两三块100兆网卡作 bonding,可大大提高服务器到交换机之间的带宽。
但是需要在交换机上设置连接bonding 网卡的两个口子映射为同一个虚拟接口。
在linux上的实现方法:我测试的系统是centos 5
1.判断内核是否支持:modinfo bonding
ifenslave 默认已经支持。
2. 配置虚拟网卡bond0
可以使用DHCP,也可以配置static IP,最好通过vi编辑配置文件
引用
[root@server1 ~]# cd /etc/sysconfig/network-scripts
[root@server1 network-scripts]# cat ifcfg-bond0
DEVICE=bond0
BOOTPROTO=none
ONBOOT=yes
NETWORK=192.168.0.0
NETMASK=255.255.255.0
IPADDR=192.168.0.10
USERCTL=no
GATEWAY=192.168.0.254
TYPE=Ethernet # 可用不写
3. 修改eth0, eth1配置文件
[root@server1 network-scripts]# ifcfg-eth0
DEVICE=eth0
BOOTPROTO=none
ONBOOT=yes
MASTER=bond0
SLAVE=yes
USERCTL=yes
[root@server1 network-scripts]# ifcfg-eth1
DEVICE=eth1
BOOTPROTO=none
ONBOOT=yes
MASTER=bond0
SLAVE=yes
USERCTL=yes
vi /etc/modprobe.conf
alias bond0 bonding
options bond0 miimon=100 mode=0
重启网络服务 service network restart
miimon=100
miimon 是指多久时间要检查网路一次,单位是ms(毫秒)
这的100,是100ms,即是0.1秒
意思是假设其中有一条网路短线,会在0.1秒內自动切换。
mode 共有七種(0~6)
mode=0:负载均衡模式,但需要"Switch"支援及設定。(增加带宽模式)
需要在交换机上设置2个口映射为一个口,可惜敝人对网络一般,具体交换机配置不太懂。
本文出自 “君子博学而日参省乎己..” 博客,请务必保留此出处http://linuxgp.blog.51cto.com/1708668/381287
今天继续写,先说几个概念性的东西,负载均衡(loadbalance)和高可用(HA),还有交换机的trunk。
负载均衡群集
负载均衡群集为企业需求提供了更为实用的系统。如其名称,这种系统使负载可以在多台计算机中尽可能平均地分摊处理。负载可以是需要均衡的应用程序处理负载或网络流量负载。在系统中,每个节点都可以处理一部分负载,并且可以在节点之间动态分配负载,以实现平衡。对于网络流量也是如此。
高可用性群集
高可用性群集的出现是为了使群集的整体服务尽可能可用。如果高可用性群集中的主节点发生了故障,那么这段时间内将由次节点代替它。次节点通常是主节点的镜像,所以当它代替主节点时,它可以完全接管其身份,对用户没有任何影响。
------------------------------------------------------------------
TRUNK是端口汇聚的意思,就是通过配置软件的设置,将2个或多个物理端口组合在一起成为一条逻辑的路径从而增加在交换机和网络节点之间的带宽,将属于这几个端口的带宽合并,给端口提供一个几倍于独立端口的独享的高带宽。Trunk是一种封装技术,它是一条点到点的链路,链路的两端可以都是交换机,也可以是交换机和路由器,还可以是主机和交换机或路由器。基于端口汇聚(Trunk)功能,允许交换机与交换机、交换机与路由器、主机与交换机或路由器之间通过两个或多个端口并行连接同时传输以提供更高带宽、更大吞吐量,大幅度提供整个网络能力。
一般情况下,在没有使用TRUNK时,大家都知道,百兆以太网的双绞线的这种传输介质特性决定在两个互连的普通10/100交换机的带宽仅为100M,如果是采用的全双工模式的话,则传输的最大带宽可以达到最大200M,这样就形成了网络主干和服务器瓶颈。要达到更高的数据传输率,则需要更换传输媒介,使用千兆光纤或升级成为千兆以太网,这样虽能在带宽上能够达到千兆,但成本却非常昂贵(可能连交换机也需要一块换掉),更本不适合低成本的中小企业和学校使用。如果使用TRUNK技术,把四个端口通过捆绑在一起来达到800M带宽,这样可较好的解决了成本和性能的矛盾。
bonding对于服务器来是个比较好的选择,在没有千兆网卡时,
用两三块100兆网卡作 bonding,可大大提高服务器到交换机之间的带宽。
但是需要在交换机上设置连接bonding 网卡的两个口子映射为同一个虚拟接口。
在linux上的实现方法:我测试的系统是centos 5
1.判断内核是否支持:modinfo bonding
ifenslave 默认已经支持。
2. 配置虚拟网卡bond0
可以使用DHCP,也可以配置static IP,最好通过vi编辑配置文件
引用
[root@server1 ~]# cd /etc/sysconfig/network-scripts
[root@server1 network-scripts]# cat ifcfg-bond0
DEVICE=bond0
BOOTPROTO=none
ONBOOT=yes
NETWORK=192.168.0.0
NETMASK=255.255.255.0
IPADDR=192.168.0.10
USERCTL=no
GATEWAY=192.168.0.254
TYPE=Ethernet # 可用不写
3. 修改eth0, eth1配置文件
[root@server1 network-scripts]# ifcfg-eth0
DEVICE=eth0
BOOTPROTO=none
ONBOOT=yes
MASTER=bond0
SLAVE=yes
USERCTL=yes
[root@server1 network-scripts]# ifcfg-eth1
DEVICE=eth1
BOOTPROTO=none
ONBOOT=yes
MASTER=bond0
SLAVE=yes
USERCTL=yes
vi /etc/modprobe.conf
alias bond0 bonding
options bond0 miimon=100 mode=0
重启网络服务 service network restart
miimon=100
miimon 是指多久时间要检查网路一次,单位是ms(毫秒)
这的100,是100ms,即是0.1秒
意思是假设其中有一条网路短线,会在0.1秒內自动切换。
mode 共有七種(0~6)
mode=0:负载均衡模式,但需要"Switch"支援及設定。(增加带宽模式)
需要在交换机上设置2个口映射为一个口,可惜敝人对网络一般,具体交换机配置不太懂。
本文出自 “君子博学而日参省乎己..” 博客,请务必保留此出处http://linuxgp.blog.51cto.com/1708668/381287
相关文章推荐
- Linux双网卡绑定实现负载均衡(Bonding双网卡绑定)
- [linux网络] 双网卡bonding实现冗余/负载均衡
- Linux平台双网卡绑定技术实现负载均衡(网卡聚合)bonding
- (原)二、CentOS Linux 下配制Nginx实现简单的负载均衡配置
- linux下双网卡绑定——实现:失效保护(冗余)和双网卡负载均衡
- 【Linux运维-集群技术进阶】Nginx+Tomcat实现Web服务器的负载均衡
- Linux Network Load Balance(Linux下实现负载均衡)
- 利用Python 程序实现Linux 网卡 bonding 实现
- linux 负载均衡后双机web文件实时同步的实现
- .linux平台采用Nginx实现负载均衡
- 在Linux下给网卡做bonding(实现双网卡绑定)
- linux 双网卡绑定(bonding)实现负载均衡或故障转移
- Linux的bonding技术中负载均衡详述
- linux下:nginx+tomcat实现负载均衡
- linux 双网卡绑定(bonding)实现负载均衡或故障转移
- linux搭建LVS+keepalive+nginx实现集群高性能负载均衡配置详解
- linux复盘:keepalived+lvs实现高可用负载均衡
- Linux下双网卡绑定技术实现负载均衡和失效保护
- Linux 实现多条ADSL负载均衡
- linux 双网卡绑定(bonding)实现负载均衡或故障转移