浅谈网卡绑定和网络瓶颈
2016-11-03 11:27
183 查看
生产系统有一个很容易让大家忽视的性能瓶颈点网卡。服务器网卡现在基本上普及千兆或者是万兆的光口。但是这个千兆或者万兆的基本单位是bit。直接通过命令查看网卡的速率:
[root@host03 obase]# ethtool bond0
Settings for bond0:
Supported ports: [ ]
Supported link modes: Not reported
Supported pause frame use: No
Supports auto-negotiation: No
Advertised link modes: Not reported
Advertised pause frame use: No
Advertised auto-negotiation: No
Speed: 1000Mb/s
Duplex: Full
Port: Other
PHYAD: 0
Transceiver: internal
Auto-negotiation: off
Link detected: yes
这个bond0是两块网卡做的绑定,绑定的模式是MOD=1,主备模式。多网卡的绑定模式可以自行谷歌。
[root@host03 obase]# cat /etc/sysconfig/network-scripts/ifcfg-bond0
DEVICE=bond0
NAME=bond0
TYPE=Bond
BONDING_MASTER=yes
IPADDR=10.176.246.141
GATEWAY=10.176.246.129
NETMASK=255.255.255.128
ONBOOT=yes
BOOTPROTO=static
BONDING_OPTS="mode=1 miimon=100"
重点请注意速率Speed: 1000Mb/s 单位是 Mb/s,就是说 每秒传输的速度是 1000M bit, 换算成M/S是, 1000 Mb / 1024 大约每秒传输 100MB。理想情况下不考虑磁盘的速度,操作系统上1GB的文件,要传输完,需要10秒。
所以在在实际应用中, 最大的传输是 100 M/S, 这个 M/S 就是实际的传输速度,考虑到一部分的性能损耗, 基本上在90M/S。
在生产系统中,某些局方对这个不敏感,购买的刀片机或者小机,没有标配万兆的光口,就造成一个很尴尬的局面,网卡经常性跑满。造成整个系统的瓶颈。
网络瓶颈优化案例:
一、国网备份改造
15年做某国网的库搬迁,五十几套库全部在一个NBU带库的media机器做备份,然后每天几十套库大量的资源在备份上面,备份经常性不完整,原因就是带库的media机器网卡是千兆的光口,最大传输速度就只有100M/S,每天50T左右的备份数据需要通过网络完成备份。备份主机有大量的排队,并且磁带机7*24异常繁忙,碰到不好的情况,某个重点库需要做全备,可能会拖到白天业务时间。后面迁移后强烈建议备份的media主机全部采用万兆的光口。 这个问题顺利解决! 原来 7 * 24 带库的运行,基本上晚上11点开始五个小时就完成了五十几套库的备份。
二、计费话单传输改造
某省移动的计费系统全部在IBM小机,这批小机都是配置的千兆光口,每天有大量的话单文件需要传输到计费主机进行计算,前期规划人员压根就没有关心到网络的瓶颈。最终的结果就是话单处理性能上不去。最后从项目经费采购一批万兆光口才解决这个问题。
在现在IT基础设施建设以及很高的年代,还在谈论网卡的瓶颈确实有点意思,但是网卡确实是不容忽视的一个瓶颈点。说白了就是一句话千兆每秒的单位是小b, 准确单位是bit,而我们一般考虑的是M/S,单位是大B, 准确单位是 BYTE!
[root@host03 obase]# ethtool bond0
Settings for bond0:
Supported ports: [ ]
Supported link modes: Not reported
Supported pause frame use: No
Supports auto-negotiation: No
Advertised link modes: Not reported
Advertised pause frame use: No
Advertised auto-negotiation: No
Speed: 1000Mb/s
Duplex: Full
Port: Other
PHYAD: 0
Transceiver: internal
Auto-negotiation: off
Link detected: yes
这个bond0是两块网卡做的绑定,绑定的模式是MOD=1,主备模式。多网卡的绑定模式可以自行谷歌。
[root@host03 obase]# cat /etc/sysconfig/network-scripts/ifcfg-bond0
DEVICE=bond0
NAME=bond0
TYPE=Bond
BONDING_MASTER=yes
IPADDR=10.176.246.141
GATEWAY=10.176.246.129
NETMASK=255.255.255.128
ONBOOT=yes
BOOTPROTO=static
BONDING_OPTS="mode=1 miimon=100"
重点请注意速率Speed: 1000Mb/s 单位是 Mb/s,就是说 每秒传输的速度是 1000M bit, 换算成M/S是, 1000 Mb / 1024 大约每秒传输 100MB。理想情况下不考虑磁盘的速度,操作系统上1GB的文件,要传输完,需要10秒。
所以在在实际应用中, 最大的传输是 100 M/S, 这个 M/S 就是实际的传输速度,考虑到一部分的性能损耗, 基本上在90M/S。
在生产系统中,某些局方对这个不敏感,购买的刀片机或者小机,没有标配万兆的光口,就造成一个很尴尬的局面,网卡经常性跑满。造成整个系统的瓶颈。
网络瓶颈优化案例:
一、国网备份改造
15年做某国网的库搬迁,五十几套库全部在一个NBU带库的media机器做备份,然后每天几十套库大量的资源在备份上面,备份经常性不完整,原因就是带库的media机器网卡是千兆的光口,最大传输速度就只有100M/S,每天50T左右的备份数据需要通过网络完成备份。备份主机有大量的排队,并且磁带机7*24异常繁忙,碰到不好的情况,某个重点库需要做全备,可能会拖到白天业务时间。后面迁移后强烈建议备份的media主机全部采用万兆的光口。 这个问题顺利解决! 原来 7 * 24 带库的运行,基本上晚上11点开始五个小时就完成了五十几套库的备份。
二、计费话单传输改造
某省移动的计费系统全部在IBM小机,这批小机都是配置的千兆光口,每天有大量的话单文件需要传输到计费主机进行计算,前期规划人员压根就没有关心到网络的瓶颈。最终的结果就是话单处理性能上不去。最后从项目经费采购一批万兆光口才解决这个问题。
在现在IT基础设施建设以及很高的年代,还在谈论网卡的瓶颈确实有点意思,但是网卡确实是不容忽视的一个瓶颈点。说白了就是一句话千兆每秒的单位是小b, 准确单位是bit,而我们一般考虑的是M/S,单位是大B, 准确单位是 BYTE!
相关文章推荐
- linux 双网卡绑定网络设置方法
- 【网络】浅谈宽带中网速的含义以及网卡的速度
- 解决带宽瓶颈 双网卡绑定带宽倍增
- 网卡绑定导致 ESXi 中的虚机网络连接时断时续的解析和处理
- linux 双网卡绑定网络设置方法
- CentOS 网络基础:(5)设置多网卡绑定单IP
- 提升网络可靠性的双网卡绑定7种模式
- 【网络开发】组播的时候到底该如何绑定网卡
- 在windows xp下,一块网卡绑定多个ip,设置多个网络连接
- xp系统下一块网卡绑定多个ip设置多个网络连接的方法
- 网络服务高可用及负载均衡——多网卡绑定同一IP
- 企业中网络的高可用性之双网卡的绑定
- Linux网络管理之网卡别名及网卡绑定配置
- 绑定多网卡 让网络带宽双倍增加
- 在windows xp下,一块网卡绑定多个ip,设置多个网络连接
- Linux中网卡绑定bonding以及网络成组teaming技术学习
- 调优之网络调优-网卡绑定
- 管理聚合链路和桥接网络(多网卡绑定,redhat liunx 7.0) 基础知识
- 查找本机网卡MAC地址的函数。网络上资料代码矫正
- [转载]用命令行(devcon)重启网卡和网络连接