您的位置:首页 > 运维架构 > Linux

拥堵控制算法-Linux BBR算法优化了哪里?

2016-12-16 10:11 246 查看
刚读书时候接触,根本分不清流量控制和堵塞控制,就是因为“丢包率”在干扰我的思考。“丢包率”区分不了是错误引起的丢包还是堵塞引起的丢包。

首先能确定的是,拥堵控制有特定的算法就是早期BIC到后来的CUBIC,很好都是基于“慢启动”“快速失败”来设计的。
然后这个算法用到了一个很奇怪的参数,那就是“丢包率”。而我们知道引起丢包的原因可以是各种突发引起的发送失败丢包,还可以是拥堵丢包。而后者是我们所期待的。但是实际网络中2种情况都存在,这影响了拥堵控制算法的实现。
再之,用“丢包率”在探测网络会导致延迟增大,因为你为了探测丢包率的峰值会去填满发送缓冲区,而这个缓存区是网络延迟增大的原因祸水。

而BBR算法中放弃了“丢包率”这个参数,但是算法的设计思想仍然采用“慢启动”“快速失败”,取而代之的是用了“网络带宽”和“实际网络延迟(在延迟空的情况下)”。
我们在初始化网络的时候,需要测量两个值“最大网络带宽”和“最小的延迟”,这两个值的乘积就是网络的实际最大容量了。如果延迟变大了那就是网络容量过饱和了,如果带宽没有趋于稳定,而是在不断增加或者说存在增加的空间,那就证明还未达到网络的最大容量。

有了这两个初始化参数,之后我们把获得的值和初始值做对比就可以知道网络现在的状态,并反馈给发送机从而达到堵塞控制。

使用了这个两个参数使得拥堵控制时宽带和延迟不再耦合了丢包率。这样就减少了高延迟的发送次数。
如果整个网络都采用BBR算法,是否会给网络带来一次新的优化呢?期待会吧。
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: