首页> 中国专利> 高带宽延时网络中基于带宽估计的显式拥塞控制方法

高带宽延时网络中基于带宽估计的显式拥塞控制方法

摘要

本发明公开了一种高带宽延时网络中基于带宽估计的显式拥塞控制方法,包括以下步骤:TCP发送方通过观察ACK接收间隔计算网络当前可用带宽,路由器通过分组头ECN 2bits信息反馈网络负载,发送方通过显式反馈信息和估计的可用带宽值进行网络状态判断,并根据判断结果调整拥塞控制机制。本发明通过结合端到端反馈和路由器显式反馈来进行拥塞判断,即在粗粒度的显式反馈基础上利用带宽估计值给出较为精细的拥塞信息,从而使算法在降低显式反馈开销、提高协议普及性的同时保证了较高程度的拥塞反馈精度,提高了协议的高效性和收敛速度。

著录项

  • 公开/公告号CN101964755A

    专利类型发明专利

  • 公开/公告日2011-02-02

    原文格式PDF

  • 申请/专利权人 中南大学;

    申请/专利号CN201010530346.4

  • 发明设计人 王建新;陈洁;王伟平;

    申请日2010-11-03

  • 分类号H04L12/56(20060101);

  • 代理机构43114 长沙市融智专利事务所;

  • 代理人黄美成

  • 地址 410083 湖南省长沙市岳麓区麓山南路932号

  • 入库时间 2023-12-18 01:39:26

法律信息

  • 法律状态公告日

    法律状态信息

    法律状态

  • 2019-10-25

    未缴年费专利权终止 IPC(主分类):H04L12/56 授权公告日:20120307 终止日期:20181103 申请日:20101103

    专利权的终止

  • 2015-05-13

    专利权的转移 IPC(主分类):H04L12/56 变更前: 变更后: 登记生效日:20150422 申请日:20101103

    专利申请权、专利权的转移

  • 2012-03-07

    授权

    授权

  • 2011-03-23

    实质审查的生效 IPC(主分类):H04L12/56 申请日:20101103

    实质审查的生效

  • 2011-02-02

    公开

    公开

说明书

技术领域

本发明属于网络通信技术领域,涉及一种尾高带宽延时网络中基于带宽估计的显式拥塞控制方法。

技术背景

与传统网络不同,高带宽延时网络具有较大的网络带宽和往返时延,这使得传统TCP丢包后减半的拥塞窗口需要较长的时间才能恢复到满带宽利用率,这种保守的加性增加和激进的乘性减少窗口管理策略使得TCP吞吐量严重下降;且RTT(RTT(Round-Trip Time):往返时延)差异所带来的吞吐量不公平性在高带宽延时的影响下变得更加严重。

高带宽延时网络改进协议的焦点都集中在窗口管理机制上,可以大致将其划分为两类:基于端到端调控的协议和基于显式反馈的协议。基于端到端调控的协议通常采用ACK(英文缩写:ACK(ACKnowledge Character)中文译名:确认字符  分类:传输与接入,解释:在数据通信传输中,接收站发给发送站的一种传输控制字符。它表示确认发来的数据已经接受无误。ACK:TCP数据包首部中的确认标志,对已接收到的TCP报文进行确认。)携带回来的丢包或/和延时信息作为拥塞指示。其中的典型协议有HSTCP,CUBIC,Fast。这类协议对于端到端反馈信息的依赖性使其只能在发生拥塞后做出调控,协议本身的激进性造成了网络中分组丢失和缓存队列增加的现象,无法在获得高效性和公平性的同时保持低排队队长和接近于零的丢包率。基于显式反馈的协议能够利用路由器检测自身的拥塞状态,直接发送反馈信息给发送端以调整发送速率,避免了以往丢包、延时反馈所产生的反映不及时和拥塞误判等问题。但是,在提高了网络拥塞判断有效性的同时,过多的让中间节点参与到拥塞检测过程中也势必会给整个网络带来更多的负载和更大的复杂度开销。

一些主动式显式反馈协议,如XCP、RCP,将公平控制和拥塞控制放在了路由器内部,路由器直接将计算好的发送速率返回给源端。这些协议需要对传统的拥塞控制机制做出较大规模的调整,如改变IP包头的组成形式和数据分段的规则(XCP和RCP分别需要扩展128bits和96bits的分组头),这使其很难配置到当今的互联网上,且路由节点的复杂运算也降低了协议的实用性。

为了降低部署难度,VCP协议通过IP头已有ECN (Explicit Congestion Notification:显式拥塞通告)位的2比特传递拥塞信息给发送端,发送端根据反馈信息相应地调节拥塞窗口。该协议较XCP更具实用性,且达到了近似于XCP的性能。但2bits反馈最多只能提供四种程度的拥塞状态,反馈信息的不足使得VCP需要为传输速率的增长幅度设置上限值以防止潜在的突发现象,从而造成了过分保守的提速周期,如连接启动阶段较慢的吞吐量增长以及较慢的公平共享收敛速度。针对反馈精度造成的局限性,MLCP协议分析了反馈信息数量和性能提升之间的关系,认为窗口乘性增长(MI)阶段使用3-bit显式反馈足以使协议在效率收敛速度上接近最优性能,最后通过增加反馈信息位数至4-bit达到了接近最优的性能。但MLCP加大了反馈开销,需要修改IP分组头,一定程度上降低了协议的普及性。此后提出的BMCC协议使用了IP分组已有ECN位和IP标识(IPid)域传递拥塞信息,获得了16-bit精度反馈的拥塞水平,在无需扩展分组头部的情况下达到了接近最优的性能,但它需要网络中间路由器内的复杂计算,且对分组IPid域的利用使其只兼容IPv4,大大影响了协议的实用性。

可见,任何显式反馈协议都需要在反馈信息数量和协议实用性之间进行权衡。现有的高速协议通过增加显式反馈信息来提高协议性能,但同时加大了反馈开销,使其普及性大大降低。然而,要提高协议的普及性,就必须减少显式反馈信息的数目,尽量不改动IP分组结构。因此,如何在不增加显式反馈信息的基础上保证反馈精度,提高协议收敛速度,是一个亟待解决的问题。

发明内容

本发明的目的是提出一种高带宽延时网络中基于带宽估计的显式拥塞控制方法,该高带宽延时网络中基于带宽估计的显式拥塞控制方法能使网络通信能达到高带宽利用率、低排队延时、可忽略的丢包率及合理公平性。

本发明的技术解决方案如下:

一种高带宽延时网络中基于带宽估计的显式拥塞控制方法:通过路由器显式反馈信息获取网络负载状况,当网络负载没有超过可用带宽时,根据端到端往返传输延时RTT变化估计网络可用带宽,再调整拥塞窗口大小以适应当前网络拥塞状态;当网络处于过载状态下,减小拥塞窗口以缓解拥塞。

通过发送方获取的ACK中的ECN位判断网络负载状况:

ECN位为01表示网络处于轻负载状态;

ECN位为10表示网络处于高负载状态;

ECN位为11表示网络处于过载状态。

采用下式估计网络可用带宽:

>Bwi=δi*RTT*Bwi-1+Liδi*RTT+(ti-ti-1);>

其中,Bwi为第i个ACK在ti时间到达时估计的带宽值,ti是当前ACK到达的时间,ti-1是前一个ACK到达的时间,Li是第i个ACK确认的分组大小,RTT为ti时刻估计的端到端往返延时,δi为比例因子。

当显式反馈信息显示网络处于轻负载时,δi因子采用动态调节方法,计算方法如下:

>δi=Bwi-1(cwndi-1×seg_size)/RTT;>

其中,cwndi-1为调整前拥塞窗口大小,seg_size为分组大小。

拥塞窗口大小的初始值为1,之后源端通过拥塞控制算法调整该值大小。

当显式反馈信息显示网络处于轻负载状态时,发送方采用窗口突然增长方法,即使用当前可用带宽估计值计算新的拥塞窗口大小,使TCP流能够快速获取带宽,计算方法如下:

>cwndi=MAX[(cwndi-1+ϵ),(RTTmin×Bwiseg_size)];>

其中,cwndi-1为调整前拥塞窗口大小,ε为窗口乘性增长因子,RTTmin是发送方观察到的最小往返延时RTT值。

ε取值依据文献“Xia Y,Subramanian L,Stoica I,Kalyanaraman S.One More Bit is Enough.ACM SIGCOMM Computer Communication Review,2005,35(4),37~48.”中给出的适合网络高负载的乘性固定增长因子0.0625。

当显式反馈信息显示网络处于重负载时,发送方先使用可用带宽估计值估算带宽占用比率Li

其中,Ri=(cwndi-1×seg_size)/RTTmin,代表发送方的发送速率,cwndi-1为调整前拥塞窗口大小,seg_size为分组大小;

若带宽占用比例Li小于阈值Lthresh,发送方采用快速的加性增长方法计算新的拥塞窗口:

cwndi=cwndi-1+α/cwndi-1

其中,α为加性增长因子;

若带宽占用比例Li大于或等于阈值Lthresh,发送方采用缓慢的反比例增长方法计算新的拥塞窗口:

cwndi=cwndi-1+α/(cwndi-1)3/2

阈值Lthresh设置为经验值0.95,α取值5,从而使拥塞窗口获得较快的收敛速度。

当显式反馈信息显示网络处于过载状态时,发送方采用乘性减少方法计算新的拥塞窗口:

cwndi=cwndi-1×β;

其中,β为乘性增长因子。

β取值0.875。

本发明的有益效果:

本发明通过结合端到端反馈和路由器显式反馈来进行拥塞判断,即在粗粒度的显式反馈基础上利用带宽估计值给出较为精细的拥塞信息,从而使算法在降低显式反馈开销、提高协议普及性的同时保证了较高程度的拥塞反馈精度,提高了协议的高效性和收敛速度。估计出的网络拥塞状态用于控制TCP响应行为,较为精确的拥塞信息能够使TCP达到高带宽利用率、低排队延时、可忽略的丢包率及合理公平性。

本发明的技术效果在于:端到端可用带宽估计值为每种粗粒度的显式反馈信息提供了更为细致的网络状态信息,而显式反馈信息的采用弥补了端到端反馈信息的不准确性。在低负载阶段,协议的主要目是快速收敛于高利用率。由于网络过载后才能得到较为有效的估计带宽信息,连接初始时较小的拥塞窗口会使得带宽估计值低于当前可用带宽。根据此时估计带宽值计算拥塞窗口大小,可以将发送速率调整到网络可允许的程度内,在提高窗口增长速率的同时又不会过于激进。虽然端到端反馈的不准确性容易造成带宽估计值偏高,但当ECN反馈显示网络进入高负载阶段,发送端会立刻采用较为保守的窗口增长算法,从而避免了端到端估计不准确性的影响。当网络进入高负载阶段后,协议主要目标是收敛于公平共享带宽。稳定状态下较为准确的带宽估计值能够为发送方提供较为准确的带宽占用比率,从而使TCP发送方可以根据带宽占用比率的大小在快速的窗口增长算法AI和缓慢平滑的窗口增长算法II之间切换。当网络远离过载时,即带宽占用比率小于阈值时,窗口采用较快的增长算法AI,从而加快对剩余带宽的利用;当网络接近过载时,即带宽占用比率超过阈值时,窗口采用缓慢的II算法增加速率变化平滑性,避免网络振荡。由于本发明实施中仅采用IP分组头已有的ECN位进行显式反馈,故不需要修改IP分组结构,具有较好的可扩展性,较容易部署到实际网络中。通过采用ECN显式反馈和带宽估计方法,本发明方法能够适应于高带宽延时网络环境的传输特性,在获得高利用率和合理公平性的同时,保持较低的缓存队列长度和可忽略的丢包率,且具有快速的公平收敛速度。实施例中的仿真实验证实了前述的结论。

附图说明

图1为本发明的流程图。

图2为本发明的模拟仿真环境。

图3为本发明低负载算法分析效果图,其中本发明的方法命名为VCP-BE。图3(a)为不同方法拥塞窗口变化情况;图3(b)为不同流数下各方法链路利用率。

图4为本发明高负载算法分析效果图,其中本发明的方法命名为VCP-BE。图4(a)为本方法公平收敛性情况,图4(b)为不同方法公平收敛速度比较。

图5为本发明在不同瓶颈带宽下性能分析效果图,其中本发明的方法命名为VCP-BE。图5(a)为带宽利用率效果图;图5(b)为队列长度效果图;图5(c)为丢包率效果图。

图6为本发明在不同往返延时下性能分析效果图,其中本发明的方法命名为VCP-BE。图6(a)为带宽利用率效果图;图6(b)为队列长度效果图;图6(c)为丢包率效果图。

图7为本发明在不同文件传输协议(FTP)流数目下性能分析效果图,其中本发明命名为VCP-BE。图7(a)为带宽利用率效果图;图7(b)为队列长度效果图;图7(c)为丢包率效果图。

图8为本发明在不同Web短流到达率下性能分析效果图,其中本发明的方法命名为VCP-BE。图8(a)为带宽利用率效果图;图8(b)为队列长度效果图;图8(c)为丢包率效果图。

图9为本发明公平性分析效果图,其中本发明命名为VCP-BE。

具体实施方式

以下将结合图和具体实施过程对本发明做进一步详细说明。

实施例1

参见图1,图1为本发明的流程图。过程如下:TCP建立连接后,观察到达ACK的ECN位(ECN标记方法采用文献“Xia Y,Subramanian L,Stoica I,Kalyanaraman S.One More Bit isEnough.ACM SIGCOMM Computer Communication Review,2005,35(4),37~48.”中的路由器端算法)。若ECN为01,认为此时网络处于低负载状态,则进入窗口突然增长阶段,使用端到端带宽估计值来计算拥塞窗口大小。若ECN为10,认为此时网络处于高负载状态,则根据端到端带宽估计值判断带宽占用比率是否超过阈值(阈值取经验值0.95)。若没有超过阈值,认为此时离过载状态相对较远,采用快速的窗口加性增长(AI)算法;若超过阈值,认为此时接近过载,采用窗口反比例增长(II)算法。若ECN为11,认为网络进入过载状态,则采用窗口乘性减少(MD)算法。若ECN为00,表示不使用显式反馈机制,则采用传统的窗口管理方式。

本发明中采用可用带宽估计算法来计算低负载阶段窗口大小以及高负载阶段AI算法和II算法的切换点。具体地,由TCP发送方根据相邻ACK间的时间间隔来计算带宽估计值,计算方法如下:

>Bwi=δi*RTT*Bwi-1+Liδi*RTT+(ti-ti-1)>

δi越大,稳定状态下带宽估计值的准确性较越高,但同时对动态网络的响应性降低,δi越小,带宽估计值响应性越高,但准确性降低,容易受到分组聚类和ACK压缩的影响。当网络处于低负载时,TCP处于窗口快速增长阶段,其动态性需要带宽估计算法在初始阶段具有较好的响应性,当网络接近于高负载时,需要带宽估计算法具有较好的准确性。因此,采用自适应的δi计算方法,如下:

>δi=Bwi-1(cwndi-1×seg_size)/RTT;>

当传输刚开始时,较小的带宽估计值使得窗口采用乘性增长(MI)方式,此时吞吐量超过估计带宽,则上式中δi会小于1,使算法具有较快的响应性。随着估计带宽和吞吐量之间差距的减小,δi越来越大,使得采样值在接近高负载时具有较好的平滑性和准确性。

当网络处于高负载阶段,此时网络逐渐稳定,需要带宽估计算法具有较好的准确性,则此阶段δi取较大的固定值1。

综上所述,采用本发明方法可以在不扩展IP分组结构的同时,提高拥塞反馈精度,从而使得协议的效率收敛速度和公平收敛速度得到大幅度提高。

利用NS2.28网络仿真平台,在VCP的基础上实施本发明方法,并对其性能进行了测试。NS网络模拟器是一种通用的多协议网络模拟软件,它是互联网上公开发布的(网址:http://www.isi.edu/nsnam/ns),目前已被网络研究者广泛使用。NS2.28是它的版本之一。

本实例中,采用图2所示的拓扑结构测试本发明方法的性能。如图2所示,瓶颈链路带宽B为其他链路带宽的一半,缓存大小设置为带宽延时乘积。瓶颈链路延时占整个往返延时RTT的40%,其余链路占5%。所有协议流的分组大小均设为1000bytes,默认瓶颈带宽为150MB,RTT为80ms,正反向分别引入5条FTP流。TCP SACK采用RED队列且开启ECN选项。所有仿真至少运行100s,忽略仿真时间前5%的统计数据。本方法中相关参数设置如下:α=5,ε=0.0625,β=0.875,Lthresh设置为经验值0.95。

1、效率收敛速度

低负载阶段算法的主要目标是使协议流快速收敛于高带宽利用状态,首先评估协议在低负载阶段的效率收敛速度。图3(a)给出了本发明方法及VCP、MLCP、SACK单条协议流在传输开始时拥塞窗口变化情况。可以看出,本方法显著提高了低负载阶段拥塞窗口的增长速度,仅用2.5s就达到了高负载阶段,与采用多位数显式反馈的MLCP取得了相似的性能。为了进一步评估网络拥塞下的低负载算法性能,图3(b)给出了不同协议流数目下VCP、MLCP、SACK及本方法在连接开始前3s的链路利用率情况。从图中可见,本方法在不同的拥塞水平下都达到了较高的链路利用率,能够快速获取对带宽的利用,与采用4bits反馈信息的MLCP性能相近,且在流数较小时具有更高的利用率。并且,本方法无需扩展IP分组结构,比MLCP具有更好的普及性。

2、公平收敛速度

高负载阶段算法主要目标是使协议流收敛于公平共享带宽,其公平收敛速度是主要的考察点。在高带宽延时网络中,高带宽特性会使得协议收敛时间变得更长,且公平收敛时间通常随着带宽的增大而加长。为了评估带宽大小对收敛时间带来的影响,图4给出了不同瓶颈带宽下VCP、MLCP及本方法的公平收敛时间。仿真实验中引入两条协议流,第二条流在第一条流达到稳定状态后开始传输,瓶颈带宽从100Mbps变化到1Gbps,测试两条流达到公平共享带宽所经历的时间。如图所示,随着瓶颈带宽的增大,本方法收敛时间远小于MLCP和VCP。实验结果表明,本方法显著提高了高带宽延时网络环境中的公平收敛速度。

3、高效性

除了以上给出的局部性能测试,为了全面比较协议的高效性,我们进一步测试了广泛网络场景下本方法的链路利用率、缓存占有率和丢包率情况。网络场景包括在[100Kbps,5Gbps]范围内变化的瓶颈链路带宽,在[1ms,2000ms]范围内变化的往返延时RTT,在[1,1000]范围内变化的FTP长期流数目,在[1/s,2000/s]范围内变化的Web短期流到达速率。

(1)图5给出了不同瓶颈带宽对各方法性能的影响。如图所示,本方法在整个瓶颈带宽取值区间都取得了较高的利用率(≥90%),同时保持了较低的队列长度(≤10%)和可忽略的丢包率(≈0)。本方法由于细分拥塞状态比同样使用ECN进行反馈的VCP具有更优的性能,达到了与采用4bits反馈的MLCP同样的性能。

(2)图6给出了不同反馈延时对各方法性能的影响。如图所示,本方法在各种RTT下都能保持较高的链路利用率(≥85%),同时保持较低的队列长度(≤10%)和较小的丢包率(≤1%)。

(3)图7给出了长期流数目对各方法性能的影响。如图所示,本方法在不同流数下都取得了较高的利用率(≥90%),同时保持了较低的队列长度(≤2%)和较小的丢包率(≤2%)。

(4)为了研究网络状态变化和突发性对协议性能造成的影响,我们在图2所示网络中加入了Web流量,其到达速率服从泊松分布,平均到达率从1/s变化到2000/s。传输数据大小服从帕累托分布,平均大小为30个分组。图8给出了各方法在突发流影响下的性能表现。可以看出本方法与MLCP在各种速率的突发流影响下都能达到较高的利用率(≥90%),同时保持较低的排队队长(≤1%)和接近于零的丢包率。

4、公平性

公平性是TCP协议的重要性能,具有不同RTT的TCP必须公平占用带宽。图9比较了本方法和其他方法的公平性指数,瓶颈带宽设置为100Mb。各方向的第j条流的RTT通过公式rttj=40+j×4×Δms来设置,对于j=1,..,5,Δ为非瓶颈链路的单向传输延时。仿真实验中,Δ从2ms变化到10ms。即当Δ为2ms时,RTT处在范围[40ms,120ms]中;当Δ为10ms时,RTT处在范围[40ms,200ms]中。从图9中可以看出,对于各种RTT范围变化,本方法、VCP和MLCP都能达到较高的Jain公平性指数(≥0.9),而SACK在RTT不同的情况下具有较差的公平性。

从以上实验数据看来,本发明方法在以上几个方面的性能都非常理想,具有比其他方法更优的性能。这是因为本方法通过带宽估计的应用弥补了ECN反馈信息精度不足的缺点,同时准确的ECN反馈又减小了端到端带宽估计偏高估计的影响。在此基础上,本发明不仅保持了高利用率、合理公平性、低持续缓存队列以及可忽略的丢包率,还加快了效率收敛速度以及公平收敛速度。由于本方法仅使用了IP分组已有ECN位进行显式反馈,使其较容易实施到现有的网络中,保证了协议的普及性。

去获取专利,查看全文>

相似文献

  • 专利
  • 中文文献
  • 外文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号