首页> 中国专利> 基于可用带宽预测的组播拥塞控制方法

基于可用带宽预测的组播拥塞控制方法

摘要

本发明公开了一种基于可用带宽预测的组播拥塞控制方法,其目的是解决现有的组播拥塞控制方法对拥塞调控滞后的技术问题。该方法采用分层组播机制,选用指数分层策略,即由低层到高层的最小速率累积之和满足指数递增规律。源端通过调整数据包的发送间隔,在不引入额外数据包的条件下测得从源端到各接收端的可用带宽,并使用最小二乘支持向量机预测下一时刻的可用带宽,根据预测结果提前对流量进行调节,从而实现了对组播拥塞的有效控制。

著录项

法律信息

  • 法律状态公告日

    法律状态信息

    法律状态

  • 2019-04-05

    未缴年费专利权终止 IPC(主分类):H04L12/811 授权公告日:20140129 终止日期:20180414 申请日:20110414

    专利权的终止

  • 2014-01-29

    授权

    授权

  • 2011-09-07

    实质审查的生效 IPC(主分类):H04L12/56 申请日:20110414

    实质审查的生效

  • 2011-07-27

    公开

    公开

说明书

技术领域

本发明涉及一种组播拥塞控制方法,特别是一种基于可用带宽预测的组播拥塞控制方法。

背景技术

文献“Kwon G I,Byers J W.Smooth multirate multicast congestion control.IEEEINFOCOM March 2003,San Francisco,USA,IEEE Communications Society,2003:1022-1032”公开了一种组播拥塞控制方法,即SMCC(Smooth Multicast Congestion Control)控制方法。该方法将单速率机制TFMCC(TCP Friendly Multicast Congestion Control)引入到分层组播中,而TFMCC基于TCP吞吐量公式(1)计算期望速率:

Rreq(p,RTT,s)=sRTT(2p3+123p8)p(1+32p2)---(1)

式中,s是包的大小,p为丢包率,RTT是往返时延。对期望速率的计算在接收端完成,因此各接收端需估计参数p和RTT。SMCC容易引发拥塞,主要原因有以下两点:

1、TCP吞吐量公式的假设条件较难满足,且通过式(1)计算得到的并非各接收端的实际接收能力,即源端到接收端的可用带宽。

2、为了避免反馈内爆,该方法中只有部分接收端代表(以下简称CLR)定期向源端发送反馈。非CLR的接收端由于不发送反馈,故较难准确估计RTT。因此各接收端得到的期望速率与其实际接收能力存在较大偏差。仿真表明,该速率常常超过可用带宽,甚至超过链路带宽,从而导致拥塞发生。

3、文献公开的方法存在“拥塞调控滞后”的现象,由于方法均估计的是各接收端过去的接收能力,而根据过去的接收能力去调节流量会出现调控滞后的问题;并且组播一般以“轮”为周期调节速率,而“轮”的周期一般为多个RTT,以致加剧了拥塞调控的滞后性。

发明内容

为了克服现有的组播拥塞控制方法对拥塞调控滞后的问题,本发明提供一种基于可用带宽预测的组播拥塞控制方法。该方法采用分层组播机制,选用指数分层策略,即由低层到高层的最小速率累积之和满足指数递增规律。源端通过调整数据包的发送间隔,在不引入额外数据包的条件下测得从源端到各接收端的可用带宽,并使用最小二乘支持向量机预测下一时刻的可用带宽,根据预测结果提前对流量进行调节,从而实现对组播拥塞的有效控制。

本发明解决其技术问题所采用的技术方案是:一种基于可用带宽预测的组播拥塞控制方法,其特点是包括下述步骤:

步骤1:源端启动第i轮,并标记一个数据包作为本轮开始的标志,其中i=1,2,3,…。

步骤2:源端根据各层最低速率调整各层数据包的发送间隔,使数据流的速率呈指数递减,各层数据流速率覆盖范围是该层最大速率的1.5倍至该层最小速率的0.5倍。

步骤3:源端以恒定速率Ri继续发送数据。

步骤4:各接收端收到每轮的开始标志后,记录收到的数据包的时间,根据时延信息计算各自的可用带宽ai

步骤5:预测下一轮的可用带宽,具体包括以下操作:

(1)测量该轮的平均单向时延oi和平均丢包率pi

(2)对可用带宽、平均单向时延和平均丢包率序列进行相空间重构,即:

①令Ai=[ai,ai-1,ai-2,…,ai-(m-1)],式中,Ai表示可用带宽矢量,m是嵌入维数;

②令h1=a1,hi=0.5ai+0.5hi-1,i=2,…,n,hi表示可用带宽的指数加权平均值,反映了过去可用带宽的总体大小;由hi构成加权平均值矢量Hi=[hi,hi-1,hi-2],表示平均单向时延矢量;

③令Pi=[pi,pi-1,Pi-2],Pi表示平均单向时延矢量;

④令OWD=[oi,oi-1,oi-2],OWDi表示平均丢包率矢量;

⑤由重构序列构成样本的输入,即xi=[Ai,Hi,Pi,OWD];由下一时刻的可用带宽值构成样本的输出,即yi=ai+1,从而得到样本(xi,yi);

(3)对样本的输入xi=[Ai,Hi,Pi,OWDi]进行核主元分析,实现对数据的降维降噪,得到进行核主元分析后的样本输入xKPCA,i。样本输入xKPCA,i与样本的输出yi=ai+1构成新的样本(xKPCA,i,yi);

(4)将新样本(xKPCA,i,yi)作为训练集来训练最小二乘支持向量机模型;

(5)用训练好的模型预测下一轮的可用带宽;

(6)更新训练集和最小二乘支持向量机模型;

步骤6:根据不同的网络状态更新期望速率Re

(1)稳定期:Ac≥Rc

(2)拥塞前兆:Ac≥Rc

(3)网络抖动:Ac<Rc

(4)网络拥塞:Ac<Rc

式中,Ac表示测量的当前实际可用带宽,Ap表示预测的下一轮可用带宽,Rc表示当前加入组播层的累积速率,为本轮期望速率,为下一轮期望速率,T表示一轮的周期,ΔR为速率增长因子,其值为s/RTT,。

步骤7:若小于当前层要求的最小速率,则立即执行退层操作。

步骤8:使用指数加权随机定时器执行反馈抑制操作。

步骤9:源端在收到第一个反馈后启动定时器,当定时器超时后发送加层同步点。

步骤10:当某接收端更新后的期望速率达到更高层要求的加入速率时,则进行加层操作。

步骤11:在同步点后,源端继续以速率Ri发送数据,当本轮结束,回到步骤1,启动第i+1轮。

本发明的有益效果是:由于采用分层组播机制,选用指数分层策略,即由低层到高层的最小速率累积之和满足指数递增规律。源端通过调整数据包的发送间隔,在不引入额外数据包的条件下测得从源端到各接收端的可用带宽,并使用最小二乘支持向量机预测下一时刻的可用带宽,根据预测结果提前对流量进行调节,从而实现了对组播拥塞的有效控制。

下面结合附图和实施例对本发明作详细说明。

附图说明

图1是本发明方法所使用的组播分层及速率分配示意图。

图2是本发明方法所使用的仿真网络拓扑图。

图3是本发明基于可用带宽预测的组播拥塞控制方法的控制时序图。

图4是本发明方法中测量可用带宽数据包的相对时延分布。

图5是本发明方法中测量可用带宽的组播各层数据包串结构。

图6是本发明方法中可用带宽预测的模型及参数更新示意图。

图7是本发明方法中的可用带宽预测的实现框图。

图8是本发明方法仿真实验1的结果,节点R1处的丢包率。

图9是本发明方法仿真实验2的结果,本发明与SMCC响应性及稳定性对比。

具体实施方式

以下实施例参照图1~9。本实施例为分层组播机制,速率最底层为基层,加入基层的最小速率为B0,是接收端加入组播所要求的最小速率。本实施例采用指数分层策略,即从基层(L0层)到第n层(Ln层)的最小速率累积之和满足Bn=2n·B0的形式。则某接收端要加入Ln层,要求的最小速率为Bn。每个接收端加入组播都必须加入基层,然后各接收端根据其期望接收的速率加入不同的层数,加入的层数越多,获得的吞吐量越大,得到的服务质量就越高。

组播源端为S1,接收端为D1、D2;4组TCP流分别由TSi-TRi(i=1,2,3,4)组成。组播流与4组TCP流共享由R1-R2的瓶颈带宽。

具体实施过程为:

1、控制时序。

本实施例以连续两次可用带宽测量的时间间隔称为一轮。每一轮前期(为本轮周期的10%~20%)为“带宽测量期”;在此期间,源端调整数据包间隔以测量从源端到各接收端的可用带宽。“带宽测量期”后为“速率稳定期”,在此期间,各层数据速率保持恒定。其控制时序关系如图3所示,其中各时间节点解释如下:

t0:源端标记一个数据包作为本轮开始的标志,启动新的一轮。在新的一轮中,源端根据各层速率设置范围,调整数据包间隔,从而使加入不同层的接收端能测量不同范围的可用带宽。

t1:可用带宽测量过程结束,源端发送一个结束标记。各接收端收到结束标记后,计算本轮从源端到本接收端的可用带宽Ac,表示测量的当前实际可用带宽,且进一步预测下一轮的可用带宽Ap,而后调整期望速率为并启动指数加权随机定时器TR进行反馈抑制。

t2:源端收到本轮中的第一个反馈包后,将发送该反馈包的接收端作为代表,并将该代表信息(ID号和)组播给全组成员,并启动定时器TS,开始收集反馈信息,并进行代表的更新。

t3:TR超时,各接收端判断其期望速率是否达到加入更高层的速率要求,若达到则等待同步点申请加入更高层;若未达到,则不操作。

t4:TS超时,源端标记一个数据包作为同步标志。

t5:各接收端收到同步标志后即申请加入更高层。

(1)反馈抑制与定时器TR的设置。

各接收端在更新期望速率后,作为上一轮CLR的接收端直接将其反馈给源端;而其他非CLR的接收端启动随机定时器TR。该随机定时器TR的值由各接收端的期望速率进行指数加权,使期望速率越小的接收端被分配的定时器越短,从而可以保证最慢接收者的反馈更容易到达源端。当非CLR接收端的定时器TR超时后,若未收到该层CLR信息或收到的当前CLR的期望速率大于自己的期望速率,则发送其反馈,否则不发送反馈;

(2)定时器TS的设置。

由于在每一轮中可能有比CLR期望速率更低的接收端,故源端在收到第一个反馈后,允许在TS时间内其他接收端来竞争CLR的“地位”,TS的取值一般设置在区间(RTT,2*RTT)范围内。

2、可用带宽的测量。

在“带宽测量期”,源端调整数据包间隔使其包串满足速率递减的规律以测量从源端到各接收端的可用带宽,各接收端收到本轮开始标志(设标记的起始数据包为P0)后,记录其他数据包Pi的到达时间。定义包Pi的相对时延τi为:包Pi的单向时延减去包P0的单向时延。如图4所示,在整个包串中,当i较小时,数据流速率较大,一般大于可用带宽,则此时探测包的相对时延会迅速增大;随着i增大,数据流速率不断减小,当减小到可用带宽大小时,对应包相对时延将趋于0(图中拐点处),此时包串的平均速率即为可用带宽。因此,数据流的平均速率变化范围即可用带宽的测量范围。

由于网络存在随机时延,探测包的相对时延存在抖动性。因此,本发明采用对前后三个包加权平均的方法计算各包的相对时延,计算包Pi相对时延的公式为:

τi=0.25τi-1+0.5τi+0.25τi+1(i=1,2,3,…,n)(2)

因此,当某接收端测得第k个包的相对时延趋于0,则其可用带宽为:

Ac=k·sΔt---(3)

其中s为包长,Δt为该接收端收到数据包P0与Pi的时间差。

由于组播具有异构性,各接收端的接收能力各不相同,因此可用带宽的分布范围较大。若所有的接收端均采用相同的包串测量可用带宽,则要求包串的平均速率有很大的变化范围,且测量时间较长,还可能造成网络拥塞。因此本实施例通过调节组播各层数据包的发送间隔,从而使加入某一层的接收端能够获得与该层发送速率相适应的可用带宽测量范围,如表1所示,以实现大量异质接收端的可用带宽测量。

各层数据包的具体结构如图5所示,基层数据包串的第一个间隔为g1,则第i个间隔gi=βi-1·g1,其中β为间隔增长系数,其取值范围一般在1到1.2之间,则基层数据包发送间隔满足指数递增规律。增强层(L1层及L1层以上的层)的数据包均匀插入其下层的数据包之间(图中虚框代表下层的数据包),则加入Ln层的接收端将接收到Ln层及所有下层的数据包,这些数据包组成新的包串仍满足速率递减的规律。各接收端记录收到数据包Pi的时间,并用式(2)计算Pi相对时延找到变化的拐点后,用式(3)即可计算得出当前可用带宽Ac

【表1】可用带宽测量范围(只列出前四层)

  层号  该层速率范围  带宽测量范围  L0  (B0,B1)  (0.5B0,1.5B1)  L1  (B1,B2)  (0.5B1,1.5B2)  L2  (B2,B3)  (0.5B2,1.5B3)  L3  (B3,B4)  (0.5B3,1.5B4)

3、可用带宽的预测。

(1)数据预处理。

本实施例中采用可用带宽矢量Ai=[ai,ai-1,ai-2,…,ai-m]、可用带宽指数加权均值矢量Hi=[hi,hi-1,hi-2]、平均丢包率矢量Pi=[pi,pi-1,pi-2]以及单向时延矢量OWDi=[oi,oi-1,oi-2],构成样本输入xi=[Ai,Hi,Pi,OWDi]。

本实施例采用核主元分析(Kernel Principle Component Analysis,KPCA)对样本输入xi=[Ai,Hi,Pi,OWDi]进行降维降噪后得到xKPCA,i,xKPCA,i与样本输出yi=ai+1构成新样本(xKPCA,i,yi)。

(2)基于最小二乘支持向量机的可用带宽预测。

a)模型参数的优化

得到样本xKPCA,i,yi)后,建立样本集S={(xKPCA,i,yi)|i=1,2,…,n},需要选用一种预测算法对样本集S进行学习,而后预测下一轮可用带宽Ap。由于最小二乘支持向量机(Least Squares Support Vector Machine,LSSVM)训练时间少,预测精度高,故本实施例选用LSSVM对可用带宽进行预测。LSSVM的模型中,本实施例选用的核函数为径向基函数:K(x,y)=exp(-||x-y||2/2δ2)。

在模型训练中需确定两个参数,分别为:LSSVM模型中的惩罚因子c和核参数δ。因此本实施例选用收敛速度快、参数少且计算量小的粒子群算法(Particle Swarm Optimization,PSO)对LSSVM模型中的两个参数进行优化。定义m个预测值的预测相对均方误差RMSE(Relative Mean Squares Error)为:

其中为yi的预测值,将RMSE作为PSO的适应值来优化LSSVM的参数δ和c。

b)模型在线更新

LSSVM的输出为其中K(xi,x)为核函数,αi(i=1,2,…,n)为求解LSSVM模型优化问题时引入的Lagrange系数,其LSSVM模型求解可等价为对式(5)中的α和b求解。

0eTeK+(1/c)I×ba=0y---(5)

式(5)中,令核函数则K是元素为Kij的n×n阶核矩阵,向量e=(1,…,1)T,I为单位矩阵,向量α=(α1,α2,…,αn)T,向量y=(y1,y2,…,yn)T

由于网络可用带宽的序列是一个非线性的时间序列,经过一段时间后,最初训练的模型对新样本的预测会产生较大的误差。因此,模型应随样本的更新而更新。倘若每更新一个样本,LSSVM都重新求解,则需要重新计算核矩阵K,同时还需求解[K+(1/c)I]的逆,计算复杂度为o(n3)以上,计算量较大。本实施例根据LSSVM在模型更新时求解的特点,采用递推计算的方法在线更新模型,并根据预测的不同阶段采用不同递推方式,提高模型的更新速度和预测精度。

令矩阵G=K+(1/c)I,则

G=G11G12...G1nG21G22...............G(n-1)nGn1...Gn(n-1)Gnn=K11+1/cK12...K1nK21K22+1/c...............K(n-1)nKn1...Kn(n-1)Knn+1/c---(6)

则解式(5)可得LSSVM的解为:

a=G-1(y-be)b=eTG-1y/eTG-1e---(7)

故计算α,b的关键在于求解G-1。在计算中,利用上次的计算结果进行递推计算,则可大大减小计算量。本实施例根据矩阵G的特点,采用递推计算的方法在线更新模型,并在预测的不同阶段采用不同递推方式。

(b1)增量学习

在可用带宽预测的开始阶段,由于采集的样本较少,模型需要随样本的增加而增加训练样本集的样本容量。则每次更新模型时,矩阵G的维数加1。假设当前训练样本集的样本容量为l,在更新第l+1个样本时,矩阵G的前l×l个元素并未变化,只是在原矩阵后增加了一行和一列,其形式如下:

Gl+1=GlG1(l+1)...G(l+1)1...G(l+1)(l+1)=Glββlg---(8)

其中向量β=(G(l+1)1,G(l+1)2,…,G(l+1)l)T,标量g=G(l+1)(l+1),Gl与Gl+1分别表示样本容量为l的矩阵G和增加一个样本后的矩阵G,则递推计算的关键在于能够从上次训练时的原矩阵逆(Gl)-1推导出(Gl+1)-1,根据分块矩阵的求逆方法可知

(Gl+1)-1=GlββTg-1=(Gl)-100T0+1θEFTEFT1---(9)

其中,向量E=-(Gl)-1β,向量F=(-βT(Gl)-1)T,标量θ=g+FTβ。因此,本实施例中增量学习的过程是:得到新样本后,首先计算得出β和g;再由(Gl)-1计算得出E、F和θ,然后通过式(9)求出(Gl+1)-1;最后通过式(7)计算得出α和b。因此,在可用带宽预测的开始阶段,LSSVM的训练样本不断增加,采用以上增量学习的方法可以把计算复杂度为从o(l3)降为o(l2),从而提高模型的更新速度。

(b2)迭代学习

随着可用带宽预测的不断进行,样本不断增加,但训练数据集不可能随样本的增加而不断扩大。则当训练样本数增加一定量时,需采用大小为n的滑动窗口更新样本,即每增加一个最新样本,就丢弃一个最旧样本,从而保持训练数据集的样本数不变。将模型更新前后得到的G矩阵分别表示为Gold和Gnew;与增量学习一致,迭代学习模型更新时,希望能从(Gold)-1推导出(Gnew)-1,从而减少计算复杂度。对比Gold和Gnew可知,两矩阵的差别可形式化为:

Gold=G11...G1n...Gn1Φ=G11ρlρΦΦG1n...Gn1...Gnn---(10)

其中,Φ表示矩阵Gold中第2行到第l行与第2列到第l列的元素组成的矩阵。由式(10)可知,若能通过(Gold)-1得到Φ-1,则可用与增量学习相同的方法从Φ-1推导出(Gnew)-1,设前一次计算得到的(Gold)-1形式如下:

(Gold)-1=G11ρTρΦ-1=γNMQ---(11)

其中,γ为(Gold)-1中第一行的第一个元素,M为(Gold)-1中第一列的第2个到第l个元素组成的列向量,N为(Gold)-1中第一行的第2个到第l个元素组成的行向量,Q表示(Gold)-1中的第2行到第l行与第2列到第l列的元素组成的矩阵。参考式的分块矩阵的求逆方法可知:

(Gold)-1=γNMQ=γNMΦ-1+MN/γ---(12)

则由式(12)可知,Φ-1=Q-MN/γ。因此,迭代学习的过程是:通过式(12)由(Gold)-1计算得到Φ-1,再采用增量学习的方法,由Φ-1计算得到(Gnew)-1,再通过式(7)计算得出α和b。

可用带宽预测开始一段时间以后,模型即从增量学习阶段过渡到迭代学习阶段,从而保证模型能够在线实时更新,确保预测精度。LSSVM训练时需确定的另一个参数为训练样本集的样本容量n,即迭代学习时的滑动窗口大小。理论上,n取值越大,LSSVM获得的信息量越大,预测越准确;然而,随着n的增大,训练的计算量越大,所耗费的训练时间越多。综合考虑可用带宽预测的精度与模型更新的计算量,n的取值一般在102到103之间。

(3)可用带宽预测的实现流程。

由于采用PSO算法优化LSSVM的参数时,要对样本进行多次训练,非常耗时。因此不能在每更新一个样本后就对LSSVM的参数重新优化,且因为短时间内的数据特征变化不大,也没有必要在每更新一个样本后重新优化参数,参数优化后的模型在一定时间内还是适应的。因此,如图6所示,本实施例中采用一步递推计算更新LSSVM模型,而对模型参数选用多步更新的方法。

本实施例中可用带宽预测的具体实现过程如图7所示。需要采集的数据包括当前可用带宽值、单向时延和丢包率。得到原始采集到的数据以后,需进行预处理,即对各参数序列进行相空间重构。将得到的多维样本利用核主成分分析降低样本数据噪声,提取包含数据信息的主成分,同时降低样本维数,然后将所提取的主成分作为LSSVM的输入。在预测的初始阶段,采用增量学习,当样本容量达到窗口值n后,采用迭代学习。当更新k个样本后,以最小化预测相对均方误差为目标,采用PSO算法优化LSSVM的参数,以实现精确且快速的可用带宽预测。

4、层的加入与退出。

在本轮可用带宽的测量值Ac和下一轮可用带宽的预测值Ap后,更新期望速率Re。本实施例中接收端的加层与退层都是基于其期望速率Re来进行的,只是加层与退层的时间点不同。在每轮中,并不是当接收端决定加层时就进行加层操作,为了实现各接收端加层的同步,源端在该轮后期插入同步点,各接收端需在等到同步点后才能执行加层操作;但需退层时,不需等待,直接进行操作,以免导致网络拥塞。

当Re在区间(Bi,Bi+1)中时,即可加申请加入Li层。但当Re在相邻两层的交界处附近轻微抖动时,可能导致接收端频繁地加入和退出某一层。为了避免这一情况,本实施例采用保守的方法,规定只有当期望速率在范围(d·Bi,Bi+1)内时,接收端才能申请加入Li层,其中,d是阻尼因子,经过实验证明,d取1.2效果比较好。当第i层的某个接收端的期望速率值减小到第i层的最小速率Bi时,该接收端退出第i层。

5、仿真实验。

通过仿真工具检验本发明方法的效果。

(1)仿真实验1。

本发明的目的是减少网络拥塞,丢包率是衡量网络拥塞状况的一个重要参数。仿真对比本发明与SMCC在瓶颈链路前的节点R1处的丢包率,仿真结果如图8所示。

由图8可知,SMCC的丢包率在0.017~0.056之间波动,平均丢包率约为0.0289;而本发明的丢包率保持在0.003附近,并且抖动幅度相对较小,平均丢包率约为0.0037。这是因为本发明能够对可用带宽进行预测,在可用带宽下降时,能够提前调节速率,避免网络拥塞发生,因此降低了丢包率;而SMCC采用TCP吞吐量公式计算得出的期望速率经常大于可用带宽,容易引发拥塞,因此其丢包率较高。

(2)仿真实验2。

本发明的一个有益效果在于当可用带宽变化较大时,算法具有较快的反应速度,即较好的响应性。实验采用图2所示拓扑,将R1与R2之间的链路容量更换为30Mbps。在10s时,D1、D2加入组播组,同时启动TCP1、TCP3和TCP4;在100s时TCP2启动,在150s时退出。因此,在10s到100s之间D1只与TCP1竞争瓶颈链路,在100s到150s之间D1只与TCP1、TCP2两条流竞争瓶颈链路。由于TCP2在100s时启动,引起了该链路的业务量变化,三条流共享18Mbps瓶颈带宽,公平带宽为6Mbps。分别选用SMCC和本发明作为组播流进行实验,仿真时间为250s。

图9表明接收端D1在两种组播流下的吞吐量变化。由图可知,在100s时由于TCP2的启动,网络公平带宽变由9Mbps变为6Mbps,本发明和SMCC都能较快地退出第2层,加入第1层。如图所示,本发明的反应时间为0.91s,而SMCC的反应时间为2.04s。这是由于SMCC是在丢包率上升,发现网络拥塞,才将其期望速率减小,而本发明通过预测可用带宽的变化,提前减小了其期望速率,因此本发明较SMCC的反映速度更快。同样,在150s时由于TCP2的退出,网络公平带宽又变为9Mbps,本发明的反应时间为1.67s,而SMCC的反应时间为3.82s;这是由于本发明对可用带宽进行了预测,因此能比SMCC更早的增加其期望速率,从而提高带宽利用率。

本发明的另一个有益效果在于当可用带宽发生轻微抖动时其发送速率不会发生大的抖动,即具有较好的平稳性。采用在一段时间内速率的均方差来考察速率的平稳性,分析图9中网络带宽未发生大的变化的阶段可知,在0s~100s和200s~300s时间段内,SMCC吞吐量的均方差为0.3228Mbps,最大抖动幅度为0.89Mbps;而本发明吞吐量的均方差为0.1761Mbps,最大抖动幅度为0.46Mbps。因此,与SMCC相比,本发明吞吐量的平稳性更好,这是因为本发明在计算其期望速率时采用了拥塞避免,确保期望速率不会超过其可用带宽,因此能减小拥塞的发生,使吞吐量保持在可用带宽附近。而SMCC基于TCP吞吐量公式计算的期望速率,而由于其公式参数存在较大偏差,因此其得到的期望速率常常超过可用带宽,导致丢包率的上升,而丢包率的上升又引起期望速率的下降,因此SMCC的吞吐量抖动比本发明更大。

去获取专利,查看全文>

相似文献

  • 专利
  • 中文文献
  • 外文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号