首页> 中国专利> 减少ASON分层网络拓扑抽象中信息失真的一种方法

减少ASON分层网络拓扑抽象中信息失真的一种方法

摘要

本发明涉及光通信领域,尤其是一种减少ASON分层网络拓扑抽象中信息失真的方法。本发明针对ASON网络中的拓扑抽象问题,提出一个最小化加性参数失真的新方法,即:单点逼近方法SP。在SP中,只需要在拓扑的生成树表示基础上增加一个浮点数,从而可将抽象后拓扑的空间复杂度限制为O(|B|),其中B为路由域边界节点的集合。仿真结果显示本发明的性能大大优于传统的生成树上限或下限解码,可有效减少拓扑抽象后各链路加性参数的失真,从而减少对业务请求的误拒绝与误接受。

著录项

  • 公开/公告号CN1787418A

    专利类型发明专利

  • 公开/公告日2006-06-14

    原文格式PDF

  • 申请/专利权人 北京邮电大学;

    申请/专利号CN200410096895.X

  • 发明设计人 纪越峰;雷蕾;陆月明;

    申请日2004-12-10

  • 分类号H04J14/02;H04L12/24;

  • 代理机构小松专利事务所;

  • 代理人梁绍明

  • 地址 100876 北京市海淀区西土城路10号

  • 入库时间 2023-12-17 17:20:52

法律信息

  • 法律状态公告日

    法律状态信息

    法律状态

  • 2016-01-27

    未缴年费专利权终止 IPC(主分类):H04J14/02 授权公告日:20100505 终止日期:20141210 申请日:20041210

    专利权的终止

  • 2010-05-05

    授权

    授权

  • 2008-01-16

    实质审查的生效

    实质审查的生效

  • 2006-06-14

    公开

    公开

说明书

技术领域

本发明涉及光通信领域,尤其是一种减少ASON分层网络拓扑抽象中信息失真的方法。

背景技术

随着IP业务的爆炸式增长,不仅对网络带宽的需求愈来愈高,而且由于IP业务与传统话音业务相比本身具有的不确定性和不可预见性,也要求网络具有动态选择和建立路由的能力。在这种情况下,在基于波分复用(WDM:Wavelength Division Multiplexing)技术的光传送网(OTN:Optical Transport Network)上增加自动交换能力的自动交换光网络(ASON:Automatic Switched Optical Network)应运而生。

ASON的一大优势在于其能够通过控制平面进行动态分布式的QoS(Quality of Service)路由功能。QoS路由的目标是为某一个业务请求选择一条能够满足其QoS要求或约束的“可行”路由。由于QoS路由功能要求对动态的网络状态信息进行频繁更新,所以ASON路由协议应具有良好的可扩展性以适应大规模网络的要求。为此,ASON标准特别建议其应由一系列层次包含的路由域(Routing Area)组成。每一个路由域的拓扑信息被加以抽象并发布到网络中的其他路由域。这样,每个路由域只维护自身的详细拓扑以及其他域的抽象拓扑,从而大大减少了网络中需要存储和发布的信息量。然而,由于抽象的拓扑信息往往不够准确,从而导致根据此信息选择的“可行”路由实际上并不能满足QoS约束。一个好的拓扑抽象算法试图在两者之间找到最佳平衡点。

拓扑抽象过程通常包含两个步骤。第一步是必须的,称做“全连通图构建”。在此步骤中,在每对边界节点之间构建一条逻辑链路,从而形成一个全连通图抽象拓扑。根据不同的QoS路由算法,每条逻辑链路与一个或多个QoS参数相关联。QoS参数可以是加性的,如延时和物理层损伤;也可以是限制性的,如带宽。这些参数从原拓扑上边界节点间的路径的QoS参数得到。第二步是可选的,称作“全连通图压缩”。在此步骤中,全连通图拓扑可以进一步被压缩为一个更加稀疏的拓扑结构,如树型或星型。经过抽象的拓扑及其相应的QoS参数就可以被发布到其他路由域。如果在某一路由域内的一个节点接收到另一个路由域的树型或星型拓扑,它需要首先将此拓扑解码为全连通图版本,才能在此拓扑上进行路由选择。

在波长路由的光网络中,由于波长的带宽颗粒度较大,业务请求的带宽要求通常为一个单位(一条光路)。这个特点消除了第一步引入的失真。在构造逻辑链路时,将对应的边界节点之间的所有光路径的最小延时与其相关联。在路由选择时,如果在抽象拓扑上存在一条最短路径,则其一定符合带宽要求。如果此最短路也满足延时要求,则其为一条“可行”路由。否则,该业务请求被阻塞。

由于在全连通图抽象中存在O(|B|2)个逻辑链路(|B|表示一个域的边界节点数),而在树型和星型抽象中只有O(|B|)个逻辑链路或更少,因此在此编码过程中很可能丢失一些信息。文献[W.C.Lee,“Spanning tree method for link state aggregation in large communication networks,”Proc.IEEE INFORCOM,pp.297-302,2-6 April,1995.]显示使用生成树算法来表示一个域对限制性参数不会失真,而对加性参数来说就可能产生失真。文献[W.C.Lee,“Minimum equivalent subspanner algorithms for topology aggregation inATM networks,”Proc.2nd Int.Conf.on ATM(ICATM),pp.351-359,21-23 June,1999.]提出一种算法可以得到最小加性参数无失真表示。然而,这样得到的表示在某些情况下可能需要O(|B|2)个逻辑链路。

发明内容

本发明的目的在于:针对具有两个QoS约束:延时和带宽的ASON网络中的拓扑抽象问题,提出一种单点逼近方法来减少ASON中由于拓扑抽象产生的延时参数失真,采用本发明方法后抽象拓扑的空间复杂度仍为O(|B|),并同时最大化信息准确性。虽然本发明以时延参数为例,但此方法可以用于减少任何加性QoS参数的失真。

抽象模型:用一个三维向量(V,B,E)表示一个网络,其中V为域内节点集合,BV为边界节点集合,E为连接V中节点的双向链路。此域的全连通图抽象用(B,Lm)表示,其中Lm为每对边界节点之间的逻辑链路。每条逻辑链路都存在一个对应的延时参数。此参数值等于逻辑链路边界节点之间所有光路径的延时值的最小值。

下一步,此带有O(|B|2)逻辑链路的全连通图抽象将被压缩为带有O(|B|)逻辑链路的最小生成树。用(B,Lt)表示此生成树,其中Lt为逻辑链路集合。由于LtLm,用Lm-t表示Lm-Lt中的逻辑链路集合。集合Lm的基数为|B|(|B|-1)/2,Lt的基数为|B|-1,Lm-t的基数为1/2|B|2-3/2|B|+1。当解码时,逻辑链路li∈Lt的延时值可以直接从生成树表示中得到,而逻辑链路li∈Lm-t的延时值则较难得到。根据最小生成树的性质可以推出,最小生成树表示上任意两节点之间存在唯一一条路径,此路径上的每条逻辑链路的延时值都不能大于全连通图表示中连接此两节点间的逻辑链路的延时值。例如,如果图1所示为从全连通图表示中得来得最小生成树,则有d≥max(a,b,c)。另一方面,由于全连通图表示中的延时值是从原拓扑中计算最小延时值得到的,因此最小生成树上任何两个节点之间的唯一路径的总延时值不能小于全连通图表示中连接此两节点的逻辑链路的延时值。即,d≤∑(a,b,c)。

定理1:对于任何逻辑链路li∈Lm-t,此链路的延时值li.d满足如下不等式:

maxlj.d≤li.d≤∑lj.d,lj∈Pi.

(1)

其中Pi为逻辑链路li的端节点在最小生成树上的唯一路径。

当将树解码为全连通图时,可以如文献[W.C.Lee,“Spanning tree method for link stateaggregation in large communication networks,”Proc.IEEE INFORCOM,pp.297-302,2-6 April,1995.]提出,将逻辑链路li∈Lm-t的延时值的上界或下界作为估计的延时值。然而,此方法将引入失真。

本发明提出一种得到逻辑链路li∈Lm-t的延时值的新方法----单点逼近方法:

用li.d.l代表链路li延时值的下限,li.d.u代表上限,li.d.a代表真实值,li.d.e.代表估计值。某一业务请求的延时约束表示为s.d,为此请求在抽象拓扑上选择的具有最小延时的光路径表示为P。如果如下限解码时可能发生的那样,有 >>>Σ>>>l>i>>∈>P> >>l>i>>.>d>.>e><>s>.>d><>>Σ>>>l>i>>∈>P> >>l>i>>.>d>.>a>,>>>则业务请求会被源节点接受,但在信令过程中发现并不可行而最终被拒绝,即误接受。另一方面,如果如上限解码时可能发生的那样,有 >>>Σ>>>l>i>>∈>P> >>l>i>>.>d>.>a><>s>.>d><>>Σ>>>l>i>>∈>P> >>l>i>>.>d>.>e>,>>>则业务请求实际上可以被支持,却被源节点拒绝,即误拒绝。为了减少误接受和误拒绝的发生,li.d.e的值应尽量与li.d.a的值接近。因此,逼近方法的目标为最小化li.d.e的均方误差

>ver>>>ϵ>2>>‾>>=>>1>>|>>L>>m>->t>>>|>>>>Σ>>>l>i>>∈>>L>>m>->t>>> >>>|>>l>i>>.>d>.>a>->>l>i>>.>d>.>e>|>>2>>>>

(2)    

在下限和上限解码中,li.d.e分别等于li.d.l和li.d.u。为了改进这些解码方法的性能,在编码时需要加入附加的信息。由于li.d.a∈(li.d.l,li.d.u),定义一个逻辑链路li的分点(li.dp)为:

>>>l>i>>.>dp>=>>>>l>i>>.>d>.>a>->>l>i>>.>d>.>l>>>>l>i>>.>d>.>u>->>l>i>>.>d>.>l>>>->->->>(>3>)>>>>

一个域中存在|Lm-t|=1/2|B|2-3/2|B|+1个分点。本发明提出将这些分点的信息编码并与最小生成树表示一起发布到网络的其他各个域中。在解码过程中,得到这些分点的估计值(li.dp′)。这样,li.d.e的值可通过如下公式得到:

li.d.e=li.d.l+li.dp′×(li.d.u-li.d.l)

(4)

在本发明提出的方法中,li.dp的逼近算法在决定抽象过程的性能时起到了至关重要的作用。它既需要将发布的信息的空间复杂度限制在O(|B|),又需要尽可能准确的表示|Lm-t|个li.dp的值。

在单点逼近中,|Lm-t|个分点由一个值l.dp′近似。事实上,l.dp′在下限解码中等于0,而在上限解码中等于1。然而,无论0还是1都不是最小化的最优值。结合(2)和(4),得到

>ver>>>ϵ>2>>‾>>=>>1>>|>>L>>m>->t>>>|>>>>Σ>>>l>i>>∈>>L>>m>->t>>> >>>|>>l>i>>.>d>.>a>->>(>>l>i>>.>d>.>l>+>l>.>d>>p>′>>×>>(>>l>i>>.>d>.>u>->>l>i>>.>d>.>i>)>>>|>>2>>->->->>(>5>)>>>>

为了最小化使

>>>>dver>>>ϵ>2>>‾>>>>d>>(>l>.>d>>p>′>>)>>>>=>0>->->->>(>6>)>>>>

通过解方程(6),可以得到l.dp′的值为:

>>l>.>d>>p>′>>=>>>>Σ>>>l>i>>>>∈>L>>>m>->t>>> >>(>>l>i>>.>d>.>a>->>l>i>>.>d>.>l>)>>>>>Σ>>>l>i>>∈>>L>>m>->t>>> >>(>>l>i>>.>d>.>u>->>l>i>>.>d>.>l>)>>>>->->->>(>7>)>>>>

综上所述,本发明提出的单点逼近方法具体步骤如下:

1:将本域拓扑的全连通图表示压缩抽象为最小生成树表示。

2:利用公式

>>>>l>.>dp>>′>>=>>>>Σ>>>l>i>>∈>>L>>m>->t>>> >>(>>l>i>>.>d>.>a>->>l>i>>d>.>l>)>>>(>>l>i>>.>d>.>u>->>l>i>>.>d>.>l>)>>>>>Σ>>>l>i>>∈>>L>>m>->t>>> >>>(>>l>i>>.>d>.>u>->>l>i>>.>d>.>l>)>>2>>>>>>

计算编码后的分点值。

3:将压缩后的生成树表示以及编码后的分点值发布给网络,其附加占用的空间为一个浮点数。

4:将编码后的分点值l.dp′作为每条链路的分点估计值li.dp′,利用公式

            li.d.e=li.d.l+li.dp′×(li.d.u-li.d.l)

将生成树表示解码还原为全连通图表示。

由于采用上述方法,本发明具有如下优点:本发明研究了分层ASON网络中的拓扑抽象问题,并提出一个最小化时延参数失真的新方法----单点逼近算法SP。在SP中,只需要在生成树的基础上增加一个浮点数。本发明方法将空间复杂度限制在O(|B|)。仿真结果显示其性能都大大优于传统的上限或下限解码。

附图说明

图1为最小生成树图

图2为分层网络示意图

图3a为全连通图

图3b为最小生成树

图4为传统生成树拓扑抽象流程图

图5为改进的拓扑抽象方法流程图

图6为平均时延方差vs.时延约束

图7为误(拒绝+接受)数vs.时延约束

具体实施方式

在如图2所示的网络中,假设存在两个域,域A和域B。每个域中有一个指定的组长A.1和B.1,负责将本域的拓扑信息进行抽象,并发布到其他的域中。节点a,b,c,d为域A的边界节点,A.1在进行拓扑抽象时,首先将域A的拓扑抽象为关于此四个边界节点的全连通图,即“全连通构建”,如图3a所示。其中,每条链路上标明的数字为此链路对应的时延值,该时延值等于链路对应的两个边界节点在原拓扑上最小时延光路径的时延值。接下来进行“全连通压缩”。如果采用传统的生成树拓扑抽象方法,则流程如下:

对应上面的例子,即:

步骤1:A.1将图3(a)所示的全连通图抽象为图3(b)所示的最小生成树。

步骤2:将图3(b)所示的最小生成树表示发布给B.1。

步骤3:B.1在接收到生成树表示后,将其解码还原为全连通图表示。即,根据生成树表示中链路a-d,d-c,c-b的时延值估计出链路a-c,a-b,以及d-b的时延值。如果采用上限估计法,则链路a-c,a-b,以及d-b的时延值分别为(1+1.5=2.5),(1+1.5+2=4.5),(1.5+2=3.5)。如果采用下限估计法,则此三条链路的时延值分别为(max(1,1.5)=1.5),(max(1,1.5,2)=2),(max(1.5,2)=2)。

采用本发明改进的拓扑抽象方法,对应上面的例子,采用单点逼近算法,则流程如下:

步骤1:A.1将图3(a)所示的全连通图抽象为图3(b)所示的最小生成树。

步骤2:利用公式(7)计算压缩后的分点值为

>>>>(>>(>2>->1.5>)>>+>>(>2.5>->2>)>>+>>(>3>->2>)>>)>>>(>>(>2.5>->1.5>)>>+>>(>4.5>->2>)>>+>>(>3.5>->2>)>>)>>>=>0.4>>>

步骤3:将图3(b)所示的最小生成树表示以及压缩后的分点值发布给B.1。

步骤4:B.1在接收到生成树表示及压缩后的分点值后,将其解码还原为全连通图表示。即,根据生成树表示中链路a-d,d-c,c-b的时延值以及压缩后的分点值,通过公式(4)估计出链路a-c,a-b,以及d-b的时延值。则链路a-c,a-b,以及d-b的时延值分别为(1.5+0.4×1=1.9),(2+0.4×2.5=3),(2+0.4×1.5=2.6)。

将上例中采用三种不同方法后(上限解码,下限解码以及本发明提出的方法)各条链路产生的失真情况进行比较,不难看出本发明提出的方法所产生的参数失真最小。

表1:采用各种方法后的参数失真情况

  真实值  上限解码值  下限解码值  单点逼近值  a-d  2  2.5  1.5  1.9  a-b  2.5  4.5  2  3  c-b  3  3.5  2  2.6

通过本发明提出的方法,可以有效的减少拓扑抽象后各链路时延参数的失真,从而减少对业务请求的误拒绝与误接受数。例如,如果网络中某一业务请求要经过域A的边界节点a和b,且要求a和b之间的时延值不能超过3.2。由于a和b之间的实际时延值为2.5,故可以满足要求。如果采用本文的方法,则a和b之间的时延值被估计为3,虽然高于实际的时延值,但仍然可以满足此业务请求。然而,如果采用上限解码,则a和b之间的时延值被估计为4.5,从而误认为不能满足要求,而拒绝该业务。

具体性能比较如下:

本发明通过仿真比较各种逼近算法的性能。比较的算法有单点逼近(SP)及保守的上限解码(UB)和激进的下限解码(LB)。比较的性能指标有平均时延方差(m.d.d.),和误(拒绝+接受)数(w.(r.+a.)n.)。

时延方差测量一条光路径的实际时延和估计时延之间的差别。由于抽象产生的失真,估计的时延可能大于或小于实际的时延,导致误拒绝和误接受的发生。平均时延方差计算所有满足带宽约束的业务请求的平均时延方差值。

本发明测量所有业务请求到达网络后的误拒绝和误接受数,并将两者相加以比较三种方法的综合性能。

本发明使用的拓扑是随机生成的300节点网络。网络中包含在5个域,且每个域包含60个节点。每个域中随机选择10%的节点作为边界节点。域内节点度在2到4之间,域间节点度在1到3之间。每个链路的延时值为一个1到5的随机数。我们假设每条链路有一对单向光纤组成,每条光纤上存在两条波长。网络的连接到达率为泊松分布,连接持续时间为指数分布。将业务请求的时延约束从20以步长为5的速度增加到60进行仿真。

每个数据点是1600个随机产生的业务请求的平均值。具体来讲,给出一个时延约束,随机产生4个拓扑。在每个拓扑上,产生400个随机选取源节点和目的节点的业务请求。分别运行三个算法。

不同算法的平均时延方差如图7所示。横轴代表时延约束。仿真结果显示本发明提出的SP方法的m.d.d.都远远小于UB和LB。另外,从图中可以看出LB的m.d.d小于UB。此结果表示下限比上限更接近实际的时延值。此结果是合理的。由于一个域内的各个边界节点之间的最小时延值不会相差太大,所以图1中max(a,b,c)的值比∑(a,b,c)的值更可能接近d的值。

对于一个好的抽象算法,由于失真引起的误接受和误拒绝的总数应该尽可能小。因此,本发明比较各种算法的w.r.n+w.a.n,结果如图10所示:(w.r.n.+w.a.n.)都远远小于UB和LB,这与平均时延方差的结果一致。

去获取专利,查看全文>

相似文献

  • 专利
  • 中文文献
  • 外文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号