用于减少信息中心网络的响应时间的方法和装置转让专利
申请号 : CN201580039730.5
文献号 : CN106537824B
文献日 : 2018-09-07
发明人 : 塞尔哈·纳奇姆·阿夫希 , 塞德里克·韦斯特法尔
申请人 : 华为技术有限公司
摘要 :
权利要求 :
1.一种用于减少信息中心网络的响应时间的方法,所述方法包括:接收来自进入网络的内容对象的入口节点的指示,所述内容对象与通过所述网络的新的传送流相关联;
识别用于所述内容对象的所述网络中的出口节点;
识别所述内容对象的尺寸;
部分基于所述内容对象的所述尺寸,确定用于所述新的传送流的待完成量和带宽;
确定所述网络中的现有传送流的待完成量和带宽;
确定从所述入口节点到所述出口节点的用于所述新的传送流的所述网络中的候选路径的集合;
基于所述待完成量和带宽,估计对于每个候选路径完成所有传送流的总响应时间;以及选择用于所述新的传送流的所述候选路径中具有最低总响应时间的一个候选路径。
2.根据权利要求1所述的方法,其中估计所述总响应时间包括:识别完成所述现有传送流的时间;以及一旦完成了所述现有传送流,更新所述总响应时间和待完成量。
3.根据权利要求2所述的方法,进一步包括:确定是否存在任何待完成量;以及一旦确定了不存在待完成量,提供所述总响应时间。
4.根据权利要求2所述的方法,进一步包括:确定是否存在任何待完成量;以及处理所述现有传送流,直到不存在待完成量为止。
5.根据权利要求1所述的方法,进一步包括:将所述内容对象的所述尺寸与阈值作比较;以及响应于所述内容对象的所述尺寸超过了阈值,确定所述候选路径的集合以生成所述总响应时间。
6.一种用于减少信息中心网络的响应时间的装置,包括:存储器,配置为存储数据和指令代码;以及处理器,一旦执行了所述指令代码,配置为:接收来自进入网络的内容对象的入口节点的指示,所述内容对象与通过所述网络的新的传输流相关联;
识别用于所述内容对象的所述网络中的出口节点;
识别所述内容对象的尺寸;
部分基于所述内容对象的所述尺寸,确定用于所述新的传送流的待完成量和带宽;
确定所述网络中的现有传送流的待完成量和带宽;
确定从所述入口节点到所述出口节点的用于所述新的传送流的所述网络中的候选路径的集合;
基于所述待完成量和带宽,估计对于每个候选路径完成所有传送流的总响应时间;以及选择用于所述新的传送流的所述候选路径中具有最低总响应时间的一个候选路径。
7.根据权利要求6所述的装置,其中估计所述总响应时间的所述处理器进一步被配置为:识别完成所述现有传送流的时间;以及一旦完成了所述现有传送流,更新所述总响应时间和待完成量。
8.根据权利要求7所述的装置,其中所述处理器进一步被配置为:确定是否存在任何待完成量;以及一旦确定了不存在待完成量,提供所述总响应时间。
9.根据权利要求7所述的装置,其中所述处理器进一步被配置为:确定是否存在任何待完成量;以及处理所述现有传送流,直到不存在待完成量为止。
10.根据权利要求6所述的装置,其中所述处理器进一步被配置为:将所述内容对象的所述尺寸与阈值作比较;以及响应于所述内容对象的所述尺寸超过了阈值,确定所述候选路径的集合以生成所述总响应时间。
11.一种计算机可读介质,包括用于减少信息中心网络的响应时间的代码,一旦执行所述代码可操作地用于:接收来自进入网络的内容对象的入口节点的指示,所述内容对象与通过所述网络的新的传送流相关联;
识别用于所述内容对象的所述网络中的出口节点;
识别所述内容对象的尺寸;
部分基于所述内容对象的所述尺寸,确定用于所述新的传送流的待完成量和带宽;
确定所述网络中的现有传送流的待完成量和带宽;
确定从所述入口节点到所述出口节点的用于所述新的传送流的所述网络中的候选路径的集合;
基于所述待完成量和带宽,估计对于每个候选路径完成所有传送流的总响应时间;以及选择用于所述新的传送流的所述候选路径中具有最低总响应时间的一个候选路径。
12.根据权利要求11所述的计算机可读介质,其中所述代码可操作地以估计所述总响应时间包括代码可操作地用于:识别完成所述现有传送流的时间;以及一旦完成了所述现有传送流,更新所述总响应时间和待完成量。
13.根据权利要求12所述的计算机可读介质,其中所述代码进一步可操作地用于:确定是否存在任何待完成量;以及一旦确定了不存在待完成量,提供所述总响应时间。
14.根据权利要求12所述的计算机可读介质,其中所述代码进一步可操作地用于:确定是否存在任何待完成量;以及处理所述现有传送流,直到不存在待完成量为止。
15.根据权利要求11所述的计算机可读介质,其中所述代码进一步可操作地用于:将所述内容对象的所述尺寸与阈值作比较;以及响应于所述内容对象的所述尺寸超过了阈值,确定所述候选路径的集合以生成所述总响应时间。
说明书 :
用于减少信息中心网络的响应时间的方法和装置
技术领域
背景技术
0.5s延迟时间会减少20%的网站流量。典型的机制依赖于历史和概率统计方法。过往,创建流量矩阵并且为路径分配权重以最小化最大链路利用率(minMLU)。概率上,期望将这些链
路利用图收敛到最优值,然而这种收敛可能出现的太晚以至于不能借助改变网络资源分配
而缓解拥塞。某些工作仅检测了数据中心网络中大的,或“象型”尺寸的流并且防止它们在相同路径上的碰撞。其他技术使用启发法以包括基于内容的差异化并且依赖于历史数据。
相等最短路径之间的基于哈希的负载平衡是减少网络中拥塞的另一尝试。与某些源/目的
地滤波器匹配的IP流可以包括不同的应用。此外。IP流是一种用于分配的资源数量的较差
描述符。另外,不存在明确的语义以发送流结束的信号。
发明内容
响应时间的方法和装置,其极大地减少或基本上消除了与当前减少网络拥塞技术相关联的
问题以及缺点。
网络的新的传送流相关联。识别用于所述内容对象的所述网络中的出口节点,以及识别所
述内容对象的尺寸。部分基于所述内容对象的所述尺寸,确定用于所述新的传送流的待完
成量和带宽。确定所述网络中的现有传送流的待完成量和带宽。确定从所述入口节点到所
述出口节点的用于所述新的传送流的所述网络中的候选路径的集合。对于每个候选路径,
基于所述待完成量和带宽,估计对于每个候选路径完成所有传送流的总响应时间。选择用
于所述新的传送流的具有最低总响应时间的候选路径。
的影响。另一技术优点在于在识别候选路径中在网络中的控制器的控制下,提供了带宽共
享。又一技术优点在于相比于常规技术响应时间的增益。其他技术优点根据随附附图、说明书以及权利要求,对本领域技术人员来说是显而易见的和可辨识的。
附图说明
具体实施方式
明的原理可以实施在任何类型的适当安排的设备或系统中。在一个附图中所示且所讨论的
特征视情况可以实施在一个或更多个其他的附图中。
映射到单一流并且将组成一个内容对象的所有组块(chunk)分配给通过网络的相同的路
径。ICN可以支持来自多个源的组块的传输,然而为了讨论的目的,假设所有的组块沿着相同的路径。
基于内容的路由决定。
获取。将对于流z的网络的响应时间定义为在网络的入口处的z的第一组块的第一到达与直
到在网络的出口处的流z的最后组块的最后离开之间的时间。
离在Ks,d个可能路径p s,d上。术语minMLU表示随机分离策略,其中系数πs,d的选择最小化maxe∈E ue。这是最小化最大链路利用率的典型的min-MLU流量工程策略。
以适当地定义。细粒度资源分配创造了对于底层网络以及用于提供分配的机制的大量要
求。当前网络因为缺乏适当的工具以及提取而不支持这种机制。为执行网络中的资源分配
而考虑了4种要求,即基于内容的提取、基于内容的控制面、流量估计以及可扩展性。
向演进。由于新的流进入网络,因此应用通过控制器设置的规则。由于期望实现内容特定的流量工程,因此可以将这种机制扩展为应用到内容。
络结构(fabric),直到它到达出口边缘。控制面还需要意识到网络结构中的拥塞以作出适
当的路径选择。对此,利用网络监控设施来跟踪分配到节点的外向链路的流量的数量。换句话说,当将具有尺寸z的流zs,d分配到第k个路径Pks,d时,将z添加到由路径Pks,d穿过的边缘的待完成量(backlog)。对于监控拥塞的节点,要求对流以及剩余待完成量的描述。尽管将策略设计为考虑通过网络的所有流以便减少网络的响应时间,仍可以实施忽略某一阈值下
的所有流并且对于资源分配聚焦到仅识别象型流的策略。根据分配到路径的流的知识,流
量分配机制能够获得转发面的一些行为。
资源,将控制面设计为理解它的决定对于流的影响并且设计为具有TCP行为的模型(基于先
前观察的网络状态的理论模型或经验模型)。对此的一个潜在方式是让控制面控制该TCP行
为。这违反了当前的方式,在当前的方式中将传输层的控制委托给了传输的端点。
的一个或多个节点/交换机104。
内容对象选择通过网络100的路径。可以将控制器102实施为OpenFlow的扩展。内容名字到
其尺寸的映射是直接简单的。
容管理单元106识别网络100中的目的地端节点104,网络监控单元108确定初始带宽和待完
成量,并且分配算法单元110计算候选路径。对于每个候选路径,在框208、210和212中通过分配算法单元110针对特定路径计算现有流的响应时间。尽管在执行这些计算时,可以包括任何数量的候选路径,使用待评估的3个候选路径来显示过程200。在框214,分配算法单元
110选择具有最低总完成时间的路径。在框216,将路径决定提供给入口节点/交换机104。在框218,入口节点/交换机104在所选路径上传输内容。处理200返回到框202以等待接收新的流。
在框304,分配算法单元110接收对于所有现有流的带宽分配。在框306,处理每个流直到流已经完成为止。一旦流完成,更新响应时间和剩余流的待完成量。在框308,判断总剩余待完成量是否已经达到零。如果否,则过程300返回到框302以迭代剩余流。一旦将所有的待完成量处理到零,在框310计算总响应时间以便于图2中框214处的其他候选路径的其他总响应
时间的比较。
所有目的地D的每个点到点内容传输,待完成量函数Bzi(t)与表示由内容zi从s到d处于时间t生成的待完成量的每个内容传输相关联。让tzi作为内容zi的到达时间,于是Bzi(t)作为t的非增函数,t∈[tzi,+∞),t从内容尺寸zi减小到0。例如,如果考虑使用链路的全容量c的流,则可以如下所示的给出Bzi(t):
间。通过Tv(zi)=Tv(zi)+tcheck更新流的响应时间,其中TV(zi)是对于候选分配V的流zi的合计响应时间。如果所有的流被完全传送了,则计算所有流的总响应时间为
迭代地返回并且选择下一候选路径,直到所有候选路径被连续选择为
止。根据每个候选路径场景Tv的总响应时间,选择将给出最小总响应时间的一个。将该路径加入到路径的现有集合中并且在所选路径上传送进入内容zn。
成量。可以从传输层的模型或从网络状态的经验测量估计函数f(zi)、Vi。然而,为了实现性能目标,由控制器在宽带分配时设置函数f(zi),以便公平地共享带宽并且最小化完成时
间。因为从网络边缘到客户的带宽由于用户的移动性以及异构访问条件会变化,所以这种
带宽分配仅在网络结构内部是可实用的。然而,在ICN中,这种带宽共享计算可被用来将数据传送到在网络的边缘处的缓存。
且为每个待定流迭代。一旦处理了所有的流,网络监控单元108将带宽分配提供到分配算法单元110用于路径选择。
networks for traffic engineering”,IEEE ICC会议,2014年6月发现minMLU和MBP的技术细节。在循环格式中,每个源-目的地对具有一Ks,d路径的集合。每次新的流进入到这两个节点之间的网络,以循环格式选择这些路径。对于每个模拟设置,在两个不同的网络和几个不同的流量模型和参数,执行提出的MRTP与常规分配技术之间的评估。在下列评估中使用带
宽共享函数,由于使用该带宽共享的minMLU的性能总是好于使用TCP的minMLU的性能分配。
因此,通过比较MRTP算法与minMLU和该带宽共享,对minMLU和TCP而言,MRTP的增益被低估。
利斯和亚特兰大中的节点之间的链路的容量为2480Mbps以外,每个链路的容量为
9920Mbps。基于由B.Fortz和M.Thorup的“Internet traffic engineering by optimizing OSPF weights”,INFOCOM 2000,Nineteenth Annual Joint Conference of the IEEE
Computer and Communications Societies,Proceedings,IEEE,volume 2,pages 519-528 vol.2,2000给出的OSPF链路权重和Yen的算法来计算每个源-目的地节点对的三个候选路
径。不同的流量需求矩阵用于表征流量输入。它们是均匀的基于重力的,且是来自Y.Zhang,Abilene traffic matrices,http://www.cs.utexas.edu/yzhang/research/AbileneTM/
的现实模型。在5分钟的周期内,通过测量阿比林网络中的每个源-目的地对的端到端流量
来建造现实矩阵。针对对象尺寸和到达时间分别通过使用帕累托分布和泊松过程来创建流
量输入。帕累托参数χm和α以及柏松参数λ在不同的模拟中变化以测量各种流量情况下的性能。
络中的每个机架交换机之间。在每个机架交换机对之间存在3个不相交且等价的路径。这些路径具有越过核心交换机中的一个核心交换机的2跳的长度。
流量输入,应用对于χm的3个不同值3、30和300。对于χm=300,流到达速率(λ)在12和18之间变化,对于χm=30,流到达速率(λ)在120和180之间变化,并且对于χm=3,流到达速率(λ)在
1200和1800之间变化。使用如下公式计算流量负载:
30以及χm=3情况下的响应时间测量按10和100进行调整以将所有的3个模拟场景纳入在相
同的图中。与minMLU相比,MRTP减少了大约40%的平均响应时间。
用率之间的链路使用率。对于χm=3,将参数λ设置在3000和4800之间,对于χm=30,将参数λ设置在300和480之间,对于χm=300,将参数λ设置在30和48之间。注意,如前,在χm=30以及χm=3情况下的响应时间测量按10和100进行调整以将所有的3个模拟场景纳入在相同的图
中。与minMLU相比,模拟结果显示MRTP减少了大约30%的响应时间。
1500,将χm设置在20至32.5之间。图8显示了在λ=15的情况下对于流量输入的4种不同技术的响应时间计算。图9显示了在入=1500的情况下对于流量输入的4种不同技术的响应时间
计算。在两幅图中,MRTP明显优于其他技术。它相比于minMLU和RRF减少了大约40%至45%的响应时间。在低利用率状态下,MBP策略表现第二好,但是在高利用率状态下,它的性能衰退。
1000Mbps。基于流量需求创建流量输入,所述流量需求从Y.Zhang,Abilene traffic
matrices,http://www.cs.utexas.edu/yzhang/research/AbileneTM/中获取。将λ参数设置为10、100以及1000并且将χm值相应地设置以实现60%至100%之间的链路利用率。从响应时间结果中清楚的是当存在对于带宽的限制时,MRTP的益处下降。因此,通过控制器执行的带宽分配产生了改进的响应时间结果。
组件或具有充足处理能力、存储器资源以及网络吞吐量能力以处理在其上放置的必要工作
量的网络组件上实现。此外,内容管理单元106、网络监控单元108以及分配算法单元110的特征可以在一个或多个诸如计算机的通用计算组件上或具有充足处理能力、存储器资源以
及网络吞吐量能力以处理在其上放置的必要工作量的网络组件上实现。计算组件1100包括
与存储设备、输入/输出(I/O)设备1110以及网络/组件连接设备1112通信的处理器1102(其
可以被称为中央处理器或CPU),所述存储设备包括辅助存储器1104、只读存储器(ROM)
1106、随机存取存储器(RAM)1108。处理器1102可以作为一个或多个CPU芯片实现,或可以作为一个或多个专用集成电路(ASIC)的部分。
据存储设备。辅助存储器1104可以用于存储程序,当选择执行该程序时,所述程序被加载到RAM 1108中。ROM 1106用于存储指令并且可能存储在程序执行期间读取的数据。ROM 1106
是通常具有相对于辅助存储器1104的较大存储器容量来说小的存储器容量的非易失性存
储器。RAM 1108用于存储易失性数据并且可能存储指令。存取ROM 1106和RAM 1108两者通
常比存取辅助存储器1104更快。附加处理器和存储设备可以基于每个组件的功能并入控制
器102、节点/交换机104、内容管理单元106、网络监控单元108和分配算法单元110内。
工程的机会。用于执行基于内容的资源分配的结构包括通过考虑传输内容对象所花费的时
间并且通过关于最小化与其他内容对象的传输相关的传输时间而优化分配,将内容对象分
配到网络中的路径。
的流的总响应时间的MRTP策略。这基于对于每个流的带宽的估计,这可以通过控制器估计
或控制。通过控制器的带宽控制提供了分配资源的有效方式并且实施带宽共享函数以实现
公平以及性能的目标。
显著地增加了对于大范围网络利用率以及对于不同流量尺寸分布的网络的响应时间。在一
些评估场景中,在所有的情况下实现了减少延迟,相比minMLU,响应时间得到了多达50%的改进。
可读介质中。短语“代码”包括任何类型的计算机代码,包括源代码、标代码和可执行代码。
短语“计算机可读介质”包括能够被计算机访问的任何类型的介质,诸如只读存储器(ROM)、随机存取存储器(RAM)、硬盘驱动器、光盘(CD)、数字视频光盘(DVD),或者任何其他类型的存储器。
易于辨别的。因此,示例实施例的上述说明不定义或限制本发明。在不偏离由随附权利要求定义的本发明的范围的情况下,其他的改变、替换以及变化也是可能的。