用于减少信息中心网络的响应时间的方法和装置转让专利

申请号 : CN201580039730.5

文献号 : CN106537824B

文献日 :

基本信息:

PDF:

法律信息:

相似专利:

发明人 : 塞尔哈·纳奇姆·阿夫希塞德里克·韦斯特法尔

申请人 : 华为技术有限公司

摘要 :

一种用于减少信息中心网络的响应时间的方法包括:接收来自进入网络的内容对象的入口节点的指示,所述内容对象与通过所述网络的新的传送流相关联;识别用于所述内容对象的所述网络中的出口节点和所述内容对象的尺寸。部分基于所述内容对象的所述尺寸,确定用于所述新的传送流的待完成量和带宽。确定所述网络中的现有传送流的待完成量和带宽。确定从所述入口节点到所述出口节点的用于所述新的传送流的所述网络中的候选路径的集合。对于每个候选路径,基于所述待完成量和带宽,估计对于每个候选路径完成所有传送流的总响应时间。选择用于所述新的传送流的具有最低总响应时间的候选路径。

权利要求 :

1.一种用于减少信息中心网络的响应时间的方法,所述方法包括:接收来自进入网络的内容对象的入口节点的指示,所述内容对象与通过所述网络的新的传送流相关联;

识别用于所述内容对象的所述网络中的出口节点;

识别所述内容对象的尺寸;

部分基于所述内容对象的所述尺寸,确定用于所述新的传送流的待完成量和带宽;

确定所述网络中的现有传送流的待完成量和带宽;

确定从所述入口节点到所述出口节点的用于所述新的传送流的所述网络中的候选路径的集合;

基于所述待完成量和带宽,估计对于每个候选路径完成所有传送流的总响应时间;以及选择用于所述新的传送流的所述候选路径中具有最低总响应时间的一个候选路径。

2.根据权利要求1所述的方法,其中估计所述总响应时间包括:识别完成所述现有传送流的时间;以及一旦完成了所述现有传送流,更新所述总响应时间和待完成量。

3.根据权利要求2所述的方法,进一步包括:确定是否存在任何待完成量;以及一旦确定了不存在待完成量,提供所述总响应时间。

4.根据权利要求2所述的方法,进一步包括:确定是否存在任何待完成量;以及处理所述现有传送流,直到不存在待完成量为止。

5.根据权利要求1所述的方法,进一步包括:将所述内容对象的所述尺寸与阈值作比较;以及响应于所述内容对象的所述尺寸超过了阈值,确定所述候选路径的集合以生成所述总响应时间。

6.一种用于减少信息中心网络的响应时间的装置,包括:存储器,配置为存储数据和指令代码;以及处理器,一旦执行了所述指令代码,配置为:接收来自进入网络的内容对象的入口节点的指示,所述内容对象与通过所述网络的新的传输流相关联;

识别用于所述内容对象的所述网络中的出口节点;

识别所述内容对象的尺寸;

部分基于所述内容对象的所述尺寸,确定用于所述新的传送流的待完成量和带宽;

确定所述网络中的现有传送流的待完成量和带宽;

确定从所述入口节点到所述出口节点的用于所述新的传送流的所述网络中的候选路径的集合;

基于所述待完成量和带宽,估计对于每个候选路径完成所有传送流的总响应时间;以及选择用于所述新的传送流的所述候选路径中具有最低总响应时间的一个候选路径。

7.根据权利要求6所述的装置,其中估计所述总响应时间的所述处理器进一步被配置为:识别完成所述现有传送流的时间;以及一旦完成了所述现有传送流,更新所述总响应时间和待完成量。

8.根据权利要求7所述的装置,其中所述处理器进一步被配置为:确定是否存在任何待完成量;以及一旦确定了不存在待完成量,提供所述总响应时间。

9.根据权利要求7所述的装置,其中所述处理器进一步被配置为:确定是否存在任何待完成量;以及处理所述现有传送流,直到不存在待完成量为止。

10.根据权利要求6所述的装置,其中所述处理器进一步被配置为:将所述内容对象的所述尺寸与阈值作比较;以及响应于所述内容对象的所述尺寸超过了阈值,确定所述候选路径的集合以生成所述总响应时间。

11.一种计算机可读介质,包括用于减少信息中心网络的响应时间的代码,一旦执行所述代码可操作地用于:接收来自进入网络的内容对象的入口节点的指示,所述内容对象与通过所述网络的新的传送流相关联;

识别用于所述内容对象的所述网络中的出口节点;

识别所述内容对象的尺寸;

部分基于所述内容对象的所述尺寸,确定用于所述新的传送流的待完成量和带宽;

确定所述网络中的现有传送流的待完成量和带宽;

确定从所述入口节点到所述出口节点的用于所述新的传送流的所述网络中的候选路径的集合;

基于所述待完成量和带宽,估计对于每个候选路径完成所有传送流的总响应时间;以及选择用于所述新的传送流的所述候选路径中具有最低总响应时间的一个候选路径。

12.根据权利要求11所述的计算机可读介质,其中所述代码可操作地以估计所述总响应时间包括代码可操作地用于:识别完成所述现有传送流的时间;以及一旦完成了所述现有传送流,更新所述总响应时间和待完成量。

13.根据权利要求12所述的计算机可读介质,其中所述代码进一步可操作地用于:确定是否存在任何待完成量;以及一旦确定了不存在待完成量,提供所述总响应时间。

14.根据权利要求12所述的计算机可读介质,其中所述代码进一步可操作地用于:确定是否存在任何待完成量;以及处理所述现有传送流,直到不存在待完成量为止。

15.根据权利要求11所述的计算机可读介质,其中所述代码进一步可操作地用于:将所述内容对象的所述尺寸与阈值作比较;以及响应于所述内容对象的所述尺寸超过了阈值,确定所述候选路径的集合以生成所述总响应时间。

说明书 :

用于减少信息中心网络的响应时间的方法和装置

技术领域

[0001] 本发明一般地涉及信息中心网络的数据包传输,并且更具体地涉及一种用于减少信息中心网络的响应时间的方法和装置。

背景技术

[0002] 网络中的拥塞导致了数据包丢弃以及高排队延迟,这增加了延迟时间以及流完成时间。作为示例,公司在每100ms的额外延迟时间会损失1%的销售额。页面生成中的额外的
0.5s延迟时间会减少20%的网站流量。典型的机制依赖于历史和概率统计方法。过往,创建流量矩阵并且为路径分配权重以最小化最大链路利用率(minMLU)。概率上,期望将这些链
路利用图收敛到最优值,然而这种收敛可能出现的太晚以至于不能借助改变网络资源分配
而缓解拥塞。某些工作仅检测了数据中心网络中大的,或“象型”尺寸的流并且防止它们在相同路径上的碰撞。其他技术使用启发法以包括基于内容的差异化并且依赖于历史数据。
相等最短路径之间的基于哈希的负载平衡是减少网络中拥塞的另一尝试。与某些源/目的
地滤波器匹配的IP流可以包括不同的应用。此外。IP流是一种用于分配的资源数量的较差
描述符。另外,不存在明确的语义以发送流结束的信号。
[0003] 在网络中需要较好的流量工程和资源分配机制以减少拥塞并且因此减少流的完成时间。当前的互联网架构对于该目标来说是不适合的。

发明内容

[0004] 由上可知,本领域技术人员可以认识到出现了对减少网络中的拥塞,特别是减少信息中心网络中的拥塞的技术的需求。根据本发明,提供了一种用于减少信息中心网络的
响应时间的方法和装置,其极大地减少或基本上消除了与当前减少网络拥塞技术相关联的
问题以及缺点。
[0005] 根据本发明的实施例,提供了一种用于减少信息中心网络的响应时间的方法,所述方法包括:接收来自进入网络的内容对象的入口节点的指示,所述内容对象与通过所述
网络的新的传送流相关联。识别用于所述内容对象的所述网络中的出口节点,以及识别所
述内容对象的尺寸。部分基于所述内容对象的所述尺寸,确定用于所述新的传送流的待完
成量和带宽。确定所述网络中的现有传送流的待完成量和带宽。确定从所述入口节点到所
述出口节点的用于所述新的传送流的所述网络中的候选路径的集合。对于每个候选路径,
基于所述待完成量和带宽,估计对于每个候选路径完成所有传送流的总响应时间。选择用
于所述新的传送流的具有最低总响应时间的候选路径。
[0006] 本发明描述了优于常规网络拥塞减少技术的许多技术优点。例如,一个技术优点在于识别用于内容对象的通过网络的路径,所述路径对网络内的现有内容传送流具有最少
的影响。另一技术优点在于在识别候选路径中在网络中的控制器的控制下,提供了带宽共
享。又一技术优点在于相比于常规技术响应时间的增益。其他技术优点根据随附附图、说明书以及权利要求,对本领域技术人员来说是显而易见的和可辨识的。

附图说明

[0007] 为了更全面地理解本发明及其优点,现在参考下面结合附图的说明,其中相同的附图标记表示相同部件,其中
[0008] 图1示出了实施基于内容的流量分配机制的网络;
[0009] 图2示出了用于执行网络中的路径选择的简化过程;
[0010] 图3示出了用于在路径选择过程中估计特定候选路径的简化过程;
[0011] 图4示出了用在将路径选择过程与常规技术作比较中的第一网络类型;
[0012] 图5示出了用在将路径选择过程与常规技术作比较中的第二网络类型;
[0013] 图6示出了在具有第一流量需求的第一网络类型中将路径选择过程与特定常规技术作比较的图形;
[0014] 图7示出了在具有第二流量需求的第一网络类型中将路径选择过程与特定常规技术作比较的图形;
[0015] 图8示出了在具有第一流到达速率的第二网络类型中将路径选择过程与各种常规技术作比较的图形;
[0016] 图9示出了在具有第二流到达速率的第二网络类型中将路径选择过程与各种常规技术作比较的图形;
[0017] 图10示出了显示带宽分配对以不同流到达速率的路径选择过程和特定常规技术的影响的图形;以及
[0018] 图11示出了适用于执行路径选择过程的网络中的实体的通用计算组件的简化示例。

具体实施方式

[0019] 如下所述的图1到图11以及用于描述该专利中的本发明的原理的各种实施例仅是说明性的,并且不应以任何方式来解释以限制本发明的范围。本领域技术人员将理解本发
明的原理可以实施在任何类型的适当安排的设备或系统中。在一个附图中所示且所讨论的
特征视情况可以实施在一个或更多个其他的附图中。
[0020] 信息中心网络(ICN)支持由来自内容的用户对于内容的请求而发起的流。用户可以在网络内或在不同的网络域中。网络接收所述请求并且内容流回通过网络。将内容对象
映射到单一流并且将组成一个内容对象的所有组块(chunk)分配给通过网络的相同的路
径。ICN可以支持来自多个源的组块的传输,然而为了讨论的目的,假设所有的组块沿着相同的路径。
[0021] 如果执行了严格的路径对称,则可以对所述请求作出流量分配决定。也就是说,如果用户发送了识别内容对象的CCN/NDN兴趣数据包,则可以通过在内容的期望路径上将兴趣数据包路由到持有数据的位置,来自执行路径选择。然而,为了讨论的目的,一旦内容流从直接连接到网络的主机或从不同域进入网络,则由网络作出用于将内容传输到请求者的
基于内容的路由决定。
[0022] 内容唯一地(例如,在ICN中,通过名字)与它的标识符相关联,并且内容尺寸也与该标识符相关联。任何常规的机制可以用来创建内容名字到它的尺寸的映射。
[0023] 更正式地,考虑网络图G=(N,E),其中N为节点的集合并且E为链路的集合。每个单独链路e具有容量ce。在顶点(源)s进入网络且在顶点(目的地)d离开的每个内容(或流)zs,d可以从Ks,d个不同路径的集合中选择路径Pks,d(Pks,d,k=1;:::;Ks,d),其中路径是从u到v的链路E的集合中的链路e的非循环序列。如果链路e属于对于一些s,d,k的路径Pks,d,则我们说e∈Pks,d,将Ks,d假设为相对较低,以简化分配决定以及管理复杂性。在示例性评估中,Ks,d的范围从3到5。
[0024] 根据传统的联网模型,尽管本发明适用于任何类型的流量,但为了测试目的根据泊松过程使用速率λs,d生成从s到d的流量流。由于每个流对应于一段内容并且由于网络对内容尺寸进行访问,因此一旦流z到达网络中,网络就对流尺寸(其还由z表示)进行访问。尺寸z可以从已知的分布(可以经验地测量的内容尺寸的分布的已知分布)中使用平均值 来
获取。将对于流z的网络的响应时间定义为在网络的入口处的z的第一组块的第一到达与直
到在网络的出口处的流z的最后组块的最后离开之间的时间。
[0025] 将在到达速率λs,d下的流量的数量和z的分布假设为稳定的并且可以按照如下方式被分配到路径Pks,d,所述方式为:被分配到每个链路e的负载(平均上)小于该链路的容量。换句话说,存在其中0≤πks,d≤1并且∑kπks,dπ=1的系数ππks,d,1;:::;Ks,d,以便链路e的链路利用率ue满足下面的可行性条件:
[0026]
[0027] 应注意的是矩阵 对应于网络中的流量矩阵,并且πks,d对应于静态流量工程决定。例如,可能的流量工程策略可以使用概率πks,d将从s到达至d的流随机分k k
离在Ks,d个可能路径p s,d上。术语minMLU表示随机分离策略,其中系数πs,d的选择最小化maxe∈E ue。这是最小化最大链路利用率的典型的min-MLU流量工程策略。
[0028] 一个重要的方面在于仅修改了通过网络的对象的路径,而不修改提供到网络的流量的数量。因此,如果存在对于等式1的解决方案,则网络将是稳定的(即,能够传输所有的流量),并且使网络保持稳定的所有策略的链路利用率将是相同的。本发明的目的不在于提高链路利用率,而在于减少传输流(或相等地,通过小定理,在任何给定的时间进行中的流的数量)的延迟。
[0029] 另一关键方面在于在给定时间考虑流的数量。对于极大数量的流,根据系数πssdk的流的概率分离将产生通过中心极限定理收敛到等式1的结果。这意味着在这种情况下的链路利用率将接近于最佳。进一步地,对于非常大数量的流,资源分配需要保持简单以跟上速度。然而,对于较小规模并且在重尾流尺寸分布的情况下,概率资源分配将具有更糟糕的结果(将显示在下面的评估中)。
[0030] 当前网络缺乏使该设想成为可能的能力。由于与不存在比给定超时长的干扰的IP头滤波器相匹配的数据包的序列可以包含多个不同的内容、应用或甚至用户,因此IP流难
以适当地定义。细粒度资源分配创造了对于底层网络以及用于提供分配的机制的大量要
求。当前网络因为缺乏适当的工具以及提取而不支持这种机制。为执行网络中的资源分配
而考虑了4种要求,即基于内容的提取、基于内容的控制面、流量估计以及可扩展性。
[0031] 对于基于内容的提取,为了执行细粒度资源分配,网络层需要能够唯一地识别每个流并且能够区别不同的内容和用户。当前的IP架构已经向着执行每个流决定的控制面方
向演进。由于新的流进入网络,因此应用通过控制器设置的规则。由于期望实现内容特定的流量工程,因此可以将这种机制扩展为应用到内容。
[0032] 网络的控制面扩展到边缘并且能够为每段内容(或它的子集)作出一次路由决定。决定可以是如在入口边缘分配标签(诸如MPLS标记)那样简单,以便流沿着给定路径通过网
络结构(fabric),直到它到达出口边缘。控制面还需要意识到网络结构中的拥塞以作出适
当的路径选择。对此,利用网络监控设施来跟踪分配到节点的外向链路的流量的数量。换句话说,当将具有尺寸z的流zs,d分配到第k个路径Pks,d时,将z添加到由路径Pks,d穿过的边缘的待完成量(backlog)。对于监控拥塞的节点,要求对流以及剩余待完成量的描述。尽管将策略设计为考虑通过网络的所有流以便减少网络的响应时间,仍可以实施忽略某一阈值下
的所有流并且对于资源分配聚焦到仅识别象型流的策略。根据分配到路径的流的知识,流
量分配机制能够获得转发面的一些行为。
[0033] 为了流量估计,控制面需要意识到在给定流条件下的转发面的行为。TCP是使网络内的转发行为(例如,对拥塞的反应)视端点处的策略而定的端到端协议。为了适当地分配
资源,将控制面设计为理解它的决定对于流的影响并且设计为具有TCP行为的模型(基于先
前观察的网络状态的理论模型或经验模型)。对此的一个潜在方式是让控制面控制该TCP行
为。这违反了当前的方式,在当前的方式中将传输层的控制委托给了传输的端点。
[0034] 任何资源分配策略必须随着网络的尺寸按比例增加。对于大的规模,概率方法将接近最优。可以实施2层策略,即在核心中的概率minMLU机制和在边缘的动态分配。该2层策略提供了处理不同规模的网络的灵活性。
[0035] 图1显示了实施满足上述要求的基于内容的流量分配机制的网络100中的元素。网络100使用为内容命名的ICN协议,以便内容对象由它的名字唯一地识别。中心控制器102在网络100的边缘处物理地或逻辑地作出基于内容的决定。边缘实体通常是连接到控制器102
的一个或多个节点/交换机104。
[0036] 控制器102包括内容管理单元106、网络监控单元108以及分配算法单元110,以便用于通过在网络100中的节点/交换机104处设置规则或通过为预计算路径分配标记从而为
内容对象选择通过网络100的路径。可以将控制器102实施为OpenFlow的扩展。内容名字到
其尺寸的映射是直接简单的。
[0037] 内容管理单元106将内容映射到网络100的缓存中的位置或映射到网络100外的出口路径,监控诸如识别内容尺寸的内容信息,并且保存内容到其尺寸的映射的数据库。
[0038] 网络监控单元108通过针对网络状态轮询节点/交换机104,通过从输入以及预计的网络演变或上述两者的组合估计状态,维持对于网络100内的状态的观察。
[0039] 分配算法单元110基于内容管理单元106和网络监控单元108的输入,决定对于(源,目的)对来说哪个候选路径将提供最好的网络性能。
[0040] 图2显示了用于执行网络100中提供的路径选择的简化过程200。过程200开始于框202,其中网络正运行且等待将被接收的新的流。一旦接收了新的流的内容,入口节点/交换机104就在框204执行用于发现控制器102的查找操作并且启动新的流的配置。在框206,内
容管理单元106识别网络100中的目的地端节点104,网络监控单元108确定初始带宽和待完
成量,并且分配算法单元110计算候选路径。对于每个候选路径,在框208、210和212中通过分配算法单元110针对特定路径计算现有流的响应时间。尽管在执行这些计算时,可以包括任何数量的候选路径,使用待评估的3个候选路径来显示过程200。在框214,分配算法单元
110选择具有最低总完成时间的路径。在框216,将路径决定提供给入口节点/交换机104。在框218,入口节点/交换机104在所选路径上传输内容。处理200返回到框202以等待接收新的流。
[0041] 图3显示了由分配算法单元110执行的对于特定候选路径的简化过程300。在框302,过程300开始,其中分配算法单元110使用现有流、相关路径、带宽分配以及待完成量。
在框304,分配算法单元110接收对于所有现有流的带宽分配。在框306,处理每个流直到流已经完成为止。一旦流完成,更新响应时间和剩余流的待完成量。在框308,判断总剩余待完成量是否已经达到零。如果否,则过程300返回到框302以迭代剩余流。一旦将所有的待完成量处理到零,在框310计算总响应时间以便于图2中框214处的其他候选路径的其他总响应
时间的比较。
[0042] 过程300中提供的最小响应时间策略(MRTP)基于下述参数和函数。参数zi表示网络中待传输的第i个内容以及它的以字节为单位的尺寸。对于从源s∈所有源S到目的地d∈
所有目的地D的每个点到点内容传输,待完成量函数Bzi(t)与表示由内容zi从s到d处于时间t生成的待完成量的每个内容传输相关联。让tzi作为内容zi的到达时间,于是Bzi(t)作为t的非增函数,t∈[tzi,+∞),t从内容尺寸zi减小到0。例如,如果考虑使用链路的全容量c的流,则可以如下所示的给出Bzi(t):
[0043] Bzi(t)=[zi-c(t-tzi)]+  (2)
[0044] 其中[g]+=max{g,0}。总的来说,由于流交互的动态以及传输协议(例如,TCP)的动态,通过从原始内容尺寸中减去已经穿过链路的内容的体积来计算在每个链路的Bzi(t)是容易的。Bzi(t)对应于流zi未完成的、剩余的数量。要注意的是该待完成量不在网络内,而是与对于特定对象还没有通过网络传输的数据量相对应。
[0045] 带宽共享函数在每单位时间将f(zi)单位的带宽分配给对象zi。例如,如果TCP是传输协议,则可以将f(zi)看作通过携带zi的TCP会话实现的速率。
[0046] 对于所有的i=1;:::;n-1(其中,第n个到达待被安排)给出f和B(zi),可以估计对于所有内容传输的完成时间。这是一种观察下一内容对象(即,对象i)直至结束的迭代过程,以便对于所有的i=1;:::;n-1来说,B(zj)/f(zj)≤B(zi)/f(zi)。一旦zi完成,我们就具有不同集合的对象(其中B(zi)>0的所有对象减去zj)。对所有的对象执行迭代,以便B(zi)>0从而计算每个对象的完成时间。参数Tv(zi)表示在分配集合V下的zi的完成时间,所述分配集合V描述了对象z1;:::;zn-1的路径分配。
[0047] 对于到达zn,存在可以分配zn的源s与目的地d之间的所有路径Ks,d的子集Ps,d。识别子集Ps,d={Pks,d,k=1;:::;Ks,d}的示例性技术是使用Yen的k最短路径算法的输出,所述算法被改进以增加路径的多样性,从而获取将从其中作出选择的Ks,d最短路径的集合。K表示候选路径子集的基数,并且VPi,i=1;:::;k表示描述当前分配加上zn到第i条路径Pi∈Ps,d的潜在分配的分配集合。例如,VP1是具有待完成量B(zi)的z1;:::;zn-1到它们的当前路径的分配以及具有待完成量L或在该情况下,对象尺寸)B(zn)的zn到Ps,d中的第一路径的分配。选择路径P∈Ps,d以便:
[0048]
[0049] 即,具有系统中的所有对象的最小总完成时间的路径。
[0050] 用于源于节点a且去往节点b的进入内容zn的路径选择的最小响应时间策略(MRTP)可以总结如下。对于每个(s,d)流量需求对的每个候选路径Ps,d以及正被传递的每个内容zi的B(zi)(t),其中i=1,...,n-1,B(zi)(t)>0,从候选路径选择一个路径P∈Pa,b,1≤i≤Ka,b且通过V->V+zn→P将其插入到分配集合。给出带宽函数f(zi)以及剩余的待完成量B(zi),计算每个流的期望响应时间TV(zi)。发现检查时间tcheck,其是由tcheck=miniTV(zi)发现的最小期望响应时间。通过B(zi)=(B(zi)-tcheck xf(zi))+更新在时间tcheck每个流的待完成量。如果所有的流没有被完全传送,则递归返回且计算在检查点之后未终止流的响应时
间。通过Tv(zi)=Tv(zi)+tcheck更新流的响应时间,其中TV(zi)是对于候选分配V的流zi的合计响应时间。如果所有的流被完全传送了,则计算所有流的总响应时间为
迭代地返回并且选择下一候选路径,直到所有候选路径被连续选择为
止。根据每个候选路径场景Tv的总响应时间,选择将给出最小总响应时间的一个。将该路径加入到路径的现有集合中并且在所选路径上传送进入内容zn。
[0051] 最小响应时间策略(MRTP)要求待完成量B(zi)以及带宽共享函数f(zi)的知识。可以在边缘处监控待完成量或者如果函数f(zi)在所有时间是被知道的,则可以计算该待完
成量。可以从传输层的模型或从网络状态的经验测量估计函数f(zi)、Vi。然而,为了实现性能目标,由控制器在宽带分配时设置函数f(zi),以便公平地共享带宽并且最小化完成时
间。因为从网络边缘到客户的带宽由于用户的移动性以及异构访问条件会变化,所以这种
带宽分配仅在网络结构内部是可实用的。然而,在ICN中,这种带宽共享计算可被用来将数据传送到在网络的边缘处的缓存。
[0052] 如下所述,可以由控制器102中的网络监控单元108来执行带宽共享函数。对于所有的链路e∈E,计算共享每个链路的流的数量pe。对于每个对象zi,通过BWmin,zi=mine∈Pzice/pe,发现最小瓶颈带宽限制。通过BWbott=mini BWmin,zi,发现所有流中的最小带宽限制。对于满足BWmin,zi=BWbott的任何流,将BWbott带宽分配给该流。在带宽分配后,更新链路容量并且从列表去除已分配的流。如果仍然存在等待带宽分配的流,则带宽共享函数返回并
且为每个待定流迭代。一旦处理了所有的流,网络监控单元108将带宽分配提供到分配算法单元110用于路径选择。
[0053] 可以使用Java模拟器估计提出的MRTP针对minMLU、MBP以及循环格式(RRF)的响应时间性能。可以在K.Su和C.Westphal的“On the benefit of information centric 
networks for traffic engineering”,IEEE ICC会议,2014年6月发现minMLU和MBP的技术细节。在循环格式中,每个源-目的地对具有一Ks,d路径的集合。每次新的流进入到这两个节点之间的网络,以循环格式选择这些路径。对于每个模拟设置,在两个不同的网络和几个不同的流量模型和参数,执行提出的MRTP与常规分配技术之间的评估。在下列评估中使用带
宽共享函数,由于使用该带宽共享的minMLU的性能总是好于使用TCP的minMLU的性能分配。
因此,通过比较MRTP算法与minMLU和该带宽共享,对minMLU和TCP而言,MRTP的增益被低估。
[0054] 图4描述了在评估中使用的第一网络类型。该第一网络类型是具有11个节点和14个边缘的阿比林(Abilene)(WAN)网络,是由Intemet2团队建立的骨干网。除了印第安纳波
利斯和亚特兰大中的节点之间的链路的容量为2480Mbps以外,每个链路的容量为
9920Mbps。基于由B.Fortz和M.Thorup的“Internet traffic engineering by optimizing OSPF weights”,INFOCOM 2000,Nineteenth Annual Joint Conference of the IEEE 
Computer and Communications Societies,Proceedings,IEEE,volume 2,pages 519-528 vol.2,2000给出的OSPF链路权重和Yen的算法来计算每个源-目的地节点对的三个候选路
径。不同的流量需求矩阵用于表征流量输入。它们是均匀的基于重力的,且是来自Y.Zhang,Abilene traffic matrices,http://www.cs.utexas.edu/yzhang/research/AbileneTM/
的现实模型。在5分钟的周期内,通过测量阿比林网络中的每个源-目的地对的端到端流量
来建造现实矩阵。针对对象尺寸和到达时间分别通过使用帕累托分布和泊松过程来创建流
量输入。帕累托参数χm和α以及柏松参数λ在不同的模拟中变化以测量各种流量情况下的性能。
[0055] 图5描述了在评估中使用的第二网络类型。第二网络类型是包括8个机架交换机和3个核心交换机的数据中心(DC)网络,其构成了组合的11个节点。网络是完全双向连接的,这意味着在每个机架与核心交换机之间存在一条链路。将统一的流量需求矩阵假设在DC网
络中的每个机架交换机之间。在每个机架交换机对之间存在3个不相交且等价的路径。这些路径具有越过核心交换机中的一个核心交换机的2跳的长度。
[0056] 如上所述,使用网络模拟器或Java模拟器。在两个模拟器中,目标是测量流量输入的集合的平均响应时间并且比较不同算法的结果。内容的响应时间是对于内容的最后数据包的确认的到达与第一数据包到达之间的差值。
[0057] 图6显示了基于流量需求在阿比林(Abilene)(WAN)网络中使用第一Java模拟场景的对于MRTP和minMLU的响应时间结果,从Y.Zhang,Abilene traffic matrices,http://www.cs.utexas.edu/yzhang/research/AbileneTM/中获取所述流量需求。为了创造不同的
流量输入,应用对于χm的3个不同值3、30和300。对于χm=300,流到达速率(λ)在12和18之间变化,对于χm=30,流到达速率(λ)在120和180之间变化,并且对于χm=3,流到达速率(λ)在
1200和1800之间变化。使用如下公式计算流量负载:
[0058]
[0059] 其对应于在具有该特定值的60%链路利用率与100%链路利用率之间。使用25084Mbps的流量负载满足对于该流量矩阵的该网络中的100%的链路利用率。注意在χm=
30以及χm=3情况下的响应时间测量按10和100进行调整以将所有的3个模拟场景纳入在相
同的图中。与minMLU相比,MRTP减少了大约40%的平均响应时间。
[0060] 图7显示了在阿比林(Abilene)(WAN)网络中使用第二Java模拟的对于MRTP和minMLU的响应时间结果,其具有基于重力的流量需求。在该模型下,它要求65140Mbps的流量负载以实现100%的链路使用率,因此更新到达速率参数λ以实现60%和100%的链路使
用率之间的链路使用率。对于χm=3,将参数λ设置在3000和4800之间,对于χm=30,将参数λ设置在300和480之间,对于χm=300,将参数λ设置在30和48之间。注意,如前,在χm=30以及χm=3情况下的响应时间测量按10和100进行调整以将所有的3个模拟场景纳入在相同的图
中。与minMLU相比,模拟结果显示MRTP减少了大约30%的响应时间。
[0061] 图8和图9显示了在具有统一流量需求矩阵的DC网络中使用Java模拟的响应时间结果。除了MRTP和minMLU,在模拟中还包括MBP和RRF。如在WAN模拟中,安排流量输入参数以便他们对应在60%至100%的链路使用率之间。在统一流量模型下,DC网络要求229151Mbps的流量负载以实现100%的链路使用率。对于λ=15,将χm设置在2000至3250之间,对于λ=
1500,将χm设置在20至32.5之间。图8显示了在λ=15的情况下对于流量输入的4种不同技术的响应时间计算。图9显示了在入=1500的情况下对于流量输入的4种不同技术的响应时间
计算。在两幅图中,MRTP明显优于其他技术。它相比于minMLU和RRF减少了大约40%至45%的响应时间。在低利用率状态下,MBP策略表现第二好,但是在高利用率状态下,它的性能衰退。
[0062] 图10显示了使用Java模拟场景的对于MRTP和minMLU的响应时间结果以观察带宽分配策略对于响应时间减少的效果。对于Java模拟,将分配给任何流的最大带宽设置为
1000Mbps。基于流量需求创建流量输入,所述流量需求从Y.Zhang,Abilene traffic 
matrices,http://www.cs.utexas.edu/yzhang/research/AbileneTM/中获取。将λ参数设置为10、100以及1000并且将χm值相应地设置以实现60%至100%之间的链路利用率。从响应时间结果中清楚的是当存在对于带宽的限制时,MRTP的益处下降。因此,通过控制器执行的带宽分配产生了改进的响应时间结果。
[0063] 如上所示,使用稍微高成本的控制器内复杂性实现了响应时间的显著增益。然而,细粒度资源分配的增益和有效性要比控制器内为了实施本文所述特征的复杂性的任何附加成本更有价值。
[0064] 由于所有新的对象均调用控制器,因此可以提高该方法的可扩展性。例如,使用阈值以仅监控象型流会减少调度决策的数量。可以漏掉分配短流,不会有重大的损失。
[0065] 该算法测量总响应时间,但是其可以被修改为包括其他的目标。例如,一个目标可以是通过流的尺寸标准化响应时间以便不损失短流。其他的性能目标可以针对路径选择而计算。
[0066] 还可以优化带宽估计机制。例如,对于在稳定状态下运行的网络,学习方法可以允许网络控制器基于先前运行访问特定流的性能。适当的资源分配还应该分配带宽,并且传输层演进成支持该带宽分配。
[0067] 图11示出了适合实现本文所述的一个或多个实施例的通用计算机组件1100的简化示例。对于控制器102和节点/交换机104的上述组件可以在诸如计算机的任何通用计算
组件或具有充足处理能力、存储器资源以及网络吞吐量能力以处理在其上放置的必要工作
量的网络组件上实现。此外,内容管理单元106、网络监控单元108以及分配算法单元110的特征可以在一个或多个诸如计算机的通用计算组件上或具有充足处理能力、存储器资源以
及网络吞吐量能力以处理在其上放置的必要工作量的网络组件上实现。计算组件1100包括
与存储设备、输入/输出(I/O)设备1110以及网络/组件连接设备1112通信的处理器1102(其
可以被称为中央处理器或CPU),所述存储设备包括辅助存储器1104、只读存储器(ROM)
1106、随机存取存储器(RAM)1108。处理器1102可以作为一个或多个CPU芯片实现,或可以作为一个或多个专用集成电路(ASIC)的部分。
[0068] 辅助存储器1104典型地包括一个或多个磁盘驱动器或磁带驱动器,并且用于数据的非易失性存储,并且如果RAM 1108不够大以至于无法容纳所有工作数据,则用作溢出数
据存储设备。辅助存储器1104可以用于存储程序,当选择执行该程序时,所述程序被加载到RAM 1108中。ROM 1106用于存储指令并且可能存储在程序执行期间读取的数据。ROM 1106
是通常具有相对于辅助存储器1104的较大存储器容量来说小的存储器容量的非易失性存
储器。RAM 1108用于存储易失性数据并且可能存储指令。存取ROM 1106和RAM 1108两者通
常比存取辅助存储器1104更快。附加处理器和存储设备可以基于每个组件的功能并入控制
器102、节点/交换机104、内容管理单元106、网络监控单元108和分配算法单元110内。
[0069] 总的来说,流量工程架构和分配算法被呈现为利用信息中心网络的提取以执行在内容水平上的细粒度资源分配。不同于IP,ICN提供了适当的提取以增加网络资源的效率并且减少了网络的响应时间。ICN提供了通过允许以内容的粒度进行资源调度来重思考流量
工程的机会。用于执行基于内容的资源分配的结构包括通过考虑传输内容对象所花费的时
间并且通过关于最小化与其他内容对象的传输相关的传输时间而优化分配,将内容对象分
配到网络中的路径。
[0070] 控制器可以计算候选路径集合的估计的响应时间并且甚至相对小的这种候选路径的集合可以在响应时间产生显著增益。控制器合并将流量分配到路径从而最小化网络中
的流的总响应时间的MRTP策略。这基于对于每个流的带宽的估计,这可以通过控制器估计
或控制。通过控制器的带宽控制提供了分配资源的有效方式并且实施带宽共享函数以实现
公平以及性能的目标。
[0071] 与先前的提议相比,利用所述架构实现了响应时间的显著增益,所述架构包括最小化最大链路利用率(minMLU)的流量工程策略。在多网络拓扑以及网络状态下估计的MRTP
显著地增加了对于大范围网络利用率以及对于不同流量尺寸分布的网络的响应时间。在一
些评估场景中,在所有的情况下实现了减少延迟,相比minMLU,响应时间得到了多达50%的改进。
[0072] 在一些实施例中,通过计算机程序实施或支持一个或多个设备的一些或所有的功能或处理,由计算机可读程序代码形成所述计算机程序并且所述计算机程序包含在计算机
可读介质中。短语“代码”包括任何类型的计算机代码,包括源代码、标代码和可执行代码。
短语“计算机可读介质”包括能够被计算机访问的任何类型的介质,诸如只读存储器(ROM)、随机存取存储器(RAM)、硬盘驱动器、光盘(CD)、数字视频光盘(DVD),或者任何其他类型的存储器。
[0073] 阐述贯穿本专利文档使用的特定词语和短语的定义会是有利的。术语“包括”和“包含”以及它们的衍生词意味着包括而不限于。术语“或”是包括的,意味着和/或。“相关联”和“与其相关联”以及其衍生词意味着包括、被包括在内、互连于、包含、被包含在内、连接到或于、耦合到或于、通信于、合作与,交织、并列、接近于、绑定到或于,具有,具有特性等。
[0074] 虽然本发明已经描述了某些实施例以及一般相关的方法,然而这些实施例和方法的变化以及置换对于本领域技术人员来说将是显而易见的并且是可以被本领域技术人员
易于辨别的。因此,示例实施例的上述说明不定义或限制本发明。在不偏离由随附权利要求定义的本发明的范围的情况下,其他的改变、替换以及变化也是可能的。