一种光网络业务故障恢复的方法和系统转让专利
申请号 : CN202110297482.1
文献号 : CN113055084B
文献日 : 2022-04-26
发明人 : 盛伟
申请人 : 烽火通信科技股份有限公司
摘要 :
权利要求 :
1.一种光网络业务故障恢复的方法,其特征在于,包括:集中控制器根据网络中所有分布式控平节点上报的全网拓扑信息和业务连接信息,同步建立全网拓扑信息库和全网业务连接信息库;
接收网络故障链路信息上报,根据故障业务类型确定重路由的计算类型,根据重路由的计算类型,分配集中控制器或分布式控平节点对重路由的连接路径进行计算,为集中控制器建立第一类连接队列,将需要集中控制器计算的重路由连接放入第一类连接队列,为每个分布式控平建立一个第二类连接队列,将需要分布式控平节点计算的重路由连接放入各自对应的第二类连接队列,其中,第一类连接队列和第二类连接队列中的重路由连接根据故障业务上报顺序和/或故障业务的优先级排序;
集中控制器生成每个故障业务对应的重路由连接路径计算任务,集中控制器根据重路由的计算类型将第一类连接队列中的计算任务依次分配至集中控制器进行处理,将第二类连接队列中的计算任务依次分配至分布式控平节点进行处理,集中控制器根据计算结果向控平节点发送重路由路径;
根据重路由后的连接状态更新全网拓扑信息库和全网业务连接信息库。
2.根据权利要求1所述的光网络业务故障恢复的方法,其特征在于,所述重路由的计算类型,具体包括:
集中控制器基于全网拓扑信息库和全网业务连接信息库计算重路由的连接路径;
和/或,集中控制器向故障节点所在的控制平面发送计算请求,由控制平面中的分布式控平节点基于全网拓扑信息库对重路由进行分布式计算,并将重路由结果上报至集中控制器进行校验。
3.根据权利要求1所述的光网络业务故障恢复的方法,其特征在于,所述根据计算结果进行重路由,具体包括:
向故障节点所在的控制平面下发重路由的连接路径,分布式控平节点使用ASON信令控制相应节点建立重路由连接,对故障前的业务进行业务恢复。
4.根据权利要求1所述的光网络业务故障恢复的方法,其特征在于,所述集中控制器根据重路由的计算类型将计算任务分配至集中控制器或分布式控平节点进行处理,还包括:当集中控制器无计算任务时,将分布式控平节点待算任务中连接路径中最深的任务分配至集中控制器进行计算。
5.根据权利要求2所述的光网络业务故障恢复的方法,其特征在于,所述将重路由结果上报至集中控制器进行校验,具体包括:集中控制器对分布式控平节点返回的重路由连接路径进行校验,判断重路由连接路径是否可用;
若重路由连接路径不可用,增加约束条件后,再次由分布式控平节点对重路由的连接路径进行计算;
若重路由连接路径可用,重路由连接路径校验通过,根据计算结果对故障业务进行重路由。
6.根据权利要求5所述的光网络业务故障恢复的方法,其特征在于,所述增加约束条件,具体包括:
集中控制器解析重路由连接路径,获取校验失败的原因;
根据校验失败的原因生成重路由的约束条件,在需计算的路径信息中增加重路由的约束条件,将约束条件发回至分布式控平节点。
7.根据权利要求1所述的光网络业务故障恢复的方法,其特征在于,所述同步建立全网拓扑信息库和全网业务连接信息库之前,还包括:建立PCEP服务端接口,使用集中控制器作为PCE服务端,通过PCEP服务端接口与每个分布式控平节点建立PCEP会话连接。
8.根据权利要求1所述的光网络业务故障恢复的方法,其特征在于,所述同步建立全网拓扑信息库和全网业务连接信息库,具体包括:集中控制器接收链路或每个分布式控平节点上报的链路拓扑信息,存入全网拓扑信息库;
集中控制器接收链路或每个分布式控平节点上报的本地业务连接信息,存入全网业务连接信息库。
9.根据权利要求1所述的光网络业务故障恢复的方法,其特征在于,所述接收网络故障链路信息上报,具体包括:
分布式控平节点接收链路的告警消息,生成链路故障消息,上报至集中控制器。
10.一种光网络业务故障恢复的系统,其特征在于,包括:集中控制器子系统和至少一个分布式控平节点子系统,所述集中控制器子系统和每个分布式控平节点子系统之间通过PCEP接口进行消息交互,完成如权利要求1‑9任一项中相应的光网络业务故障恢复的方法。
说明书 :
一种光网络业务故障恢复的方法和系统
【技术领域】
术,由不同故障业务所在的控制平面分别并行计算重路由连接路径,能够实现部分故障业
务快速恢复,但是,由于不同故障业务源节点控平基于本地拓扑信息库并行计算路径、分配
网络资源,可能产生不同分布式控平节点计算获得的重路由网络资源相互冲突,导致部分
重路由连接建立失败。第二种是基于软件定义网络(Software Defined Network,简写为:
SDN)的集中式控制器技术,SDN的控制核心采用集中式路径计算单元(Path Computation
Element,简写为PCE)技术,基于全网拓扑和业务连接信息,全局优化计算多条故障业务连
接路径,但是,所有控平中的的故障业务都需要由集中控制器进行计算,集中控制器的计算
压力较大,并且,为消除资源冲突,需要按顺序计算多条重路由连接路径,对于顺序靠后的
故障业务会产生较大的算路延时,影响故障业务恢复实时性要求。
【发明内容】
息库和全网业务连接信息库;接收网络故障链路信息上报,根据故障业务类型确定重路由
的计算类型;集中控制器生成每个故障业务对应的重路由连接路径计算任务,集中控制器
根据重路由的计算类型将计算任务分配至集中控制器或分布式控平节点进行处理,集中控
制器根据计算结果向控平节点发送重路由路径;根据重路由后的连接状态更新全网拓扑信
息库和全网业务连接信息库。
节点基于全网拓扑信息库对重路由进行分布式计算,并将重路由结果上报至集中控制器进
行校验。
的业务进行业务恢复。
连接路径中最深的任务分配至集中控制器进行计算。
接路径不可用,增加约束条件后,再次由分布式控平节点对重路由的连接路径进行计算;若
重路由连接路径可用,重路由连接路径校验通过,根据计算结果对故障业务进行重路由。
由的约束条件,将约束条件发回至分布式控平节点。
建立PCEP会话连接。
接收链路或每个分布式控平节点上报的本地业务连接信息,存入全网业务连接信息库。
统之间通过PCEP接口进行消息交互,完成如第一方面中相应的光网络业务故障恢复的功
能。
资源进行统一调配管理,并调度分布式控平节点进行并行计算,充分利用了网络计算资源,
提高了故障业务重连路径计算效率。并且,在优选方案中,通过集中控制器对分布式控平节
点的计算结果进行校验,保证了重路由的路径可用,消除了分布式计算路径资源分配冲突,
提供了一种高效可靠的光网络故障业务恢复的方法。
【附图说明】
本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他
的附图。
【具体实施方式】
用于限定本发明。
动发现协议ITU‑T G.7714.1,光网络控制系统能够自动发现链路,并建立基于流量工程
(Traffic Engineer,简写为:TE)的全网拓扑信息库(Traffic Engineer Database,简写为
TED)。当控制系统接收到端到端业务的连接建立请求,或接收到故障告警触发业务连接端
到端重路由恢复时,控制系统将会基于全网拓扑信息库计算端到端连接路径,分配传送资
源,向传送网元节点下发业务连接配置,实现光网络业务端到端连接自动建立或重路由恢
复。
(Resource ReSerVation Protocol‑Traffic Engineering,简写为:RSVP‑TE)、带流量工程
的开放式最短路径优先协议(Open Shortest Path First‑Traffic Engineering,简写为:
OSPF‑TE)和端到端路径计算技术组成,在网络各设备节点上独立运行ASON控平系统,控平
节点通过LMP协议发现本节点TE链路,通过OSPF‑TE协议相互洪泛通告TE链路,分布式构建
全网TE拓扑信息库,业务源节点控平基于全网拓扑,通过路径算法计算端到端业务标签交
换连接(Label Switch Path,简写为:LSP),通过RSVP‑TE协议,沿着LSP路径端到端发放业
务连接,逐节点下发业务设备配置。当故障发生时,由故障业务的源节点所在的控平节点分
布式并行计算本控平内故障业务的重路由连接路径,再由路径节点并行配置重路由连接,
通过并行计算实现故障业务的快速恢复。但是,由于不同故障业务源节点所在的控平仅基
于本地拓扑信息库并行计算路径、分配网络资源,不同控平节点计算的重路由连接可能分
配了相同的网络资源产生冲突,导致部分重路由连接建立失败,尽管控平的重试机制会触
发失败连接重算,但是降低了故障业务重路由恢复性能,增加了控平节点计算负荷,并且控
平没有全网连接信息,基于全网拓扑信息库算路不能实现全局优化路径计算,降低了故障
业务重路由恢复成功率。
设备节点自动发现链路并上报集中控制器,集中控制器构建全网TE拓扑信息库和业务连接
信息库,通过集中式全局优化路径算法计算端到端业务标签交换连接,集中控制器将路径
计算结果直接下发至链路,并配置设备网元节点,集中控制业务连接创建和重路由恢复。由
于集中控制器基于全网拓扑和业务连接信息进行路径重算,因此可以支持全局优化计算多
条故障业务连接路径,没有资源分配冲突问题,能够保证故障业务恢复成功率。但是,集中
控制器需要计算全网所有的故障业务恢复路径,在故障数量较多时,集中控制器计算压力
较大。另一方面,为了消除不同路径之间的资源冲突,需要按照顺序对每个故障业务的重路
由连接路径进行计算,对于队列尾部的故障业务会产生较大的算路延时,影响故障业务恢
复实时性要求。
重路由连接路径,下发设备重路由连接配置;当需要同时恢复的故障业务重路由连接较多、
集中控制器处理压力较大、故障恢复业务时延较长时,集中控制器将部分故障业务重路由
连接委托给业务源节点控平,由控平节点分布式计算重路由连接路径,实现故障业务重路
由恢复。但是,现有技术中分布式控平节点中没有全网业务连接信息,不支持全局优化路径
计算,并且不同控平节点并行计算的重路由连接路径可能存在网络传送资源分配冲突,会
导致重路由连接路径重算或计算失败,使故障业务快速恢复性能和成功率降低。
控平节点对重路由的连接路径进行计算后,不直接进行重路由,而是上报至集中控制器根
据全网业务连接信息进行校验后再执行重路由,避免了现有技术中分布式控平节点的计算
结果只能根据链路的重路由结果确认计算结果是否正确的问题,节省了路径下发、重路由
尝试和重路由结果上报的时间和资源,提高了业务故障恢复的效率和路径选择的准确性。
控平内,根据LMP协议,分布式控平节点会接收链路上报的网络连接拓扑信息,并分布式保
存为本控平的拓扑信息库。在一般的分布式控平技术应用中,各分布式控平节点通过互相
通报获取其它控平的网络拓扑信息,会造成通信资源占用和时间占用。在本实施例中,由集
中控制器接收每个分布式控平节点上报的链路拓扑信息,存入全网拓扑信息库,同时,每个
分布式控平节点上会同步保存一份全网拓扑信息库;由集中控制器接收每个分布式控平节
点上报的本地业务连接信息,存入全网业务连接信息库。集中控制器通过同步全网拓扑信
息和全网业务信息,构建全网拓扑信息库和全网业务信息库,拥有了全局的拓扑连接信息
和业务信息,从而能够对全网的业务连接进行集中协调控制,避免产生业务连接冲突。集中
控制器仅需访问全网拓扑信息库和全网业务连接信息库即可获取到全网的拓扑信息和全
网的业务连接信息,数据获取更完整、获取效率更高。同时,各分布式控平节点也可以使用
全网拓扑信息库进行路径连接计算,避免使用通报方式分别获取其他控平拓扑信息造成的
效率降低。进一步的,由于网络资源和网络节点的连接状态随时可能因重路由或故障等原
因产生变动,因此每个控平内的拓扑信息库和业务连接信息库需要随时根据链路上报进行
实时更新,集中控制器保存的全网拓扑信息库和全网业务连接信息库也需要根据每个分布
式控平节点上报的信息进行同步更新,以保证路径重算时使用的拓扑信息和业务连接信息
都与当前的实际连接情况一致。
内所有链路的告警信息,生成拓扑链路故障消息,上报至本控平的分布式控平节点,分布式
控平节点接收链路的告警消息,生成链路故障消息,上报至集中控制器。集中控制器根据控
平上报的故障消息更新全网拓扑信息库和全网业务连接信息库,并遍历每个故障链路上全
部业务连接,创建每条故障业务的待重路由连接。
器完成路径重算和重路由,以及使用分布式控平节点对故障业务完成路径重算和重路由。
对于全部故障业务,集中控制器和每个分布式控平节点并行完成计算任务,在同一时间点
可能仅有一个计算设备进行计算,也可能由多个计算设备同时进行计算。
中控制器根据计算结果向控平节点发送重路由路径。
计算节点进行路径重算和重路由,本发明实施例中,计算节点为进行路径连接计算的集中
控制器和分布式控平节点。
算类型进行不同的分配。
化的无冲突路径。
计算,并将重路由结果进行上报,在不产生冲突的前提下,通过分布式计算减少集中控制器
的计算负担,提高业务故障恢复效率。
过分布式计算提高计算效率的情况下,避免了因并行计算或链路资源变化而产生的路径冲
突或资源冲突。
路径涉及到的连接数量越多,越可能与其它路径产生冲突,在本实施例的优选方案中,将分
布式控平节点待算任务中连接路径中最深的任务分配至集中控制器进行计算。
立,实现业务连接的恢复,确保业务两端正常通信。
证每次重路由后用于业务恢复的拓扑信息和业务连接信息与当前网络的实际连接情况一
致,还需要由链路或分布式控平节点上报重路由连接建立的结果,对全网拓扑信息库和全
网业务连接信息库进行更新和同步,以保证后续计算种使用最新的拓扑信息和业务连接信
息。
径冲突,又能够提高路径计算的效率。
TE拓扑信息库;集中控制器为SDOTN集中控制器;分布式控平节点为ASON控平节点;集中控
制器作为PCE服务端与分布式控平节点进行会话;分布式控平节点通过南向接口,如PCEP或
OSPF‑TE协议等接口,向集中控制器上报链路信息、业务信息、故障信息和重路由的路径计
算结果等数据;集中控制器通过PCEP协议向分布式控平节点下发路径连接计算任务、校验
结果、全网拓扑信息库或全网业务连接信息库等数据。常规的ASON技术中,各控平节点在自
动触发故障重路由时独立完成计算,在涉及到全网拓扑数据同步以及E2E计算的场景中,会
产生管理规模的问题。因此,需要使用PCE协议来解决分布式ASON控平节点的单机性能有
限、管理规模无法快速增长的问题。在实际使用中,若单个PCE服务端的自身计算能力不足,
还可以进行多级PCE的级联,进一步扩大网络管理规模。
与每个控平节点建立PCEP会话连接。同时,集中控制器还需要维护PCEP协议接口,确保网络
连接的稳定。
冲突。在现有的方案中,分布式控平节点无法校验识别资源冲突,直接使用分布式控平的计
算结果可能导致重路由失败,产生时间和资源的浪费。本发明实施例中,分布式控平节点对
重路由连接路径进行计算后,不直接使用计算结果进行重路由,而是将计算结果上报至集
中控制器,由集中控制器对不同分布式控平节点返回的重路由连接路径进行校验,判断重
路由连接路径是否可用。若重路由连接路径不可用,增加约束条件后,再次由分布式控平节
点对重路由的连接路径进行计算;若重路由连接路径可用,重路由连接路径校验通过,根据
计算结果对故障业务进行重路由。本实施例提供的方法中,集中控制器统一管理全网的拓
扑信息库和全网业务连接信息库,因此可以根据全网信息对分布式控平节点计算得到的连
接路径进行校验和统一管理,并在校验失败后直接执行重算步骤,避免了分布式控平节点
直接进行重路由可能导致的重路由失败和资源冲突,提高了业务故障恢复的效率。
因,并根据校验失败的原因生成重路由的约束条件,在需计算的路径信息中增加重路由的
约束条件,再发回至原分布式控平节点进行重路由计算。如在某个路径中,由于网络节点
NE1和网络节点NE2之间的链路L12已被其它业务占用导致路径不可用,集中控制器需要将
“L12不可用”作为重路由的约束条件,发回至原分布式控平节点。
式控平节点上报的路径连接进行优化,查找通信效率更高、资源空闲度更高或连接更稳定
的路径连接,提高故障业务恢复之后的业务通信效率。
务为故障业务,需要重新计算不经过故障链路的连接路径。接收网络故障链路上报后,还需
要对业务故障进行分类,选择合适的计算类型进行连接路径计算。
生路径冲突导致路径不可用,只有不同的分布式控平节点计算的连接路径可能会产生冲突
导致路径不可用。但每个分布式控平节点之间无法互相进行资源整合和校验,因此需要使
用集中控制器进行校验。
列,将需要分布式控平节点计算的重路由连接放入各自对应的第二类连接队列,转步骤
205。图中箭头所示方向为任务计算的顺序。
的路径连接,每一个队列元素表示一个故障业务连接。进一步的,为了便于管理,为每个能
独立进行路径计算的节点创建一个单独的队列。第一类连接队列存放集中控制器需处理的
故障业务连接;每一个第二类连接队列存放每一个分布式控平节点需处理的故障业务连
接,第二类连接队列中每一个元素为相同源节点的一个不同重路由连接。
将较高优先级的故障业务插入队列较前的位置,再按队列顺序进行处理,以减少紧急或重
要的业务的故障恢复时间,减少紧急或重要的业务故障恢复时间较长导致的损失。
算资源,提高系统总体的计算效率,减少业务故障恢复的总时间,避免仅使用集中控制器顺
序计算造成的等待时间过长。在进行任务分配时,使用队列对每个计算节点的计算资源进
行管理,将每个计算节点的计算任务组织为相应的连接队列,便于计算节点对任务进行获
取、分发、转分配和管理等操作。步骤204和步骤205,以及相应的后续步骤为并发执行。
至集中控制器进行处理,以提高整体的故障恢复效率。
平节点中待计算的任务,减少连接路径计算任务总的等待时间。进行连接路径计算时,路径
深度越深,涉及的网络链路连接数越多,越可能会产生路径冲突,而使用集中控制器对路径
进行计算可以减少路径冲突。因此,优先选择路径深度更深的待处理任务加入第一类连接
队列,使用集中控制器进行计算,从而减少重算导致的计算效率下降,进一步提高整体的故
障业务恢复效率。
所得的路径连接互相冲突,需要使用集中控制器将所有分布式控平节点的路径连接计算结
果进行冲突校验。
因再次导致冲突。具体的,在集中控制器对连接路径进行校验时,获取分布式控平节点计算
的连接路径中不可用的网络资源,在下一次重算重路由连接路径时,将该不可用网络资源
作为排除条件带入算路约束加入计算任务中,再进行重算,或分配至相应的分布式控平节
点进行重算。
计算资源冲突问题,提高网络故障恢复性能。
Multiplexer,简写为:ROADM)节点、八条链路(本实施例的链路标号中两数字分别表示链路
两端节点序号)和五条具有重路由保护恢复类型的业务LSP1‑LSP5。其中,每条业务连接名
称包含了经过路由节点编号和占用光波道,如LSP4(1‑2‑5,CH3),表示业务连接顺序经过
NE1、NE2、NE5节点和L12、L25链路,使用第3波道。LSP4(1‑2‑5,CH3)和LSP5(3‑4,CH1)两条业
务连接相互关联,即这两条非同源业务重路由连接路径相互节点和链路分离,两条业务重
路由连接路径经过的节点和链路尽量不相同。根据步骤101,每个控平的分布式控平节点将
上述数据上报至集中控制器,集中控制器整合上述所有数据建立全网拓扑信息库和全网业
务连接信息库。
的故障上报,遍历经过L12的LSP1‑LSP4四条故障业务,分别创建对应LSP1’、LSP2’、LSP3’和
LSP4’四条需进行重路由的重路由连接。
路由的计算类型,并根据步骤203将分配至不同计算节点的任务保存至相应的连接队列。如
图6所示,LSP4’与非同源连接LSP5关联,将LSP4’划分为第一类重路由连接,放入第一类连
接队列,由集中控制器全局优化集中算路。LSP1’、LSP2’、LSP3’不存在关联的非同源连接,
划分为第二类重路由连接,放入对应每一个分布式控平节点的第二类连接队列数组,请求
业务源节点NE1、NE3、NE4所在控平的分布式控平节点并行计算LSP1’、LSP2’、LSP3’连接路
径。
列中的任务。从第一类连接队列头部取出LSP4'连接,由集中控制器进行全局优化算路。从
第二类连接队列数组头部取出LSP1’、LSP2’、LSP3’连接,分别向对应业务源节点NE1、NE3、
NE4所在控平的分布式控平节点并行发起算路请求,由对应的分布式控平节点计算LSP1’、
LSP2’、LSP3’的路径连接。
据计算结果进行重路由。向NE1控平节点下发LSP4’(1‑5,CH1)路径,LSP4’连接建立成功,
LSP4删除成功。
波道不可用,LSP1'(1‑5‑2,CH1)路径校验失败,将LSP1’放入第二类连接队列数组NE1节点
队列尾部进行重算。进一步的,根据步骤211,在进行路径重算之前,增加链路CH1波道不可
用作的约束条件,避免再次产生算路失败。
收到NE4控平节点返回路径LSP3'(4‑5‑1,CH1),L45、L15链路分配第1波道CH1,集中控制器
检查到链路CH1波道不可用,LSP3'(4‑5‑1,CH1)路径校验失败,将LSP3’放入第二类连接队
列NE4节点队列尾部。集中控制器收到NE3控平节点返回路径LSP2'(3‑5‑2,CH1),L35、L25链
路分配第1波道CH1,集中控制器校验连接路径资源可用,路径计算成功,向NE3节点控平下
发LSP2'(3‑5‑2,CH1)路径,LSP2’连接建立成功,LSP2删除成功。
LSP1'比LSP3'的路径深度更深,集中控制器从NE1节点对应的第二类连接队列尾部取出
LSP1'连接,修改LSP1'为第一类连接,放入第一类连接队列。进一步的,为了进行并行计算
减少等待时间,集中控制器从第一类连接队列取出并全局优化计算LSP1’路径的同时,可以
并行从第二类连接队列数组头部取出LSP3’连接,向NE4节点控平发起算路请求,保持所有
计算节点都处于忙碌状态,避免因任务调度不及时导致的计算任务等待。集中控制器计算
LSP1’路径LSP1’(1‑5‑2,CH2),L15、L25链路分配第2波道CH2,集中控制器验证路径资源可
用,路径计算成功,向NE1控平节点下发LSP1’(1‑5‑2,CH2)路径,LSP1’连接建立成功,LSP1
删除成功。集中控制器收到NE4控平节点返回路径LSP3'(4‑5‑1,CH3),L45、L15链路分配第3
波道CH3,集中控制器验证路径资源可用,路径计算成功,向NE4控平节点下发LSP3'(4‑5‑1,
CH3)路径,LSP4’连接建立成功,LSP4删除成功,
所示的拓扑连接关系和业务连接关系。根据步骤104,集中控制器还需要按照链路或分布式
控平节点上报的重路由后的连接状态更新全网拓扑信息库和全网业务连接信息库,以便于
后续计算时使用正确的拓扑信息和业务连接信息进行故障恢复的计算。
时间单元才能完成计算,会造成LSP2‑LSP4等待时间较长,影响故障业务恢复的效率。若仅
使用分布式控制平面技术,由于LSP4’和非同源连接LSP5关联,因此可能无法使用单一的分
布式控平节点完成计算或容易产生冲突,LSP1'和LSP3'也产生了冲突需要重算,影响了故
障业务恢复的效率。若按照本实施例中的方式,采用实施例1提供的光网络业务故障恢复的
方法进行故障业务恢复,一方面通过并行计算仅使用1个计算时间单元即可完成所有路径
连接的首次计算,即使产生冲突需要重算的情况下也仅需2个计算时间单元完成所有路径
连接的计算,提高了计算效率;另一方面,将和非同源连接关联的LSP4’分配至集中控制器
进行计算,通过全局拓扑信息库和全局业务连接库的完整信息完成路径计算,避免了产生
冲突,减少了重算次数。由此可见,实施例1和本实施例提供的光网络业务故障恢复的方法
相对于两种现有的控制方法都具有优势,同时又避免了现有控制方法中的问题,合理调度
网络分布式计算资源,协同控制网络故障业务重路由恢复,提高了网络故障业务恢复性能,
满足光网络故障快速自愈智能控制需求。
点子系统2,集中控制器子系统1和每个分布式控平节点子系统2之间通过PCEP接口进行消
息交互。其中,集中控制器子系统1为PCEP服务端,每一个分布式控平节点子系统2为一个
PCEP客户端,共同完成如实施例1和实施例2中集中控制器和分布式控平节点相应的光网络
业务故障恢复的功能。
信息库计算重路由连接路径,建立重路由连接,实现全网故障业务恢复。集中控制器子系统
1包括如下子模块。
连接信息,提供API调用接口供外部模块访问业务连接信息。
控平节点进行路径连接计算,对网络业务连接控制模块通知链路故障,根据步骤104在网络
连接状态变化时进行拓扑信息更新。
算,返回路径计算结果。
系统2进行协同计算。
连接信息库计算所在控平内的本地重路由连接路径,建立重路由连接,实现本地故障业务
恢复。分布式控平子系统2包括如下子模块。
备,根据步骤101向集中控制器子系统1上报本地业务连接状态,提供API调用接口供外部模
块访问本地业务连接信息。
供API调用接口供外部模块访问TE拓扑信息,根据步骤102向集中控制器子系统1上报故障
链路状态。
算结果。
能。
中,根据实际需要,各子模块可以集成在同一台硬件设备中,也可以分布在多台能够进行数
据、控制信号和信令交互的硬件设备中。
算资源,协同控制各分布式控平节点子系统2并行完成网络故障业务重路由恢复,提高了网
络故障业务恢复性能,满足光网络故障快速自愈智能控制的需求。