基于云边协同的时延最优缓存和路由方法、装置及系统转让专利

申请号 : CN202210148765.4

文献号 : CN114205782B

文献日 :

基本信息:

PDF:

法律信息:

相似专利:

发明人 : 黄晶晶姚相振李琳周睿康方超刘昌通

申请人 : 中国电子技术标准化研究院北京工业大学

摘要 :

本发明提供一种基于云边协同的时延最优缓存和路由方法、装置及系统,该方法包括:接收当前时隙内车联网中各车载终端发送的访问请求,从各访问请求中解析出待访问的目标内容;基于各目标内容在车联网的网络模型中的传输延迟时间和逗留延迟时间,以及各目标内容的属性信息、网络模型中各节点和各物理链路的服务性能,构建车联网的时延优化模型;对时延优化模型进行求解,获取各目标内容在网络模型中的最优缓存节点和最优路由决策;根据最优路由决策,从最优缓存节点中获取各目标内容,并将各目标内容返回至相应的车载终端。本发明实现保证目标内容的传输延迟时间和逗留延迟时间整体最小,提高网络模型的内容传输效率、资源利用率和用户服务质量。

权利要求 :

1.一种基于云边协同的时延最优缓存和路由方法,其特征在于,包括:接收当前时隙内车联网中各车载终端发送的访问请求,从各访问请求中解析出待访问的目标内容;

基于各目标内容在所述车联网的网络模型中的传输延迟时间和逗留延迟时间,以及各目标内容的属性信息、所述网络模型中各节点和各物理链路的服务性能,构建所述车联网的时延优化模型;其中,所述节点为所述车联网中的路侧单元、基站或云端;所述逗留延迟时间包括排队延迟时间和服务延迟时间;

对所述时延优化模型进行求解,获取各目标内容在所述网络模型中的最优缓存节点和最优路由决策;

根据所述最优路由决策,从所述最优缓存节点中获取各目标内容,并将各目标内容返回至相应的车载终端;

所述时延优化模型包括目标函数和约束条件;

相应地,所述基于各目标内容在所述车联网的网络模型中的传输延迟时间和逗留延迟时间,以及各目标内容的属性信息、所述网络模型中各节点和各物理链路的服务性能,构建所述车联网的时延优化模型,包括:获取各目标内容在所述网络模型中各路径中的传输延迟时间和逗留延迟时间;

将各目标内容在各路径中的传输延迟时间和逗留延迟时间相加,得到各目标内容在各路径中的总延迟时间;

将所有目标内容在所述网络模型中所有路径中的总延迟时间相加,得到所述车联网的总延迟时间;

以所述车联网的总延迟时间最小为目标,构建所述目标函数;

基于各目标内容的属性信息、所述网络模型中各节点和各物理链路的服务性能,构建所述约束条件。

2.根据权利要求1所述的基于云边协同的时延最优缓存和路由方法,其特征在于,所述属性信息包括所需缓存容量和所占用带宽资源;

相应地,所述基于各目标内容的属性信息、所述网络模型中各节点和各物理链路的服务性能,构建所述约束条件,包括:基于各节点上承载的所有目标内容的所需缓存容量之和,以及各节点的服务性能中的最大缓存容量,确定所述约束条件的第一子约束条件;

基于各路侧单元与所有车载终端之间传输的所有目标内容的所占用带宽资源之和,以及各路侧单元的服务性能中的最大带宽资源,确定所述约束条件的第二子约束条件;

基于各物理链路上承载的所有目标内容的所占用带宽资源之和,以及各物理链路的服务性能中的最大带宽资源,确定所述约束条件的第三子约束条件;

基于各目标内容在各节点上的逗留延迟时间,以及各节点的服务性能中的最大响应延迟时间,确定所述约束条件的第四子约束条件;

基于各节点的服务性能中的资源利用率,确定所述约束条件的第五子约束条件;

基于各目标内容在各节点上的缓存决策,确定所述约束条件的第六子约束条件。

3.根据权利要求1所述的基于云边协同的时延最优缓存和路由方法,其特征在于,获取各目标内容在所述网络模型中各路径中的传输延迟时间,包括:对于各路径下的各物理链路,根据在各物理链路上传输各目标内容的所占用带宽资源与各物理链路的带宽资源之间的比值,得到各目标内容在各物理链路上的传输延迟时间;

将各目标内容在各路径下的所有物理链路上的传输延迟时间相加,得到各目标内容在各路径中的传输延迟时间。

4.根据权利要求1所述的基于云边协同的时延最优缓存和路由方法,其特征在于,获取各目标内容在所述网络模型中各路径中的逗留延迟时间,包括:对于各路径下的各节点,基于各节点的队列中的访问请求的总数量和各节点的请求到达率,获取各目标内容在各节点中的排队延迟时间;

基于各节点的请求服务率,获取各目标内容在各节点中的服务延迟时间;

基于各目标内容在各节点中的排队延迟时间和服务延迟时间,获取各目标内容在各节点中的逗留延迟时间;

将各目标内容在各路径下的所有节点中的逗留延迟时间相加,得到各目标内容在各路径中的逗留延迟时间。

5.根据权利要求1‑4任一所述的基于云边协同的时延最优缓存和路由方法,其特征在于,所述对所述时延优化模型进行求解,获取各目标内容在所述网络模型中的最优缓存节点和最优路由决策,包括:基于所述当前时隙内各目标内容在各节点上的缓存决策、所述网络模型的拓扑结构,以及各节点上承载的目标内容,获取DQN模型的输入信息;

将所述输入信息输入所述DQN模型中,基于所述时延优化模型,对各目标内容在各节点上的缓存决策进行更新,以及各节点上承载的目标内容进行更新;

根据更新结果,获取各目标内容在所述网络模型中的最优缓存节点和最优路由决策。

6.根据权利要求5所述的基于云边协同的时延最优缓存和路由方法,其特征在于,所述DQN模型的奖励函数基于各目标内容在所述车联网的网络模型中的传输延迟时间和逗留延迟时间构建生成。

7.根据权利要求1‑4任一所述的基于云边协同的时延最优缓存和路由方法,其特征在于,各访问请求基于内容流行度模型模拟生成。

8.一种基于云边协同的时延最优缓存和路由装置,其特征在于,包括:接收模块,用于接收当前时隙内车联网中各车载终端发送的访问请求,从各访问请求中解析出待访问的目标内容;

构建模块,用于基于各目标内容在所述车联网的网络模型中的传输延迟时间和逗留延迟时间,以及各目标内容的属性信息、所述网络模型中各节点和各物理链路的服务性能,构建所述车联网的时延优化模型;其中,所述节点为所述车联网中的路侧单元、基站或云端;

所述逗留延迟时间包括排队延迟时间和服务延迟时间;

优化模块,用于对所述时延优化模型进行求解,获取各目标内容在所述网络模型中的最优缓存节点和最优路由决策;

决策模块,用于根据所述最优路由决策,从所述最优缓存节点中获取各目标内容,并将各目标内容返回至相应的车载终端;

所述时延优化模型包括目标函数和约束条件;

所述构建模块,具体用于:

获取各目标内容在所述网络模型中各路径中的传输延迟时间和逗留延迟时间;

将各目标内容在各路径中的传输延迟时间和逗留延迟时间相加,得到各目标内容在各路径中的总延迟时间;

将所有目标内容在所述网络模型中所有路径中的总延迟时间相加,得到所述车联网的总延迟时间;

以所述车联网的总延迟时间最小为目标,构建所述目标函数;

基于各目标内容的属性信息、所述网络模型中各节点和各物理链路的服务性能,构建所述约束条件。

9.一种基于云边协同的时延最优缓存和路由系统,其特征在于,包括如权利要求8所述的基于云边协同的时延最优缓存和路由装置,以及车载终端、路侧单元、基站和云端;

其中,所述基于云边协同的时延最优缓存和路由装置分别与车载终端、路侧单元、基站和云端连接;

所述车载终端与所述路侧单元连接,所述路侧单元与所述基站连接,所述基站与所述云端连接。

说明书 :

基于云边协同的时延最优缓存和路由方法、装置及系统

技术领域

[0001] 本发明涉及通信技术领域,尤其涉及一种基于云边协同的时延最优缓存和路由方法、装置及系统。

背景技术

[0002] 随着无线终端的快速发展和移动通信技术的广泛应用,设备与网络、设备与设备之间的高速互联成为可能。同时,为了提高车辆的运输效率和安全性,迫切需要发展更可靠和高效的车辆互联系统。IoV(Internet of Vehicles,车联网)作为一种新的范式,以IoT(Internet of Things,物联网)无处不在的传感能力为支撑,将车辆连接到互联网。车联网可以通过网络快速交换车辆信息,提供高效、低延迟的交通服务。然而,高计算复杂度任务、车辆间频繁的协作通信和有限的频谱带宽给提供时延敏感的车联网服务带来了严峻挑战。因此,如何保证车联网中的低延迟通信成为了一大难题。
[0003] 针对上述问题,现有技术中通常通过云边协作的车联网进行车联网服务;一些学者为了确保车联网低延迟和可靠的服务需求,将车辆请求的任务细分并卸载到MEC(Mobile Edge Computing,移动边缘计算)服务器或云服务器并行或顺序执行请求任务。
[0004] 还有一些学者怀着不同的优化目标尝试了不同的任务分类方式,其中一些任务分类方式可以改善网络延迟,同时达到本地和云服务器之间的负载平衡。具体来讲,将延迟容忍度高的任务分配给云服务器进行处理,而延迟敏感任务卸载到MEC服务器进行处理。此外,更细致和合理的任务分类可以充分利用本地设备、MEC服务器和云服务器的计算能力,进一步优化车联网的时延。
[0005] 虽然上述方法可以通过划分任务和优化资源分配来优化通信时延和可靠性;但是,传统的车联网边缘卸载计算技术只能将任务分配到车载终端所在域内的路侧单元或基站上,导致边缘侧的资源利用率较低。

发明内容

[0006] 本发明提供一种基于云边协同的时延最优缓存和路由方法、装置及系统,用以解决现有技术中只能将任务分配到车载终端所在域内的路侧单元或基站上,导致边缘侧的资源利用率较低的缺陷,实现提高边缘侧资源利用率。
[0007] 本发明提供一种基于云边协同的时延最优缓存和路由方法,包括:
[0008] 接收当前时隙内车联网中各车载终端发送的访问请求,从各访问请求中解析出待访问的目标内容;
[0009] 基于各目标内容在所述车联网的网络模型中的传输延迟时间和逗留延迟时间,以及各目标内容的属性信息、所述网络模型中各节点和各物理链路的服务性能,构建所述车联网的时延优化模型;其中,所述节点为所述车联网中的路侧单元、基站或云端;所述逗留延迟时间包括排队延迟时间和服务延迟时间;
[0010] 对所述时延优化模型进行求解,获取各目标内容在所述网络模型中的最优缓存节点和最优路由决策;
[0011] 根据所述最优路由决策,从所述最优缓存节点中获取各目标内容,并将各目标内容返回至相应的车载终端。
[0012] 根据本发明提供的一种基于云边协同的时延最优缓存和路由方法,所述时延优化模型包括目标函数和约束条件;
[0013] 相应地,所述基于各目标内容在所述车联网的网络模型中的传输延迟时间和逗留延迟时间,以及各目标内容的属性信息、所述网络模型中各节点和各物理链路的服务性能,构建所述车联网的时延优化模型,包括:
[0014] 获取各目标内容在所述网络模型中各路径中的传输延迟时间和逗留延迟时间;
[0015] 将各目标内容在各路径中的传输延迟时间和逗留延迟时间相加,得到各目标内容在各路径中的总延迟时间;
[0016] 将所有目标内容在所述网络模型中所有路径中的总延迟时间相加,得到所述车联网的总延迟时间;
[0017] 以所述车联网的总延迟时间最小为目标,构建所述目标函数;
[0018] 基于各目标内容的属性信息、所述网络模型中各节点和各物理链路的服务性能,构建所述约束条件。
[0019] 根据本发明提供的一种基于云边协同的时延最优缓存和路由方法,所述属性信息包括所需缓存容量和所占用带宽资源;
[0020] 相应地,所述基于各目标内容的属性信息、所述网络模型中各节点和各物理链路的服务性能,构建所述约束条件,包括:
[0021] 基于各节点上承载的所有目标内容的所需缓存容量之和,以及各节点的服务性能中的最大缓存容量,确定所述约束条件的第一子约束条件;
[0022] 基于各路侧单元与所有车载终端之间传输的所有目标内容的所占用带宽资源之和,以及各路侧单元的服务性能中的最大带宽资源,确定所述约束条件的第二子约束条件;
[0023] 基于各物理链路上承载的所有目标内容的所占用带宽资源之和,以及各物理链路的服务性能中的最大带宽资源,确定所述约束条件的第三子约束条件;
[0024] 基于各目标内容在各节点上的逗留延迟时间,以及各节点的服务性能中的最大响应延迟时间,确定所述约束条件的第四子约束条件;
[0025] 基于各节点的服务性能中的资源利用率,确定所述约束条件的第五子约束条件;
[0026] 基于各目标内容在各节点上的缓存决策,确定所述约束条件的第六子约束条件。
[0027] 根据本发明提供的一种基于云边协同的时延最优缓存和路由方法,获取各目标内容在所述网络模型中各路径中的传输延迟时间,包括:
[0028] 对于各路径下的各物理链路,根据在各物理链路上传输各目标内容的所占用带宽资源与各物理链路的带宽资源之间的比值,得到各目标内容在各物理链路上的传输延迟时间;
[0029] 将各目标内容在各路径下的所有物理链路上的传输延迟时间相加,得到各目标内容在各路径中的传输延迟时间。
[0030] 根据本发明提供的一种基于云边协同的时延最优缓存和路由方法,获取各目标内容在所述网络模型中各路径中的逗留延迟时间,包括:
[0031] 对于各路径下的各节点,基于各节点的队列中的访问请求的总数量和各节点的请求到达率,获取各目标内容在各节点中的排队延迟时间;
[0032] 基于各节点的请求服务率,获取各目标内容在各节点中的服务延迟时间;
[0033] 基于各目标内容在各节点中的排队延迟时间和服务延迟时间,获取各目标内容在各节点中的逗留延迟时间;
[0034] 将各目标内容在各路径下的所有节点中的逗留延迟时间相加,得到各目标内容在各路径中的逗留延迟时间。
[0035] 根据本发明提供的一种基于云边协同的时延最优缓存和路由方法,所述对所述时延优化模型进行求解,获取各目标内容在所述网络模型中的最优缓存节点和最优路由决策,包括:
[0036] 基于所述当前时隙内各目标内容在各节点上的缓存决策、所述网络模型的拓扑结构,以及各节点上承载的目标内容,获取DQN模型的输入信息;
[0037] 将所述输入信息输入所述DQN模型中,基于所述时延优化模型,对各目标内容在各节点上的缓存决策进行更新,以及各节点上承载的目标内容进行更新;
[0038] 根据更新结果,获取各目标内容在所述网络模型中的最优缓存节点和最优路由决策。
[0039] 根据本发明提供的一种基于云边协同的时延最优缓存和路由方法,所述DQN模型的奖励函数基于各目标内容在所述车联网的网络模型中的传输延迟时间和逗留延迟时间构建生成。
[0040] 根据本发明提供的一种基于云边协同的时延最优缓存和路由方法,各访问请求基于内容流行度模型模拟生成。
[0041] 本发明还提供一种基于云边协同的时延最优缓存和路由装置,包括:
[0042] 接收模块,用于接收当前时隙内车联网中各车载终端发送的访问请求,从各访问请求中解析出待访问的目标内容;
[0043] 构建模块,用于基于各目标内容在所述车联网的网络模型中的传输延迟时间和逗留延迟时间,以及各目标内容的属性信息、所述网络模型中各节点和各物理链路的服务性能,构建所述车联网的时延优化模型;其中,所述节点为所述车联网中的路侧单元、基站或云端;所述逗留延迟时间包括排队延迟时间和服务延迟时间;
[0044] 优化模块,用于对所述时延优化模型进行求解,获取各目标内容在所述网络模型中的最优缓存节点和最优路由决策;
[0045] 决策模块,用于根据所述最优路由决策,从所述最优缓存节点中获取各目标内容,并将各目标内容返回至相应的车载终端。
[0046] 本发明还提供一种基于云边协同的时延最优缓存和路由系统,包括如上述所述的基于云边协同的时延最优缓存,以及路由装置、车载终端、路侧单元、基站和云端;
[0047] 其中,所述基于云边协同的时延最优缓存和路由装置分别与车载终端、路侧单元、基站和云端连接;
[0048] 所述车载终端与所述路侧单元连接,所述路侧单元与所述基站连接,所述基站与所述云端连接。
[0049] 本发明还提供一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如上述任一种所述基于云边协同的时延最优缓存和路由方法的步骤。
[0050] 本发明还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如上述任一种所述基于云边协同的时延最优缓存和路由方法的步骤。
[0051] 本发明还提供一种计算机程序产品,包括计算机程序,所述计算机程序被处理器执行时实现如上述任一种所述基于云边协同的时延最优缓存和路由方法的步骤。
[0052] 本发明提供的基于云边协同的时延最优缓存和路由方法、装置及系统,该方法通过基于各目标内容在由路侧单元、基站和云服务器协同构建的网络模型中的传输延迟时间和逗留延迟时间、各目标内容的属性信息,以及网络模型中各节点和各物理链路的服务性能,联合构建时延优化模型,使得构建的时延优化模型充分考虑路侧单元、基站和云服务器的计算、通信和缓存资源的协作分配,以获取以传输延迟时间和逗留延迟时间整体最小的最优缓存节点和最优路由决策,使得目标内容的传输延迟时间和逗留延迟时间整体最小,且可有效提高网络模型的内容传输效率和资源利用率,进而提高用户服务质量。

附图说明

[0053] 为了更清楚地说明本发明或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
[0054] 图1是本发明提供的基于云边协同的时延最优缓存和路由方法的流程示意图;
[0055] 图2是本发明提供的基于云边协同的时延最优缓存和路由方法中网络模型的结构示意图;
[0056] 图3是本发明提供的基于云边协同的时延最优缓存和路由方法中DQN模型的结构示意图;
[0057] 图4是本发明提供的基于云边协同的时延最优缓存和路由方法中仿真结果的结构示意图之一;
[0058] 图5是本发明提供的基于云边协同的时延最优缓存和路由方法中仿真结果的结构示意图之二;
[0059] 图6是本发明提供的基于云边协同的时延最优缓存和路由方法中仿真结果的结构示意图之三;
[0060] 图7是本发明提供的基于云边协同的时延最优缓存和路由装置的结构示意图;
[0061] 图8是本发明提供的电子设备的结构示意图。

具体实施方式

[0062] 为使本发明的目的、技术方案和优点更加清楚,下面将结合本发明中的附图,对本发明中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
[0063] 针对降低车联网中的通信延迟问题,起初云计算凭借其强大的计算能力,成为了车联网初始的解决方案,用来处理车联网中大量的高复杂度的计算任务。但是,由于云端与车辆之间的传输距离较远,会造成云端与车辆间的高传输时延,难以满足车联网系统的低时延需求。
[0064] 为了实现实时通信和决策,相关研究者开始考虑将移动边缘计算(Mobile Edge Computing, MEC)应用在车联网场景中。MEC可以通过在RSU(Road Side Unites,路侧单元)或BS(Base Station,基站)中处理来自车辆的请求,以减少IoV中的计算和传输延时。
[0065] 然而,边缘计算的计算和通信能力有限,这促使学者们考虑云和边缘计算的协同作用。通过云边缘协作来提高网络资源的利用率是一种很好的探索,也是当前该领域的研究热点。
[0066] 但是,传统的云边协同技术只能将任务分配到车载终端所在域内的路侧单元或基站上,边缘侧的资源利用率较低,很大程度上忽略了路侧单元和基站的网络跨层协作缓存和路由,以及路侧单元、基站和云端组成的网络异构性带来的影响,导致边缘侧的资源利用率较低,且难以为任务提供可靠和稳定的服务。
[0067] 为了解决上述问题,本实施例提出了一种基于云边协同的时延最优缓存和路由方法,实现RSU和BS协同条件下的时延优化问题;具体在RSU以及BS的协作下合理部署网络模型内的内容缓存,同时联合优化计算、缓存和通信资源的协作分配问题建立延迟优化模型;通过对延迟优化模型进行优化求解,在路侧单元、基站和云端的协作下,同时考虑请求聚合和计算、通信和缓存资源的协作分配,对到达的访问请求进行的跨层协同(RSU和BS的协同)缓存和路由决策,减少了内容的冗余传输、提高了边缘侧的资源利用率以及内容传输的效率,且可为内容交付提供可靠和稳定的服务,进而提高了用户服务质量,提高人民幸福感,同时对能源和成本的节约产生了积极的影响,且符合绿色节能理念,发展前景广泛。
[0068] 下面结合图1描述本发明的基于云边协同的时延最优缓存和路由方法,该方法的执行主体为处理器等具有计算功能的设备,如服务器和移动设备等,本实施例对此不做具体地限定。该方法包括:
[0069] 步骤101,接收当前时隙内车联网中各车载终端发送的访问请求,从各访问请求中解析出待访问的目标内容。
[0070] 其中,每一访问请求中均携带有相应的待访问的目标内容;目标内容可以是车辆位置和行驶速度等车辆状态信息、路面状况信息,或者车辆控制信息等,本实施例对此不作具体地限定。
[0071] 需要说明的是,在当前时隙内每一车载终端可以发送一个或多个访问请求,本实施例对此不做具体地限定。
[0072] 可选地,在各车载终端需要访问目标内容时,可向车联网控制器发送访问请求;其中,访问请求中携带有待访问的目标内容。
[0073] 车联网控制器在获取到访问请求时,对访问请求进行解析,以获取待访问的目标内容。
[0074] 步骤102,基于各目标内容在所述车联网的网络模型中的传输延迟时间和逗留延迟时间,以及各目标内容的属性信息、所述网络模型中各节点和各物理链路的服务性能,构建所述车联网的时延优化模型;其中,所述节点为所述车联网中的路侧单元、基站或云端;所述逗留延迟时间包括排队延迟时间和服务延迟时间。
[0075] 其中,目标内容的属性信息包括但不限于所需缓存容量、所占用带宽资源等,本实施例对此不作具体地限定。
[0076] 服务性能用于表征节点或物理链路为车载终端服务的性能指标,包括但不限于最大缓存容量、最大带宽资源、最大响应时间、资源利用率等,本实施例对此不作具体地限定。
[0077] 其中,网络模型根据异构网络下的RSU、BS和云服务的连接情况以及车载终端接入基站的方式构建生成。网络模型中RSU、BS或云服务的具体数量可以为一个或多个,具体根据实际需求进行设置。
[0078] 如图2所示,为网络模型的结构示意图;按从上至下的顺序,最上层为云端,包含一个或多个云服务器;中间层为BS,最靠近车辆的一层为RSU。每个RSU或BS均有缓存和计算的能力,车载终端的访问请求可以被RSU、基站或云端满足。云端存储有所有用户请求的目标内容和资源,而RSU和BS的缓存计算能力有限。因此,综合考虑车载终端、RSU、BS和云服务器分层异构车联网中的缓存、计算和通信资源的联合分配,可降低车辆网的访问请求处理延迟时间和目标内容传输效率,提高用户服务质量。
[0079] 可将具有云边缘协作的多层异构车联网的网络模型表示为有向图 ;其中, 和 是网络模型中节点和物理链路的集合。节点p和节点j之间的物理链路可以表示为 , 是RSU、BS和云服务器集合的总称,分别用 、 和 表示。
[0080] 需要说明的是,本实施例中,变量的希腊字母形式代表一组相关变量,其非希腊字母形式是一个特定的数字。例如,希腊字母 代表一组网络节点,英文字母N表示网络中有N个节点。
[0081] 需要说明的是,由于RSU和BS的缓存能力有限,在初始状态下,所有内容均缓存在云服务器中。当车载终端发送访问请求(尝试获取目标内容)时,首先向访问的RSU发送相应的访问请求;若目标内容当前缓存在RSU中,则由RSU将目标内容传输至车载终端;否则,该访问请求将被路由到当前RSU节点的直连RSU,依附的BS及其直连的BS依次进行处理。如果上述的节点均不能满足来自车载终端的访问请求,则由云端将目标内容传输至车载终端。
[0082] 可选地,为了降低车联网平均时延和提高内容传输的效率,本实施例考虑车载终端、RSU、BS和云端等分层异构车联网中缓存、计算和通信资源的联合分配,并将联合资源分配问题建立为基于排队论的时延优化模型,构建模型的具体步骤包括:
[0083] 首先,在从各访问请求中解析出待访问的目标内容后,计算各目标内容在车联网的网络模型中的传输延迟时间和逗留延迟时间;
[0084] 其中,传输延迟时间为在网络模型的各物理链路中传输目标内容所需的延迟时间;逗留延迟时间为在网络模型的各节点中对目标内容进行服务的服务延迟时间和排队延迟时间。
[0085] 然后,基于各目标内容在网络模型中的传输延迟时间和逗留延迟时间、各目标内容的属性信息,以及网络模型中各节点和各物理链路的服务性能,构建以传输延迟时间和逗留延迟时间最小的车联网的时延优化模型,以获取最优缓存和路由策略。
[0086] 通过这种方式可以使得构建的时延优化模型,综合考虑各目标内容在由路侧单元、基站和云边服务器构成的跨层协同网络模型中的传输延迟时间和逗留延迟时间、各目标内容的属性信息,以及网络模型中各节点和各物理链路的服务性能,在RSU和BS中对缓存内容进行部署,以使访问请求尽可能不在云端得到满足,而在RSU或BS即可得到满足,从而在保证内容传输的可靠性的同时,降低异构网络模型的平均时延。
[0087] 步骤103,对所述时延优化模型进行求解,获取各目标内容在所述网络模型中的最优缓存节点和最优路由决策;
[0088] 其中,对时延优化模型进行求解的算法可以是优化算法或神经网络模型等,如强化学习算法、深度卷积网络和遗传算法等,本实施例对此不作具体地限定。
[0089] 可选地,在构建时延优化模型后,对时延优化模型进行优化求解,获取时延优化模型的最优解,以得到各目标内容在网络模型中的最优缓存节点和最优路由决策;其中,时延优化模型的最优解包含各目标内容的最优缓存决策和最优路由决策。
[0090] 步骤104,根据所述最优路由决策,从所述最优缓存节点中获取各目标内容,并将各目标内容返回至相应的车载终端。
[0091] 可选地,在获取到最优路由决策后,可以确定获取目标内容的最优路径;在获取到最优缓存节点后,可以确定缓存目标内容的最优节点;其中,最优节点可以是网络模型中的路侧单元、基站或云服务器。
[0092] 因此,可根据各目标内容对应的最优路由决策,从各目标内容对应的最优缓存节点中获取各目标内容,并将获取到的各目标内容返回至需要对各目标内容进行访问的车载终端,使得车载终端可快速获取相应的内容。
[0093] 本实施例基于各目标内容在由路侧单元、基站和云服务器协同构建的网络模型中的传输延迟时间和逗留延迟时间、各目标内容的属性信息,以及网络模型中各节点和各物理链路的服务性能,联合构建时延优化模型,使得构建的时延优化模型充分考虑路侧单元、基站和云服务器的计算、通信和缓存资源的协作分配,以获取以传输延迟时间和逗留延迟时间整体最小的最优缓存节点和最优路由决策,使得目标内容的传输延迟时间和逗留延迟时间整体最小,且可有效提高网络模型的内容传输效率和资源利用率,进而提高用户服务质量。
[0094] 在上述实施例的基础上,本实施例中所述时延优化模型包括目标函数和约束条件;相应地,所述基于各目标内容在所述车联网的网络模型中的传输延迟时间和逗留延迟时间,以及各目标内容的属性信息、所述网络模型中各节点和各物理链路的服务性能,构建所述车联网的时延优化模型,包括:获取各目标内容在所述网络模型中各路径中的传输延迟时间和逗留延迟时间;将各目标内容在各路径中的传输延迟时间和逗留延迟时间相加,得到各目标内容在各路径中的总延迟时间;将所有目标内容在所述网络模型中所有路径中的总延迟时间相加,得到所述车联网的总延迟时间;以所述车联网的总延迟时间最小为目标,构建所述目标函数;基于各目标内容的属性信息、所述网络模型中各节点和各物理链路的服务性能,构建所述约束条件。
[0095] 可选地,车载终端获取目标内容的总延迟时间包括物理链路上的传输延迟时间和节点(RSU、BS和云服务器)上的逗留延迟时间,可对这两种延迟时间分别进行建模后汇总得到总延迟时间,以根据总延迟时间构建时延优化模型。
[0096] 其中,时延优化模型包括一个目标函数和多个约束条件;
[0097] 网络模型的路径基于多个节点和多个物理链路构成。
[0098] 可选地,构建车联网的时延优化模型的目标函数的具体步骤包括:首先,获取各目标内容在网络模型中各路径中的传输延迟时间;其中,每一路径中包含多个节点,每相邻两个节点之间通过物理链路进行连接;
[0099] 其中,传输延迟时间包括各车载终端与其访问的路侧单元之间的物理链路上往返传输的延迟时间、以及中间节点之间的物理链路上往返传输的延迟时间;因此,可将各目标内容在每一路径下的所有物理链路上的传输延迟时间相加,获取各目标内容在网络模型中各路径中的传输延迟时间。
[0100] 同时,获取各目标内容在网络模型中各路径中的逗留延迟时间;
[0101] 其中,逗留延迟时间包括各目标内容在各路径下的各节点上的排队延迟时间和服务延迟时间;因此,可将各目标内容在每一路径下的所有节点上的逗留延迟时间进行相加,获取各目标内容在网络模型中各路径中的逗留延迟时间;
[0102] 然后,将各目标内容在网络模型中各路径中的逗留延迟时间和传输延迟时间相加,得到各目标内容在各路径中的总延迟时间,具体计算公式为:
[0103] ;
[0104] 其中, 为与车载终端m直连的节点(即路侧单元)i所在路径下的总延迟时间,、 、 、 、 分别为目标内容k在车载终端m在其直连的路侧单元i之间的物理链路上、路侧单元i和其直连的邻近路侧单元 之间的物理链路上、路侧单元i和其直连的基站 之间的物理链路上、以及基站 和其直连的邻近基站j之间的物理链路上、以及基站 和云端c之间的物理链路上的传输的逗留延迟时间; 、 、 和 分别为目标内容k在路侧单元i和路侧单元 ,以及基站 和基站j的缓存决策; 、 、 、和 分别为目标内容k在路侧单元i和 ,以及基站 和基站j,以及云端c中的逗留延迟时间;其中, 和 分别为与路侧单元i和基站 直连的邻域集合。
[0105] 需要说明的是,每一车载终端直连的每一路侧单元对应一条路径。
[0106] 最后,将所有目标内容在所有路径中的总延迟时间进行相加,构建以车联网的总延迟时间综合最小为目标的目标函数。
[0107] 可选地,构建车联网的时延优化模型的约束函数的具体步骤包括:根据各目标内容的属性信息和各节点的服务性能,构建相应的约束条件,以保证各节点可为车载终端提供稳定和可靠的服务质量;
[0108] 根据各目标内容的属性和各物理链路的服务性能,构建相应的约束条件,以保证各物理链路可为车载终端提供稳定和可靠的服务质量;
[0109] 以及根据各目标内容的缓存决策构建相应的约束条件,以确保目标内容在路侧单元、基站或云服务器中得到满足。
[0110] 本实施例综合目标内容在网络模型的物理链路上的传输延迟时间,以及各节点上的逗留延迟时间,构建以传输延迟时间和逗留延迟时间综合最小的时延优化模型;并根据各目标内容的属性信息,以及各节点和各物理链路的服务性能,构建约束条件,以对时延优化模型进行约束,进而使得通过时延优化模型获取缓存决策和路由决策,具有传输延迟时间和逗留延迟时间综合最小,有效降低车联网平均时延和提高内容传输效率,且可为用户提供稳定和可靠的服务,以将目标内容有效地传输至车载终端。
[0111] 在上述实施例的基础上,本实施例中所述属性信息包括所需缓存容量和所占用带宽资源;所述基于各目标内容的属性信息、所述网络模型中各节点和各物理链路的服务性能,构建所述约束条件,包括:基于各节点上承载的所有目标内容的所需缓存容量之和,以及各节点的服务性能中的最大缓存容量,确定所述约束条件的第一子约束条件;基于各路侧单元与所有车载终端之间传输的所有目标内容的所占用带宽资源之和,以及各路侧单元的服务性能中的最大带宽资源,确定所述约束条件的第二子约束条件;基于各物理链路上承载的所有目标内容的所占用带宽资源之和,以及各物理链路的服务性能中的最大带宽资源,确定所述约束条件的第三子约束条件;基于各目标内容在各节点上的逗留延迟时间,以及各节点的服务性能中的最大响应延迟时间,确定所述约束条件的第四子约束条件;基于各节点的服务性能中的资源利用率,确定所述约束条件的第五子约束条件;基于各目标内容在各节点上的缓存决策,确定所述约束条件的第六子约束条件。
[0112] 可选地,将车联网的联合资源分配问题转化为延迟优化模型构建过程,并在异构三层车联网(路侧单元、基站和云服务器)中考虑跨层协同缓存和路由决策。
[0113] 其中,构建时延优化模型的约束条件的步骤包括:
[0114] 将各节点上承载的所有目标内容的所需缓存容量相加,基于相加结果和各节点的最大缓存容量,确定第一子约束条件,以确保各节点上承载的所有目标内容的所需总缓存容量不超过其上限值;
[0115] 将各路侧单元和与所有车载终端之间传输的所有目标内容的所占用带宽资源相加,基于相加结果和各路侧单元的最大带宽资源,确定第二子约束条件,以确保各路侧单元上承载的所有目标内容的所需总带宽资源不超过其上限值;
[0116] 将各物理链路上承载的所有目标内容的所需带宽资源相加,基于相加结果和各物理链路的最大带宽资源,确定第三子约束条件,以确保各物理链路上承载的所有目标内容的所需总带宽资源不超过其上限值;
[0117] 基于各目标内容在各节点上的逗留延迟时间,以及各节点的最大响应延迟时间,确定第四子约束条件,以保证逗留延迟时间不超过各节点的最大响应延迟时间,从而保证用户体验和服务质量;
[0118] 第五子约束条件用于约束各节点的资源利用率小于1,以确保为用户提供稳定和可靠的服务;
[0119] 第六子约束条件用于约束各目标内容的缓存决策,以确保目标内容在路侧单元、基站或云服务器中得到满足。
[0120] 其中, 为网络链路中路侧单元的数量, 为与路侧单元i直连的车载终端的数量;F为目标内容的数量; 为与车载终端m直连的路侧单元i所在路径下的总延迟时间; 为目标内容k在节点p上的缓存决策; 为目标内容k的所需缓存容量; 为节点p的最大缓存容量; 为网络链路中所有的节点, 为网络链路中所有的路侧单元; 为目标内容k在物理链路 上传输所占带宽资源, 为物理链路 的最大带宽资源;为与节点p属于同一层的邻近节点集合; 为节点p的逗留延迟时间; 为节点p的最大响应延迟时间; 为节点p的资源利用率。
[0121] 则车联网的时延优化模型的公式为:
[0122] ;
[0123] 在上述实施例的基础上,本实施例中所述获取各目标内容在所述网络模型中各路径中的传输延迟时间,包括:对于各路径下的各物理链路,根据在各物理链路上传输各目标内容的所占用带宽资源与各物理链路的带宽资源之间的比值,得到各目标内容在各物理链路上的传输延迟时间;将各目标内容在各路径下的所有物理链路上的传输延迟时间相加,得到各目标内容在各路径中的传输延迟时间。
[0124] 可选地,根据链路类型的不同,可以将传输延迟时间分为车辆终端和节点之间的物理链路的传输延迟时间,以及节点和节点之间的物理链路的传输延迟时间。
[0125] 对于车载终端m,该车载终端与其访问的路侧单元 之间的物理链路上传输目标内容k的往返传输延迟时间可以表示为:
[0126] ;
[0127] 其中, 和 分别是目标内容k在物理链路 和物理链路 产生的流量(即所需带宽资源); 和 分别是物理链路 和物理链路 的带宽资源; 和分别表示车载终端m到路侧单元i的物理链路,以及从路侧单元i到车载终端m的物理链路。
[0128] 节点p与节点j之间的物理链路上传输内容k的往返延迟可以表示为:
[0129] ;
[0130] 其中, 和 分别是内容k在物理链路 和物理链路 产生的流量, 和分别是物理链路 和物理链路 的带宽资源。
[0131] 最后,将各目标内容在所述网络模型中各路径下的所有物理链路上的传输延迟时间相加,可得到各目标内容在各路径中的传输延迟时间。
[0132] 本实施例根据链路类型的不同,将传输延迟时间分为车辆终端和节点之间的物理链路的传输延迟时间,以及节点和节点之间的物理链路的传输延迟时间,最后综合两种类型的传输延迟时间,可快速准确地获取各目标内容在各路径中的传输延迟时间。
[0133] 在上述实施例的基础上,本实施例中所述获取各目标内容在所述网络模型中各路径中的逗留延迟时间,包括:
[0134] 对于各路径下的各节点,基于各节点的队列中的访问请求的总数量和各节点的请求到达率,获取各目标内容在各节点中的排队延迟时间;
[0135] 基于各节点的请求服务率,获取各目标内容在各节点中的服务延迟时间;
[0136] 基于各目标内容在各节点中的排队延迟时间和服务延迟时间,获取各目标内容在各节点中的逗留延迟时间;
[0137] 将各目标内容在各路径下的所有节点中的逗留延迟时间相加,得到各目标内容在各路径中的逗留延迟时间。
[0138] 可选地,车联网中的逗留延迟时间是指从访问请求的内容进入节点到离开节点的时间,即包括排队、服务和处理延迟。当一个访问请求到达节点,首先进入等待队列,然后被处理。
[0139] 假设排队过程服从M/M/k排队论模型,根据该排队论模型来建立逗留时延模型,以计算获取各目标内容在各节点中的逗留延迟时间。
[0140] 可选地,节点p的资源利用率可以表示为:
[0141] ;
[0142] 其中, 为节点p的资源利用率, 和 分别表示节点p的请求到达率和服务器总数; 表示节点p的每一个服务器的服务速率,主要受CPU(Central Processing Unit,中央处理器)的运行速度和内容请求所需的CPU转数的影响。
[0143] 节点p的排队系统在稳定状态下的平衡方程为:
[0144] ;
[0145] 其中, 表示节点p的排队系统中存在n个访问请求的概率。
[0146] 根据等式 以及 ,节点p中存在零请求的稳定概率记作,具体公式为:
[0147] ;
[0148] 节点p中存在n个访问请求的稳定概率 的公式为:
[0149] ;
[0150] 当节点p的所有服务器都被占用时,其到达的访问请求必须排队。此时,节点p中的任务数达到其队列容量上限的概率 ,可通过以下公式计算:
[0151] ;
[0152] 则节点p队列系统中的访问请求总数量可以表示为:
[0153] ;
[0154] 综上,目标内容k访问请求在节点p的排队延迟时间可以表示为:
[0155] ;
[0156] 由于,队列系统中目标内容的访问请求的服务时间是指在路侧单元、基站或云端中获取车载设备的感兴趣内容的延迟时间。因此,目标内容k的访问请求在节点p中的平均服务时延可以表示为:
[0157] ;
[0158] 将目标内容k在节点p中的排队延迟时间 和服务延迟时间 相加,得到目标内容k节点p中的逗留延迟时间,具体计算公式为:
[0159] ;
[0160] 其中, 为目标内容k在节点p中的逗留延迟时间。
[0161] 最后,将所有目标内容在所有路径下所有节点中的逗留延迟时间相加,得到总逗留延迟时间。
[0162] 在上述各实施例的基础上,本实施例中所述对所述时延优化模型进行求解,获取各目标内容在所述网络模型中的最优缓存节点和最优路由决策,包括:基于所述当前时隙内的各访问请求、各目标内容在各节点上的缓存决策,以及所述网络模型的拓扑结构,获取DQN模型的输入信息;将所述输入信息输入所述DQN模型中,对各目标内容在各节点上的缓存决策进行更新,以及各节点上承载的目标内容进行更新;根据更新结果,获取各目标内容在所述网络模型中的最优缓存节点和最优路由决策。
[0163] 如图3所示,DQN(Deep  Q‑Learning,深度增强学习)模型包括评估网络(Evaluation Network)和目标网络(Target Network);评估网络和目标网络是两个具有相同结构的神经网络,具体结构可以根据实际需求进行构建生成,如评估网络和目标网络基于深度卷积神经网络、深度残差网络和循环网络等,本实施例对此不作具体地限定。
[0164] 其中,DQN模型是基于已知的状态信息,使用带有加权参数ω 的评估网络来逼近奖励函数Q并生成相应的动作值。
[0165] 其中,网络模型中节点p当前时隙 的网络状态 (即输入信息)由节点p上的缓存决策、网络模型的拓扑结构,以及节点p上承载的目标内容进行构建生成,即网络状态为;
[0166] 其中, 为各目标内容在网络模型中的节点p上的缓存决策向量;其中, 为在当前时隙t,内容k节点p的缓存决策, 为网络模型中所有节点,F为网络中所有目标内容。 表示目标内容k在节点p上缓存, 表示目标内容k 不在节点p 上缓存。 表示在当前时隙t ,网络模型的网络拓扑,
为在当前时隙t,节点p上承载的目标内容
请求向量, 为在当前时隙t,节点p上承载的目标内容k。
[0167] 将网络状态输入DQN模型中后,可对各目标内容在各节点上的缓存决策进行更新,以及各节点上承载的目标内容进行更新,得到DQN模型输出的动作信息,即动态信息可表示为;其中, 表示各目标内容在节点p上的缓存决策向量的更新结果;根据 ,即可得到各目标内容的最优缓存节点;
表示节点p上承载的目标内容的更新结果,即节点p对于访问请求的最优路由决策。
[0168] 本实施例通过基于DQN策略对延时优化模型进行优化求解,可根据车联网系统中的历史请求信息和当前可用的网络资源做出缓存和路由决策,以快速准确地获取各目标内容的最优缓存节点和最优缓存决策,进而对到达的访问请求进行跨层协同缓存和路由决策,可有效解决延迟优化问题。
[0169] 在上述实施例的基础上,本实施例中所述DQN模型的奖励函数基于各目标内容在所述车联网的网络模型中的传输延迟时间和逗留延迟时间构建生成。
[0170] 可选地,DQN模型的奖励函数可以根据各目标内容在车联网的网络模型中的传输延迟时间和逗留延迟时间的融合结果,以及奖励折扣因子和迭代训练的周期数进行构建生成,具体公式为:
[0171] ;
[0172] 其中, 为在当前时隙t,节点p的奖励函数; ,表征节点p为路侧单元;为DQN模型的迭代训练周期数, 为DQN模型的奖励折扣因子,可表示历史训练周期的奖励对当前周期奖励值的影响程度; 为车载终端m在
车联网的网络模型中与其直连的节点(路侧单元)p所在的路径中获取各目标内容的传输延迟时间和逗留延迟时间之和; 为与第p个节点直连的所有车载终端。
[0173] 本实施例基于各目标内容在车联网的网络模型中的传输延迟时间和逗留延迟时间构建生成DQN模型的奖励函数,进而可快速准确地获取延迟时间最小的缓存决策和路由决策,在对目标内容进行有效传输的同时,降低车联网平均时延和提高内容传输效率。
[0174] 在上述各实施例的基础上,本实施例中各访问请求基于内容流行度模型模拟生成。
[0175] 可选地,网络模型中内容的出现频率与其受欢迎程度有关,为了更好地模拟用户的实际访问请求,本实施例在实验过程中,可基于内容流行度请求模型模拟生成相应的访问请求。
[0176] 通常内容流行度模型遵循奇普夫(Zipf)定律。因此,本实施例根据zipf定律来对内容流行度建模。
[0177] 可选地,用户的整体兴趣特征使得内容流行度模型的分布具有一定的特点。内容集 表示车联网中有F种不同的网络内容。假设内容流行度模型遵循Zipf分布并从内容集的请求概率从第1个内容下降到第F个内容,即第一个访问请求内容的概率最大,后面的访问请求内容的概率依次递减。因此,内容k的请求概率 可以表示为:
[0178] ;
[0179] 其中,为流行度系数,用于表征各内容的流行度;值较大意味着热门内容在网络中具有较高的请求概率; 为内容k的请求概率,k和d分别为第k个内容和第d个内容。可以根据实际需求进行设置,如0.6到2之间的随机数。
[0180] 可选地,可根据上述请求概率模拟生成各种内容的访问请求;需要说明的是内容请求概率越大,流行度越高,对应生成的包含该内容的访问请求的数量越多。
[0181] 本实施例通过内容流行度模型,可快速准确地模拟生成符合真实场景分布的访问请求,可直接适用于真实场景下的车联网的云边协同缓存和路由决策。
[0182] 以下对本实施提供的基于云边协同的时延最优缓存和路由方法的整体流程步骤展开描述,主要包括:
[0183] 步骤1,建立系统模型包括网络模型、内容流行度模型和时延优化模型。
[0184] 首先根据车联网中车载终端和各节点的互联关系,以及访问请求的服务流程建立网络模型,然后根据zipf定律建立内容流行度模型,最后根据访问请求的分类,对车联网系统的时延进行分类,分为传输延迟时间和逗留延迟时间,以建立时延优化模型。
[0185] 步骤1.1,根据车联网中车载终端和各节点的互联关系和访问请求特性,建立网络模型。
[0186] 如图2所示,网络模型由云端、BS以及RSU组成,按从上至下的顺序,最上层为云端,中间层为BS,最靠近用户的一层为RSU。
[0187] 步骤1.2、建立内容流行度模型;具体根据zipf定律来对内容流行度建模。
[0188] 步骤1.3、建立车联网的时延优化模型;其中,车载终端待访问的目标内容的总延迟包括物理链路上的传输延迟和节点(RSU、BS和云端)上的逗留延迟时间;具体对这两种延迟时间分别建模后再汇总得到总延迟时间,以获取车联网的时延优化模型。
[0189] 步骤1.3.1、建立传输延迟时间模型;具体联合车辆终端和节点之间的物理链路上的传输时延以及节点之间的物理链路上的传输时延构建传输时延模型。
[0190] 步骤1.3.2、建立逗留延迟时间模型;具体假设排队过程服从M/M/k排队论模型,并根据此排队论模型建立逗留时延模型。
[0191] 步骤2、对车联网的时延优化模型进行分析;具体根据步骤1得到的时延优化模型,将RSU和BS的缓存内容进行部署,让用户请求尽可能不在云端得到满足,从而降低异构网络的平均时延,以将时延优化问题,间接转化为对缓存内容的优化问题。
[0192] 步骤3、基于深度强化学习对时延优化模型进行求解,获取最优的协同缓存决策和路由决策;具体基于DQN策略求解时延优化问题,该策略根据车联网系统中的历史请求信息和当前可用的网络资源做出缓存和路由决策。
[0193] 下面为了进一步验证本实施例的时延最优缓存和路由方法的有效性,结合具体实例对本实施例的时延最优缓存和路由方法进行评估。
[0194] 其中,设置内容流行度模型中流行度系数 为[0.6,2]之间的随机数,将车联网系统中的缓存大小定义为与 种不同网络内容的相对比率,鉴于现实网络中边缘设备的缓存容量有限,将车联网系统中缓存设置为[0.1%,1%]之间的随机数。
[0195] 在仿真中,为了验证本实施例提出的缓存和路由方法(简称DQN策略)的有效性和优势性,将本实施例提出的缓存和路由方法与物联网云边协同环境中几种现有的缓存和路由方法(简称流行度策略、LRU(Least Recently Used,最少使用算法)策略和无缓存策略)进行比较。
[0196] 其中,对于DQN策略,根据请求历史信息和系统中可用的网络资源进行跨层协同缓存和路由决策,可以适应网络状态和用户需求的变化,实现及时优化资源分配。
[0197] 对于流行度策略,目标内容在模拟的初始阶段根据车联网系统已知的内容流行度分布协同存储在节点中。具体来说,车载终端的访问RSU及其在同一层的相邻节点根据内容流行度的降序来协同缓存网络内容,而BS与访问RSU以互补的方式存储文件。因此,可以在网络边缘满足对流行度较高的内容的请求,同时尽可能为流行度低的内容提供服务。
[0198] 对于LRU策略,RSU和BS缓存通过缓存区内缓存内容的访问量,使用最近最少使用策略更新缓存区内缓存内容的缓存状态。
[0199] 对于无缓存策略,不在RSU和BS中部署缓存内容,所有请求都需要转发到云端获取内容,各节点可以共享其网络知识(如网络拓扑、流量负载、历史请求信息)。
[0200] 需要说明的是,在仿真过程中,所有比较方案均采用网络模型的合作路由策略。
[0201] 图4所示,显示了四种方案在不同缓存大小下的网络时延。相比于无缓存策略,当RSU和BS的缓存容量增加时,更多流行内容可存储在RSU和BS中,显著降低了带有策略的网络延迟。随着缓存大小的增长,不同缓存策略之间的性能差距越来越小;但是,由于无缓存策略需要将所有的请求路由到云端,以获取终端用户感兴趣的内容,因此其性能不变。通过分析可知,由于DQN策略能够根据访问请求自适应获取最优缓存决策和最优路由决策,因此,其网络延迟时间最小,性能最好。
[0202] 如图5所示,显示了四种方案在不同内容流行度下的网络时延。当内容流行度增加时,用户对于流行内容的请求概率增加,有效减少了带有策略的延迟并弥合了它们之间的性能差距。由于基于请求历史信息和系统当前可用的网络资源,DQN策略可以对到达的内容请求进行跨层协同缓存和路由决策,故其性能优于流行度策略和LRU策略;由于内容流行度的偏度系数较小,流行度策略中的静态协同缓存导致路由开销高,难以适应内容请求的动态性和差异性,而LRU策略采用的是动态协同缓存,因此流行度策略和LRU策略的差距较大。
[0203] 如图6所示,显示了四种解决方案在不同请求到达率下的网络延迟。由于服务容量和网络资源的限制,请求到达率的增加表明更多的请求在网络中排队和丢失,导致四种策略的网络延迟显着增长。然而,DQN策略仍然比其他方案表现得更好。原因是到达每个节点的内容请求数量越多,可以提供的训练样本越多,从而提高关于缓存和路由决策的预测准确性。
[0204] 综上,本实施例中提出的时延最优缓存和路由方法比现有的云边缘协作解决方案具有更好的性能、较低的网络延迟时间,并在不同场景下快速收敛。
[0205] 下面对本发明提供的基于云边协同的时延最优缓存和路由装置进行描述,下文描述的基于云边协同的时延最优缓存和路由装置与上文描述的基于云边协同的时延最优缓存和路由方法可相互对应参照。
[0206] 如图7所示,提供一种基于云边协同的时延最优缓存和路由装置,该装置包括接收模块701、构建模块702、优化模块703和决策模块704,其中:
[0207] 接收模块701用于接收当前时隙内车联网中各车载终端发送的访问请求,从各访问请求中解析出待访问的目标内容;
[0208] 构建模块702用于基于各目标内容在所述车联网的网络模型中的传输延迟时间和逗留延迟时间,以及各目标内容的属性信息、所述网络模型中各节点和各物理链路的服务性能,构建所述车联网的时延优化模型;其中,所述节点为所述车联网中的路侧单元、基站或云端;所述逗留延迟时间包括排队延迟时间和服务延迟时间;
[0209] 优化模块703用于对所述时延优化模型进行求解,获取各目标内容在所述网络模型中的最优缓存节点和最优路由决策;
[0210] 决策模块704用于根据所述最优路由决策,从所述最优缓存节点中获取各目标内容,并将各目标内容返回至相应的车载终端。
[0211] 本实施例通过基于各目标内容在由路侧单元、基站和云服务器协同构建的网络模型中的传输延迟时间和逗留延迟时间、各目标内容的属性信息,以及网络模型中各节点和各物理链路的服务性能,联合构建时延优化模型,使得构建的时延优化模型充分考虑路侧单元、基站和云服务器的计算、通信和缓存资源的协作分配,以获取以传输延迟时间和逗留延迟时间整体最小的最优缓存节点和最优路由决策,使得目标内容的传输延迟时间和逗留延迟时间整体最小,且可有效提高网络模型的内容传输效率和资源利用率,进而提高用户服务质量。
[0212] 本实施例还提供一种基于云边协同的时延最优缓存和路由系统,包括基于云边协同的时延最优缓存和路由装置,以及车载终端、路侧单元、基站和云端;其中,基于云边协同的时延最优缓存和路由装置分别与车载终端、路侧单元、基站和云端连接;
[0213] 如图2所示,车载终端与路侧单元连接,路侧单元与基站连接,基站与云端连接。其中,基于云边协同的时延最优缓存和路由装置分别与车载终端的具体结构如图7所示,具体功能如上述方法及装置,此处不再赘述。
[0214] 图8示例了一种电子设备的实体结构示意图,如图8所示,该电子设备可以包括:处理器(processor)801、通信接口(Communications Interface)802、存储器(memory)803和通信总线804,其中,处理器801,通信接口802,存储器803通过通信总线804完成相互间的通信。处理器801可以调用存储器803中的逻辑指令,以执行基于云边协同的时延最优缓存和路由方法,该方法包括:接收当前时隙内车联网中各车载终端发送的访问请求,从各访问请求中解析出待访问的目标内容;基于各目标内容在所述车联网的网络模型中的传输延迟时间和逗留延迟时间,以及各目标内容的属性信息、所述网络模型中各节点和各物理链路的服务性能,构建所述车联网的时延优化模型;对所述时延优化模型进行求解,获取各目标内容在所述网络模型中的最优缓存节点和最优路由决策;根据所述最优路由决策,从所述最优缓存节点中获取各目标内容,并将各目标内容返回至相应的车载终端。
[0215] 此外,上述的存储器803中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read‑Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
[0216] 另一方面,本发明还提供一种计算机程序产品,所述计算机程序产品包括计算机程序,计算机程序可存储在非暂态计算机可读存储介质上,所述计算机程序被处理器执行时,计算机能够执行上述各方法所提供的基于云边协同的时延最优缓存和路由方法,该方法包括:接收当前时隙内车联网中各车载终端发送的访问请求,从各访问请求中解析出待访问的目标内容;基于各目标内容在所述车联网的网络模型中的传输延迟时间和逗留延迟时间,以及各目标内容的属性信息、所述网络模型中各节点和各物理链路的服务性能,构建所述车联网的时延优化模型;对所述时延优化模型进行求解,获取各目标内容在所述网络模型中的最优缓存节点和最优路由决策;根据所述最优路由决策,从所述最优缓存节点中获取各目标内容,并将各目标内容返回至相应的车载终端。
[0217] 又一方面,本发明还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现以执行上述各方法提供的基于云边协同的时延最优缓存和路由方法,该方法包括:接收当前时隙内车联网中各车载终端发送的访问请求,从各访问请求中解析出待访问的目标内容;基于各目标内容在所述车联网的网络模型中的传输延迟时间和逗留延迟时间,以及各目标内容的属性信息、所述网络模型中各节点和各物理链路的服务性能,构建所述车联网的时延优化模型;对所述时延优化模型进行求解,获取各目标内容在所述网络模型中的最优缓存节点和最优路由决策;根据所述最优路由决策,从所述最优缓存节点中获取各目标内容,并将各目标内容返回至相应的车载终端。
[0218] 以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
[0219] 通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
[0220] 最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。