一种数据驱动的边缘响应时间优化方法转让专利

申请号 : CN201911030918.X

文献号 : CN110972147B

文献日 :

基本信息:

PDF:

法律信息:

相似专利:

发明人 : 魏同权张润泽

申请人 : 华东师范大学

摘要 :

本发明公开了一种数据驱动的边缘响应时间优化方法,其特点是采用异构边缘服务器计算离线任务到达率的最优离线解,以及基于移动性感知博弈论的方法,计算在基站的任务到达率有波动时的最优解,具体包括:离线阶段计算离线任务到达率的最优离线解;运行时阶段的任务到达率没有波动时,直接利用基站分配的方案;在线阶段计算在基站的任务到达率有波动时的最优解。本发明与现有技术相比具有提高整个系统和个人移动用户的预期响应时间,以及移动用户的响应时间公平性,有效解决了由用户移动的动态特性引起的基站工作负载波动问题,系统预期响应时间缩短了54.55%,移动用户的响应时间公平性提高了72.50%,方法简单,使用方便,效率高。

权利要求 :

1.一种数据驱动的边缘响应时间优化方法,其特征在于采用异构边缘服务器计算离线任务到达率的最优离线解,以及基于移动性感知博弈论的方法,计算在基站的任务到达率有波动时的最优解,优化系统的预期响应时间和移动用户的响应时间公平性,其具体优化包括以下步骤:

步骤1:定义云计算系统中的用户、基站、云服务器和边缘服务器,以及基站与服务器的拓扑关系和基站与系统的预期响应时间;

步骤2:离线阶段,利用整数线性规划计算离线任务到达率的最优离线解;

步骤3:当运行时所有基站的任务到达率没有波动时,直接利用上述步骤2的方案;否则,使用启发式算法,以重新确定具有改变的任务到达率的基站的最佳边缘/云服务器;

步骤4:在线阶段,通过转换为凸优化问题来解决合作博弈问题,计算在基站的任务到达率有波动时的最优解;

步骤5:分配结束;

所述步骤1的实现过程按下述步骤进行:步骤A1:表示出移动边缘云计算系统中K个移动用户:U={U1,U2,...,UK};M个基站:B={B1,B2,...,BM};N个边缘服务器SE={S1,S2,...,SN}以及一个云服务器S0,令S={S0,SE}是由云服务器和边缘服务器集组成的服务器集;

步骤A2:满足约束任何基站Bm∈B(1≤m≤M)不允许同时连接到两个不同的边缘/云服务器Si∈S和Sj∈S(0≤i,j≤N,i≠j),用无向图G=(V,E)表示M个基站和(N+1)和边缘/云服务器的拓扑,其中集合V表示M个基站和云服务器S0 的固定放置位置的集合,以及N个边缘服务器的可能放置位置;集合E表示基站和边缘/云服务器之间的通信链路集;

步骤A3:构建基站Bm响应时间模型:(1)

通信延迟W m,n由下述a式定义:(2)

任务执行延迟W m,n由下述b式定义:基站Bm预期响应时间Wm由下述c式定义:系统的预期响应时间 由下述d式定义:所述步骤2的实现过程按下述步骤进行:步骤B1:最小化整个系统和各个基站的预期响应时间的基站分配策略,并如下定义Pi,j和Am,n:

以整个系统的角度来看,性能函数由A3步骤中的预期响应时间 表征;从各个基站的角度来看,性能函数可用预期响应时间{W1,W2,…,WM}的标准偏差 描述,并由下述e式定义:

其中,标准偏差 由下述f式计算:步骤B2:为确保系统中的每个任务都得到可行的处理,必须满足每个边缘服务器Sj与一个基站完全位于同一位置,其约束条件为下述g式定义:步骤B3:每个基站Bm都被分配给一个边缘/云服务器,并由下述h式定义:步骤B4:发送到每个边缘/云服务器Sj的总任务到达率不超过边缘/云服务器可以处理任务的速率,并由下述i式定义:步骤B5:输入无向图G=(V,E)、基站的离线任务到达率 以及边缘/云服务器的计算能力{p0,p1,…,pN};

步骤B6:在上述步骤B2的约束条件下计算预期响应时间的最小值,找到边缘服务器的最佳放置策略 和分配策略 从而获得离线任* *

务到达率的最优离线解Ω=(P ,A);

所述步骤3的实现过程按下述步骤进行:步骤C1:用 表示改变任务到达率的Q个基站的集合,Q个基站彼此合作和竞争,使得不仅最小化他们各自的预期响应时间,而且最小化系统预期响应时间,经几轮迭代后,将得到最优解;

步骤C2:使用最大化与Q个改变任务到达率的基站的相关效用函数的乘积作为合作博弈的目标函数,且由下述j式定义基站的效用函数:其中:响应时间 被归一化到[0,1]的范围内;

步骤C3:由下述k式定义重新分配问题:s.t. Aq,n=0,1

其中:剩余计算能力Δpn由下述l式计算:所述步骤4的实现过程按下述步骤进行:* *

步骤D1:输入离线任务到达率的最优离线解Ω=(P ,A )、离线任务到达率在线任务到达率为 边缘/云服务器的计算能力{p0,p1,…,pN}和初始化任务到达率为0;

步骤D2检查基站的任务到达率是否在运行时改变,如果答案为否,则返回上述步骤B6的最优解;如果答案为是,则算法将任务到达率的标记设置为1并用启发式算法重新分配;

步骤D3:构建改变了任务到达率基站的集合B′={B1,B2,…,B Q};

步骤D4:计算每个边缘/云服务器的剩余计算能力Δpn;

步骤D5:重新确定每个基站的最佳边缘/云服务器,并相应地更新分配策略。

说明书 :

一种数据驱动的边缘响应时间优化方法

技术领域

[0001] 本发明涉及云服务器技术领域,尤其是一种基于移动性感知博弈论处理用户移动动态特性的数据驱动边缘响应时间优化方法。

背景技术

[0002] 随着新兴移动应用的普及,移动用户的计算要求如今不断增加。在移动云计算的传统体系结构中,移动用户可以通过基站向远程云服务器发送他们的请求,并要求云服务
器代表他们自己执行任务执行,然而,这种模式导致移动用户在物联网时代不可避免地遭
受高服务延迟。作为替代解决方案,因此提出在移动用户和云服务器之间部署边缘服务器
的移动边缘云计算为众多移动用户提供低延迟服务。在过去几年中,人们对用于移动边缘
云计算系统的延迟感知边缘服务器部署的研究产生了广泛的兴趣。
[0003] 现有技术由于边缘服务器与云服务器没有协作,系统的预期响应时间和移动用户的响应时间公平性较差,用户移动的动态特性容易引起基站的工作负载波动。

发明内容

[0004] 本发明的目的是针对现有技术的不足而设计的一种数据驱动的边缘响应时间优化方法,采用异构边缘服务器的最优布局策略,计算离线任务到达率的最优离线解,以及基
于移动性感知博弈论的方法,处理用户移动的动态特性,计算在基站的任务到达率有波动
时的最优解,有效解决了用户移动动态特性引起的基站工作负载波动,大大提高整个系统
和个人移动用户的预期响应时间,将系统预期响应时间缩短了54.55%,移动用户的响应时
间公平性提高了72.50%,方法简单,使用方便,效率高。
[0005] 本发明的目的是这样实现的:一种数据驱动的边缘响应时间优化方法,其特点是采用异构边缘服务器计算离线任务到达率的最优离线解,以及基于移动性感知博弈论的方
法,计算在基站的任务到达率有波动时的最优解,优化系统的预期响应时间和移动用户的
响应时间公平性,其具体优化包括以下步骤:
[0006] 步骤1:定义云计算系统中的用户、基站、云服务器、边缘服务器,以及基站与服务器的拓扑关系和基站与系统的预期响应时间。
[0007] 步骤2:离线阶段,利用整数线性规划(ILP)技术计算离线任务到达率的最优离线解。
[0008] 步骤3:当运行时所有基站的任务到达率没有波动时,直接利用上述步骤2的方案;否则,使用启发式算法,以重新确定具有改变的任务到达率的基站的最佳边缘/云服务器。
[0009] 步骤4:在线阶段,通过转换为凸优化问题来解决合作博弈问题,计算在基站的任务到达率有波动时的最优解。
[0010] 步骤5:分配结束。
[0011] 所述步骤1的实现过程按下述步骤进行:
[0012] 步骤A1:表示出移动边缘云计算系统中K个移动用户:U= {U1,U2,…,UK};M个基站:B={B1,B2,…,BM};N个边缘服务器SE= {S1,S2,…,SN}以及一个云服务器S0,令S={S0,
SE}是由云服务器和边缘服务器集组成的服务器集。
[0013] 步骤A2:满足约束任何基站Bm∈B(1≤m≤M)不允许同时连接到两个不同的边缘/云服务器Si∈S和Sj∈S(0≤i,j≤N,i≠j);用无向图 G=(V,E)表示M个基站和(N+1)和边
缘/云服务器的拓扑;其中:集合V表示 M个基站和云服务器S0 的固定放置位置的集合,以及
N个边缘服务器的可能放置位置;集合E表示基站和边缘/云服务器之间的通信链路集。
[0014] 步骤A3:基站Bm响应时间模型的构建:
[0015] 通信延迟W(1)m,n由下述a式计算:
[0016]
[0017] 任务执行延迟W(2)m,n由下述b式定义:
[0018]
[0019] 基站Bm预期响应时间Wm由下述c式定义:
[0020]
[0021] 系统的预期响应时间 由下述d式定义:
[0022]
[0023] 所述步骤2的实现过程按下述步骤进行:
[0024] 步骤B1:最小化整个系统和各个基站的预期响应时间的基站分配策略,并如下定义Pi,j和Am,n:
[0025]
[0026]
[0027] 从整个系统的角度来看,性能函数可以用步骤1的A3中定义的预期响应时间 表征;从各个基站的角度来看,性能函数可以用预期响应时间 {W1,W2,…,WM}的标准偏差
描述,并由下述e式定义:
[0028]
[0029] 其中,标准偏差 由下述f式计算:
[0030]
[0031] 步骤B2:为确保系统中的每个任务都得到可行的处理,必须满足每个边缘服务器Sj与一个基站完全位于同一位置,其约束条件如下述g式定义:
[0032]
[0033] 步骤B3:每个基站Bm都被精确分配给一个边缘/云服务器,由下述h 式定义:
[0034]
[0035] 步骤B4:发送到每个边缘/云服务器Sj的总任务到达率不超过边缘/云服务器可以处理任务的速率,由下述i式定义:
[0036]
[0037] 步骤B5:输入无向图G=(V,E)、基站的离线任务到达率 以及边缘/云服务器的计算能力{p0,p1,…,pN}。
[0038] 步骤B6:在上述步骤B2的约束条件下计算预期响应时间的最小值,找到边缘服务器的最佳放置策略 和分配策略 从而获得离
* *
线任务到达率的最优离线解Ω=(P ,A)。所述步骤3的实现过程按下述步骤进行:
[0039] 步骤C1:用 表示改变任务到达率的Q个基站的集合, Q个基站彼此合作和竞争,使得不仅最小化他们各自的预期响应时间,而且最小化系统预期
响应时间,经几轮迭代后,将得到最优解。
[0040] 步骤C2:使用最大化与Q个改变任务到达率的基站的相关效用函数的乘积作为合作博弈的目标函数,且由下述j式定义基站的效用函数:
[0041]
[0042] 其中:响应时间 被归一化到[0,1]的范围内。
[0043] 步骤C3:由下述k式定义重新分配问题:
[0044]
[0045] s.t.Aq,n=0,1
[0046]
[0047]
[0048] 其中:剩余计算能力Δpn由下述l式计算:
[0049]
[0050] 所述步骤4的实现过程按下述步骤进行:
[0051] 步骤D1:输入离线任务到达率的最优离线解Ω=(P*,A*)、离线任务到达率在线任务到达率 边缘/云服务器的计算能力
{p0,p1,…,pN}和初始化任务到达率为0。
[0052] 步骤D2检查基站的任务到达率是否在运行时改变,如果答案为否,则返回上述步骤B6的最优解;如果答案为是,则算法将任务到达率的标记设置为1并用启发式算法重新分
配。
[0053] 步骤D3:构建改变了任务到达率基站的集合B′={B1,B2,…,BQ}。
[0054] 步骤D4:计算每个边缘/云服务器的剩余计算能力Δpn。
[0055] 步骤D5:重新确定每个基站的最佳边缘/云服务器,并相应地更新分配策略。
[0056] 本发明与现有技术相比具有优化整个系统的预期响应时间,以及移动用户的响应时间公平性,有效解决了由用户移动的动态特性引起的基站工作负载波动问题,大大提高
整个系统和个人移动用户的预期响应时间,将系统预期响应时间缩短了54.55%,移动用户
的响应时间公平性提高了72.50%,方法简单,使用方便,效率高。

附图说明

[0057] 图1为上海电信的3233个基站的地理分布;
[0058] 图2为本发明离线时系统预期响应时间;
[0059] 图3为本发明离线时预期响应时间的标准偏差;
[0060] 图4为本发明在线时系统预期响应时间;
[0061] 图5为本发明在线时预期响应时间的标准偏差;
[0062] 图6为本发明在线时运行时间和基准测试。

具体实施方式

[0063] 为了更加清楚的描述发明的目的、技术方案及优点,以下结合附图和具体实施例,对本发明进行进一步详细说明。
[0064] 实施例1
[0065] 参阅附图1,本发明基于仿真的实验,以验证在减少整个系统和各个基站的预期响应时间方面的有效性。模拟中采用了由上海电信的3233个基站组成的集合,其中基站的地
6
理分布如图所示:平均任务到达率(每秒CPU周期数) 和每个基站的数据量分别为[4×10 ,
8
6×10 ]和[1,100]Mb;每个链路的通信容量是在[100,1000]KB/s的范围内随机选择的;电
5
磁波的传播速率设定为 2×10km/s。
[0066] 假设云服务器的任务执行时间遵循正态分布,平均值为10ms,方差为 4。选择配备10核和每核3.6GHz工作频率的HPE ProLiant ML350 Gen10服务器作为云服务器S0。然后计
算云服务器S0的计算容量p0为10×3.6GHz= 36.0GHz。此外,构建了基于HPE ProLiant 
MicroServer Gen10服务器,Dell R230服务器,Lenovo TS250服务器和浪潮NP3020服务器
的边缘服务器集。本发明根据提出的离线和在线算法进行了两组对比实验:一组用于离线
算法 PEAB,即本发明的步骤2(离线阶段,利用整数线性规划技术计算离线任务到达率的最
优离线解),另一组用于在线算法RBEC,即本发明的步骤4(在线阶段,通过转换为凸优化问
题来解决合作博弈问题,计算在基站的任务到达率有波动时的最优解)。在第一组模拟中,
将离线算法PEAB与基准算法WRES, EPSO和DAPP进行了比较。在第二组仿真中,将在线算法
RBEC与基准算法 RALL和DGEN进行了比较。WRES旨在联合优化边缘服务器的工作负载和响
应时间,采用MILP技术进行边缘服务器的部署。EPSO旨在最小化边缘服务器的整体能耗,其
中利用众所周知的粒子群优化技术(PSO)来执行边缘服务器的部署。DAPP将边缘服务器放
置表示为图中的经典容量K中值问题,以便可以最小化系统响应时间。RALL尝试在运行时最
小化整个系统和各个基站的响应时间。其主要思想是通过修改本发明步骤2的算法来重新
分配所有基站,假设已经放置了所有边缘服务器。DGEN与方案RALL类似,也尝试在运行时最
小化整个系统和各个基站的响应时间。它利用中引入的遗传算法技术,以改变任务到达率
来重新分配基站。NAVE是一种天真的在线方法,直接采用我们提出的方法PEAB的输出,并且
它不采取任何行动来处理基站的任务到达率在运行时已经改变的情况。上述算法均采用C+
+实现,两组仿真实验均在配备16GB内存和Intel i5双核3.5GHz处理器的台式计算机上进
行。并且使用不同的基站工作负载设置执行3000次实验,以将建议的解决方案与基准测试
方案进行比较,具体优化过程按下述步骤进行:
[0067] 步骤1:定义云计算系统中的用户、基站以及服务器(包括云服务器和边缘服务器),基站与服务器的拓扑关系和基站与系统的预期响应时间。本实施例采用了由上海电信
的3233个基站组成的集合,即: B={B1,B2,…,B3233},平均任务到达率(每秒CPU周期数)和
6 8
每个基站的数据量分别为:[4×10 ,6×10]和[1,100]Mb。每个链路的通信容量是在 [100,
5
1000]KB/s的范围内随机选择的。电磁波的传播速率设定为2×10km/s。并选择选择配备10
核且每核工作频率为3.6GHz的HPE ProLiant ML350 Gen10 服务器作为云服务器S0,并假
设云服务器的任务执行时间遵循正态分布,平均值为10ms,方差为4。云服务器S0的计算能
力p0为10×3.6GHz=36.0GHz。此外,构建了HPE ProLiant MicroServer Gen10服务器,
Dell R230服务器, Lenovo TS250服务器和浪潮NP3020服务器的边缘服务器集,其具体性
能和参数见下表1:
[0068] 表1 边缘服务器参数。
[0069]   HPE ProLiant Dell R230 Lenovo TS250 Inspur NP3020服务器数量 50 50 50 50
服务器每个核的频率 3.4GHz 3.0GHz 3.9GHz 3.0GHz
核心 4 6 2 4
每台服务器的计算能力 13.6GHz 18.0GHz 7.8GHz 12.0GHz
执行时间的正态分布(ms) N(20,5) N(14,8) N(35,15) N(17,10)
[0070] 并表示出无向图G=(V,E),即3233个基站和边缘/云服务器的拓扑,并计算基站Bm和系统的响应时间:
[0071] 基站Bm响应时间模型的构建,通信延迟W(1)m,n由下述a式计算:
[0072]
[0073] 任务执行延迟W(2)m,n由下述b式定义:
[0074]
[0075] 所以,基站Bm预期响应时间Wm由下述c式定义:
[0076]
[0077] 系统的预期响应时间 由下述d式定义:
[0078]
[0079] 步骤2:离线阶段,利用整数线性规划(ILP)技术计算离线任务到达率的最优离线解,并定义Pi,j和Am,n如下:
[0080]
[0081]
[0082] 从各个基站的角度来看,性能函数可以用预期响应时间{W1,W2,…,WM} 的标准偏差 描述,即由下述e式定义:
[0083]
[0084] 其中,标准偏差 由下述f式计算:
[0085]
[0086] 除此之外还需确保系统中的每个任务都得到可行的处理,即满足下述g式描述的每个边缘服务器Sj与一个基站完全位于同一位置的约束条件:
[0087]
[0088] 每个基站Bm都被精确分配给一个由下述i式定义的边缘/云服务器:
[0089]
[0090] 发送到每个边缘/云服务器Sj的总任务到达率不能超过边缘/云服务器可以处理任务的速率,并由下述i式定义为:
[0091]
[0092] 其中,pj已在步骤1中给出。
[0093] 输入无向图G=(V,E)、基站的离线任务到达率 以及边缘/云服务器的计算能力{p0,p1,…,pN},并在上述约束条件下计算预期响应时间的最小值,找
到边缘服务器的最佳放置策略 和分配策略
* *
使用ILP求解器求解得离线任务到达率的最优离线解Ω=(P ,A)。
[0094] 步骤3:当运行时所有基站的任务到达率没有波动时,直接利用上述步骤2的方案;否则,使用启发式算法,以重新确定具有改变的任务到达率的基站的最佳边缘/云服务器。
用 表示改变任务到达率的Q个基站的集合。Q个基站彼此合作
和竞争,使得不仅最小化他们各自的预期响应时间,而且最小化系统预期响应时间。经过几
轮迭代后,将得到最优解。使用最大化与Q个改变任务到达率的基站的相关的效用函数的乘
积作为合作博弈的目标函数,并由下述j式定义基站的效用函数:
[0095]
[0096] 其中:响应时间 被归一化到[0,1]的范围内。重新分配问题的定义按下述k式:
[0097]
[0098] s.t.Aq,n=0,1
[0099]
[0100]
[0101] 其中:剩余计算能力Δpn由下述l式计算:
[0102]
[0103] 对上式目标函数取对数,得到下述l‑1式:
[0104]
[0105] 该目标函数等价于下述l‑2式:
[0106]
[0107] 此外,放宽Aq,n=0,1的条件。使得Aq,n∈[0,1],综上上述优化问题等价于下述l‑3式:
[0108]
[0109] s.t.Cq,n≤0
[0110]
[0111]
[0112] 其中:Cq,n+Aq,n=0。
[0113] 对目标函数H求关于Cq,n的一阶导和二阶导,得到下述l‑4式和l‑5式导数:
[0114]
[0115]
[0116] 所以目标函数H是凸函数,因为 因此,可以使用拉格朗日乘数法推导出目标函数的一个最优解。该问题的拉格朗日函数L(Cq,n,χ,ψq,n,ωq,n) 由下述( l‑5) (l‑
5a)式描述为:
[0117]
[0118] 其中:χ,ψq,n,ωq,m为拉格朗日乘数。
[0119] 对L(Cq,m,χ,ψq,n,ωq,m)关于Cq,n求一阶偏导,得到下述l‑6式导数:
[0120]
[0121] 并由 得*
[0122] 其中:χ, 为最优拉格朗日乘数。
[0123] 观察到Cq,n(χ,ψq,n,ωq,n)的最优值 满足下述l‑7式:
[0124]
[0125] 其中: 是Q个基站的最小预期响应时间,并由下述l‑8式定义:
[0126]
[0127] 联立上述l‑7式和述l‑8式两式,由于等式左右两边均有 所以难以直接求得。为了化简该问题,用 去估计 即由下述l‑9式计算:
[0128]
[0129] 因此,原问题可由下述l‑10式表示:
[0130]
[0131] s.t.ψq,n,ωq,n≥0
[0132]
[0133] 考虑到优化过程中Cq,n取值范围被放宽到[‑1,0],即任何基站都可以分配给多个边缘/云服务器,将违反约束。因此首先从数组 选择满足条件
的最小值 并令 即:
[0134]
[0135] 步骤4:在线阶段,通过转换为凸优化问题来解决合作博弈问题,计算在基站的任* *
务到达率有波动时的最优解。输入离线任务到达率的最优离线解Ω=(P ,A),离线任务到
达率 在线任务到达率 以及边缘/云服务器
的计算能力{p0,p1,…,pN},初始化任务到达率为0;检查基站的任务到达率是否在运行时改
* *
变。如果答案为否,则返回步骤2的离线最优解Ω=(P ,A);如果答案为是,则算法将任务到
达率的标记设置为1并用启发式算法重新分配;构建改变了任务到达率的基站的集合B′=
{B1,B2,…,BQ};计算每个边缘/云服务器的剩余计算能力Δpn;重新确定每个基站的最佳边
缘/云服务器,并相应地更新分配策略。
[0136] 参阅附图2,本发明的离线算法PEAB和基准算法EPSO,WRES,DAPP 实现的系统预期响应时间与测试中的三种基准测试方法相比,显着降低了系统的响应时间。系统预期响应
时间分别比基准算法EPSO,WRES,DAPP平均小45.21%,36.61%和16.46%。此外,PEAB的最
高改善率高达54.55%。例如,在第24个数据点中,PEAB和EPSO系统的预期响应时间的分别
为0.10 和0.22,其图中的每个数据点是100次实验的平均值。
[0137] 参阅附图3,本发明的离线算法PEAB和基准算法EPSO,WRES,DAPP 实现的预期响应时间的标准偏差与基准测试方法相比,极大地改善了基站之间的性能公平性。PEAB实现的
预期响应时间的标准偏差分别比EPSO,WRES 和DAPP小61.23%,57.13%和42.41%。此外,
PEAB实现的最高改善率高达80.77%。例如,在第5个数据点,PEAB和EPSO的预期响应时间的
标准偏差分别为0.05和0.26。
[0138] 参阅附图4,本发明的在线算法RBEC和基准算法NAVE,DGEN和RALL 实现的系统预期响应时间。任意选择1000个基站,并将这些基站的任务到达率提高5%‑20%。符号“NF”表
示由于违反约束 移动用户的任务无法可行地安排。如图
所示,系统预期响应时间分别比基准算法NAVE和DGEN平均小41.87%和23.54%。此外,系统
预期响应时间比方法RALL平均高12.11%。
[0139] 参阅附图5,本发明的在线算法RBEC和基准算法NAVE,DGEN和RALL 实现的预期响应时间的标准偏差与基准测试方法相比,实现了惊人的公平性改进(高达72.50%)。同时,
也可以看到算法RBEC不如方法RALL,平均性能差异为15.35%。
[0140] 参阅附图6,本发明的在线算法RBEC的运行时间以及在线算法RALL 和DGEN的基准测试。方法NAVE的在线时间开销等于零,因为它在运行时不执行任何操作。结果清楚地表
明,与方法RALL和DGEN相比,本发明的算法RBEC平均达到24.16和2.31倍的加速,加速计算
为测试中的基准测试方法所消耗的运行时与本发明的算法RBEC所消耗的运行时间的比率。
此外, RBEC方法的加速可达25.33,例如,在第9个数据点中,本发明的方法RBEC 和基准测
试方法RALL的运行时间分别为0.79和20.01。
[0141] 本发明采用两阶段方法来部署和分配异构边缘服务器,以便在移动边缘云计算系统中进行响应时间优化,离线阶段确定边缘服务器的最佳部署策略,在线阶段处理运行时
用户移动的动态特性。更重要的是开发的方法共同考虑了边缘云协作和移动用户的性能公
平性。仿真结果表明,本发明的算法可以大大提高整个系统和个人移动用户的预期响应时
间。
[0142] 以上只是对本发明作进一步的说明,旨在解读本发明的技术方案,并非用以限制本专利,凡为本发明等效实施,均应包含于本专利的权利要求范围之内。