异构边缘环境下多用户序列任务计算卸载方法及系统转让专利

申请号 : CN202111136713.7

文献号 : CN113934534B

文献日 :

基本信息:

PDF:

法律信息:

相似专利:

发明人 : 徐焕焕周经亚王进李领治谷飞

申请人 : 苏州大学

摘要 :

本发明公开了一种异构边缘环境下多用户序列任务计算卸载方法,包括以下步骤:根据系统参数、设备和边缘服务器信息,构建多用户序列任务卸载模型;根据构建的多用户序列任务卸载模型,将卸载问题转换为带时延和服务器负载约束的非线性整数规划问题;采用基于正规方程的求导方法,得到非线性整数规划问题的近似解,并对近似解进行归一化处理,得到可执行的卸载策略。本发明在异构边缘环境下,能够在满足序列性任务完成时延和边缘服务器计算负载约束下,降低边缘设备总响应延迟。

权利要求 :

1.一种异构边缘环境下多用户序列任务计算卸载方法,其特征在于:包括以下步骤:S1:根据系统参数、设备和边缘服务器信息,构建多用户序列任务卸载模型;

所述步骤S1中构建多用户序列任务卸载模型的方法,包括以下步骤:S11:针对异构边缘环境的特点,利用系统参数、设备和边缘服务器信息,构建异构边缘计算环境中的双层网络模型,所述双层网络模型包括边缘侧和用户侧,所述边缘侧包括K个边缘服务器,所述用户侧包括N个设备,每个边缘服务器均维护有自身的任务队列,且具备所能接受的任务数量上限c,计算能力fk;

S12:根据设备的应用信息,构建用户侧设备应用的序列任务模型M,其中,每个应用的时延要求S13:利用网络参数和应用信息,构建系统的任务卸载时延模型:其中,Tm,n表示设备n的第m个任务的时延总和;

所述步骤S13中构建系统的任务卸载时延模型,包括以下步骤:tran

S131:通过判断任务数据传输到边缘服务器的过程,建立任务的通信模型T ;

tran

所述步骤S131中建立任务的通信模型T ,包括以下步骤:在任务数据传输的通信过程中,基于无线通信速率计算公式,计算设备n到边缘服务器k的数据传输速率rn,k:其中,pn为设备n的功率,hn,k为设备n到边缘服务器k的信道增益, 表示设备n和边缘服务器k链路的热噪声,w表示无线信道带宽;

构建设备n的第m个任务的通信模型:

其中,sm,n表示设备n的第m个任务的数据量大小。

S132:根据任务到达边缘服务器后在队列中的平均等待时间,建立任务的排队模型queuT ;

queu

所述步骤S132中建立任务的排队模型T ,包括以下步骤:利用Pollaczek Khichine公式,构建任务在边缘服务器上的排队模型:其中,λk为边缘服务器k的任务到达速率,θ为任务在当前服务器上的执行时间,E[θ]为当前服务器任务队列中任务执行时间的期望;

exec

S133:根据任务在当前边缘服务器上等待被执行的信息,建立任务的执行模型T ;

exec

所述步骤S133中建立任务的执行模型T ,包括以下步骤:根据任务执行所需周期数和边缘服务器的计算能力,构建具体的任务执行模型:其中,ηm,n表示单位任务量所消耗的CPU周期数。

tran queu exec

S134:综合通信模型T 、排队模型T 和执行模型T ,得到系统的任务卸载时延模型;

S2:根据构建的多用户序列任务卸载模型,将卸载问题转换为带时延和服务器负载约束的非线性整数规划问题;

S21:检查是否存在有任务需要卸载的设备,如果存在,为其应用的序列任务输入随机的卸载策略xm,n,其中,所述随机卸载策略的卸载变量为:其中,xm,n,k表示设备n的任务m是否卸载到边缘服务器k上,为1则卸载到此边缘服务器上,为0则不卸载到此边缘服务器上;

S22:卸载的原整数规划问题:

其中,Cm,n,k表示设备n的任务m选择了卸载策略xm,n,k卸载到边缘服务器k后产生的时延,X表示卸载策略张量,所述卸载策略张量的维度包括设备n、任务m和边缘服务器k;

S23:根据系统中的设备应用存在时延限制和边缘服务器的负载上限,为原问题设定如下约束:S24:利用惩罚函数将这条件(8)和(9)约束纳入惩罚项,同时将原整数规划问题的系统时延优化目标改为系统成本优化问题,即非线性整数规划问题:其中,E为包括应用时延和边缘服务器负载上限作为惩罚项的系统总成本, 为每个应用未考虑设备间相互影响的最低成本的平均值, 为Cm,n的矩阵形式,Cm,n为当前设备n在随机策略xm,n下任务m的时延,且P1表示应用时延的惩罚项,P2表示边缘服务器负载上限的惩罚项,μ和ρ为各自项的惩罚因子;

S3:采用基于正规方程的求导方法,得到非线性整数规划问题的近似解,并对近似解进行归一化处理,得到可执行的卸载策略;

S31:采用正规方程的矩阵求导公式,对公式(10)求得原整数规划问题的近似最优解,当前设备n的近似最优卸载策略的数值求解公式如下:其中, 表示设备n各个任务产生的时延矩阵的转置, 表示各设备的应用时延的惩罚项均值;

S32:对公式(13)的近似最优解进行归一化处理,参照解的数值范围,将其中过半数值的置为1,其余置为0,使得求得的卸载策略满足实际的卸载要求,即为可执行的卸载策略。

2.如权利要求1所述的异构边缘环境下多用户序列任务计算卸载方法,其特征在于:所述设备与边缘服务器之间采用基于单正交频分多址技术的无线方式进行数据传输,所述边缘服务器之间采用高速有线链路进行传输。

3.一种异构边缘环境下多用户序列任务计算卸载系统,其特征在于:包括:模型构建模块,用于根据系统参数、设备和边缘服务器信息,构建多用户序列任务卸载模型;

问题转换模块,用于根据构建的多用户序列任务卸载模型,将卸载问题转换为带时延和服务器负载约束的非线性整数规划问题;

策略求解模块,用于采用基于正规方程的求导方法,得到非线性整数规划问题的近似解,并对近似解进行归一化处理,得到可执行的卸载策略。

说明书 :

异构边缘环境下多用户序列任务计算卸载方法及系统

技术领域

[0001] 本发明涉及边缘计算技术领域,具体涉及一种异构边缘环境下多用户序列任务计算卸载方法及系统。

背景技术

[0002] 如今随着物联网和移动计算技术的迅猛发展,万物互联的时代已经来临。据国际数据公司(International Data Corporation,IDC)预测,到2025年,大约有800亿台设备连接到互联网。随着移动设备及互联网连接产品的急剧增加,网络中的数据量呈爆炸式增长。《数据时代2025》指出,从2018年到2025年,全球每年产生的数据将从33ZB增加至175ZB。近年来,云计算因其强大的计算能力被灵活应用于数据处理。然而,面对海量数据传输带来的巨大挑战,云计算的不足也初见端倪,如带宽压力大、响应时间长等。
[0003] 为解决上述问题,边缘计算应运而生。边缘计算是一种典型的分布式计算,它利用靠近数据源头的设备,即边缘设备来对数据进行分布式处理,提供最近端服务。因其近端优势,边缘计算有效避免了数据中心和用户之间长时间的数据传输,进而加速了计算任务的完成,且缓解了带宽压力。此外,Gartner在《数据时代2025》中指出,到2025年,大约75%的数据将在边缘侧处理,这无疑将为边缘计算带来巨大的发展机遇。作为移动边缘计算的一项关键技术,计算卸载将设备的应用任务分配给边缘环境,从而缓解了设备在资源存储、计算性能和能源效率方面的不足。
[0004] 目前,在计算卸载问题上已经有了大量的工作,并提出了各种卸载策略。许多研究人员在MEC中进行计算卸载工作。这些研究通过灵活地选择任务卸载决策,可以有效地降低能耗和应用时延,或者在它们之间取得平衡。目前主要的研究工作是针对多用户单任务的卸载问题,主要讨论的是在无线环境中多用户任务卸载对时延等优化目标的影响,着重考量多用户场景中设备对无线带宽竞争、系统对边缘服务器资源分配以及服务器的负载均衡等问题。计算卸载技术能够有效解决设备在资源存储、计算性能以及能效等方面存在的不足。同时相比于云计算中的计算卸载,移动边缘环境中的计算卸载技术解决了网络资源的占用、高时延和额外网络负载等问题。
[0005] 然而对于移动边缘计算环境而言,其中很可能存在多个服务提供商,它们大范围部署的服务器在架构和计算性能等方面是异构的,而且即使是同一个服务提供商,不同时期的部署和设备更新也会导致服务器的异构特性。这种情况导致执行任务的时延有很大的不确定性,这将严重影响任务的执行效率。其次,移动边缘计算是面向多用户的,这与已经被广泛研究的单用户场景不同。多用户场景具有不同的用户需求、异质性任务和资源竞争。特别是,移动设备之间的竞争导致了网络中的低无线速率和边缘服务器上的长排队时间,如果不加以考虑,则会降低系统的效用。最后,许多移动应用不是独立的单个功能模块,而是由连续的依赖任务组成。如果将整个应用进行卸载,一来移动设备可能无法忍受长时间和大任务传输带来的能耗,而且也不利于资源的整合开发。

发明内容

[0006] 本发明的目的是提供一种异构边缘环境下多用户序列任务计算卸载方法及系统,能够在满足序列性任务完成时延和边缘服务器计算负载约束下,降低边缘设备总响应延迟。
[0007] 为了解决上述技术问题,本发明提供了一种异构边缘环境下多用户序列任务计算卸载方法,包括以下步骤:
[0008] S1:根据系统参数、设备和边缘服务器信息,构建多用户序列任务卸载模型;
[0009] S2:根据构建的多用户序列任务卸载模型,将卸载问题转换为带时延和服务器负载约束的非线性整数规划问题;
[0010] S3:采用基于正规方程的求导方法,得到非线性整数规划问题的近似解,并对近似解进行归一化处理,得到可执行的卸载策略。
[0011] 作为本发明的进一步改进,所述步骤S1中构建多用户序列任务卸载模型的方法,包括以下步骤:
[0012] S11:针对异构边缘环境的特点,利用系统参数、设备和边缘服务器信息,构建异构边缘计算环境中的双层网络模型,所述双层网络模型包括边缘侧和用户侧,所述边缘侧包括K个边缘服务器,所述用户侧包括N个设备,每个边缘服务器均维护有自身的任务队列,且具备所能接受的任务数量上限c,计算能力fk;
[0013] S12:根据设备的应用信息,构建用户侧设备应用的序列任务模型M,其中,每个应用的时延要求
[0014] S13:利用网络参数和应用信息,构建系统的任务卸载时延模型:
[0015]
[0016] 其中,Tm,n表示设备n的第m个任务的时延总和。
[0017] 作为本发明的进一步改进,所述设备与边缘服务器之间采用基于单正交频分多址技术的无线方式进行数据传输,所述边缘服务器之间采用高速有线链路进行传输。
[0018] 作为本发明的进一步改进,所述步骤S13中构建系统的任务卸载时延模型,包括以下步骤:
[0019] S131:通过判断任务数据传输到边缘服务器的过程,建立任务的通信模型Ttran;
[0020] S132:根据任务到达边缘服务器后在队列中的平均等待时间,建立任务的排队模queu型T ;
[0021] S133:根据任务在当前边缘服务器上等待被执行的信息,建立任务的执行模型execT ;
[0022] S134:综合通信模型Ttran、排队模型Tqueu和执行模型Texec,得到系统的任务卸载时延模型。
[0023] 作为本发明的进一步改进,所述步骤S131中建立任务的通信模型Ttran,包括以下步骤:
[0024] 在任务数据传输的通信过程中,基于无线通信速率计算公式,计算设备n到边缘服务器k的数据传输速率rn,k:
[0025]
[0026] 其中,pn为设备n的功率,hn,k为设备n到边缘服务器k的信道增益, 表示设备n和边缘服务器k链路的热噪声,w表示无线信道带宽;
[0027] 构建设备n的第m个任务的通信模型:
[0028]
[0029] 其中,sm,n表示设备n的第m个任务的数据量大小。
[0030] 作为本发明的进一步改进,所述步骤S132中建立任务的排队模型Tqueu,包括以下步骤:
[0031] 利用Pollaczek Khichine公式,构建任务在边缘服务器上的排队模型:
[0032]
[0033] 其中,λk为边缘服务器k的任务到达速率,θ为任务在当前服务器上的执行时间,E[θ]为当前服务器任务队列中任务执行时间的期望。
[0034] 作为本发明的进一步改进,所述步骤S133中建立任务的执行模型Texec,包括以下步骤:
[0035] 根据任务执行所需周期数和边缘服务器的计算能力,构建具体的任务执行模型:
[0036]
[0037] 其中,ηm,n表示单位任务量所消耗的CPU周期数。
[0038] 作为本发明的进一步改进,所述步骤S2具体包括以下步骤:
[0039] S21:检查是否存在有任务需要卸载的设备,如果存在,为其应用的序列任务输入随机的卸载策略xm,n,其中,所述随机卸载策略的卸载变量为:
[0040]
[0041] 其中,xm,n,k表示设备n的任务m是否卸载到边缘服务器k上,为1则卸载到此边缘服务器上,为0则不卸载到此边缘服务器上;
[0042] S22:卸载的原整数规划问题:
[0043]
[0044] 其中,Cm,n,k表示设备n的任务m选择了卸载策略xm,n,k卸载到边缘服务器k后产生的时延,X表示卸载策略张量,所述卸载策略张量的维度包括设备n、任务m和边缘服务器k;
[0045] S23:根据系统中的设备应用存在时延限制和边缘服务器的负载上限,为原原整数规划问题设定如下约束:
[0046]
[0047]
[0048] S24:利用惩罚函数将这条件(8)和(9)约束纳入惩罚项,同时将原整数规划问题的系统时延优化目标改为系统成本优化问题,即非线性整数规划问题:
[0049]
[0050] 其中,E为包括应用时延和边缘服务器负载上限作为惩罚项的系统总成本, 为每个应用未考虑设备间相互影响的最低成本的平均值, 为Cm,n的矩阵形式,Cm,n为当前设备n在随机策略xm,n下任务m的时延,且
[0051]
[0052]
[0053] P1表示应用时延的惩罚项,P2表示边缘服务器负载上限的惩罚项,μ和ρ为各自项的惩罚因子。
[0054] 作为本发明的进一步改进,所述步骤S3具体包括以下步骤:
[0055] S31:采用正规方程的矩阵求导公式,对公式(10)求得原整数规划问题的近似最优解,当前设备n的近似最优卸载策略的数值求解公式如下:
[0056]
[0057] 其中, 表示设备n各个任务产生的时延矩阵的转置,表示各设备的应用时延的惩罚项均值;
[0058] S32:对公式(13)的近似最优解进行归一化处理,参照解的数值范围,将其中过半数值的置为1,其余置为0,使得求得的卸载策略满足实际的卸载要求,即为可执行的卸载策略。
[0059] 一种异构边缘环境下多用户序列任务计算卸载系统,包括:
[0060] 模型构建模块,用于根据系统参数、设备和边缘服务器信息,构建多用户序列任务卸载模型;
[0061] 问题转换模块,用于根据构建的多用户序列任务卸载模型,将卸载问题转换为带时延和服务器负载约束的非线性整数规划问题;
[0062] 策略求解模块,用于采用基于正规方程的求导方法,得到非线性整数规划问题的近似解,并对近似解进行归一化处理,得到可执行的卸载策略。
[0063] 本发明的有益效果:本发明的异构多用户序列任务卸载方法,利用任务的时延模型来精准描绘应用的完成过程,并使用基于正规方程的方法来获得近似最优卸载方案,可以降低应用的完成时延,同时也可以提高任务的卸载成功率;通过构建任务卸载模型、建立卸载问题和卸载策略求解,本发明能够根据移动边缘网络的异构特性,同时考虑用户设备对通信资源和任务对服务器的计算资源竞争,以及序列任务之间的依赖关系求得近似最优的卸载策略,满足应用时延和服务器负载要求,降低应用完成总时延。

附图说明

[0064] 图1是本发明异构边缘计算下多用户序列任务的卸载流程示意图;
[0065] 图2是本发明异构的移动边缘计算多用户序列任务卸载场景示意图;
[0066] 图3是在不同设备数下不同方案应用平均完成延迟的比较图;
[0067] 图4是在不同服务器数下不同方案应用平均完成延迟的比较图;
[0068] 图5是在不同设备数量下不同方案的应用完成率比较图。

具体实施方式

[0069] 下面结合附图和具体实施例对本发明作进一步说明,以使本领域的技术人员可以更好地理解本发明并能予以实施,但所举实施例不作为对本发明的限定。
[0070] 参考图1,本发明提供了一种异构边缘环境下多用户序列任务计算卸载方法,包括以下步骤:
[0071] S1:根据系统参数、设备和边缘服务器信息,构建多用户序列任务卸载模型;
[0072] S2:根据构建的多用户序列任务卸载模型,将卸载问题转换为带时延和服务器负载约束的非线性整数规划问题;
[0073] S3:采用基于正规方程的求导方法,得到非线性整数规划问题的近似解,并对近似解进行归一化处理,得到可执行的卸载策略。
[0074] 具体的,1)针对异构边缘环境的特点,根据系统参数、设备和边缘服务器信息,建立多用户序列任务卸载的系统模型,如图2所示,其中包含了K个边缘服务器的边缘侧和N个设备的用户侧组成的双层网络模型,每个设备应用M拥有的序列任务模型和任务m完成的时延模型。
[0075] 步骤S1中异构移动边缘计算环境下的多用户序列任务卸载模型的构建方法为:
[0076] 首先,针对异构边缘环境的特点,利用系统参数、设备和边缘服务器信息,构建异构边缘计算环境中的双层网络模型。如图2中的N和K所示,系统中存在K个边缘服务器组成的边缘测和N个设备组成的用户侧,其中边缘服务器的计算能力fk不尽相同,这符合边缘环境中边缘服务器异构的特性。设备与边缘服务器之间采用基于单正交频分多址技术的无线方式进行数据传输,而边缘服务器之间则使用高速有线链路进行传输,每个边缘服务器都维护着自身的任务队列,且有着通用负载上限c,表示边缘服务器所能接受的任务数量上限;
[0077] 其次,根据设备的应用信息,构建用户侧设备上应用的序列任务模型。每个设备上都有一个移动应用M,每个应用的时延要求 不尽相同。应用的结构可看作一个单向链表,如图2中的M3所示,其表示当前第3个设备上应用的序列任务结构,其中节点m2代表其为当前第2个序列任务。任务量的大小不一,所需CPU周期数也不尽相同,由于设备计算能力的薄弱导致时延不可避免得长,它们寄希望于依赖卸载方案x被卸载到边缘服务器上才能被执行。而且由于应用特殊的序列结构,在结构中的下一个任务一定要得到前一个任务的输出数据后才能够被系统卸载,如m2依赖于m1执行完毕的输出结果,在后者没有完成时系统无法为前者选择边缘服务器进行卸载;
[0078] 最后,综合利用网络参数和应用信息,建立了系统的任务卸载时延模型。由于系统中多个设备上的应用具有序列任务,它们在卸载时会产生一定的时延。一个任务具体的卸载流程如图2中m2所示,其完整卸载流程包含三部分:等待m1的输出数据的任务通信,在边缘服务器K2任务队列中的任务排队和在边缘服务器K2上的任务执行,分别对应图中①,②和③标识的内容,符合任务完成过程中在无线或有线链路上对任务执行所需数据进行的传输过程,任务到达边缘服务器后被放置在任务队列的等待过程,以及在边缘服务器上执行任务的处理过程。
[0079] 进一步的,对上述步骤中时延模型的三个过程分别建模,其具体表示如下:
[0080] 首先,在任务数据传输的任务通信过程中,由于无线网络中存在多个设备对有限带宽资源的竞争,基于通用的无线通信速率计算公式,可以计算设备n到边缘服务器k的数据传输速率rn,k为:
[0081]
[0082] 其中,pn为设备n的功率,hn,k为设备n到边缘服务器k的信道增益, 表示设备n和边缘服务器k链路的热噪声,而w表示无线信道带宽;
[0083] 因此,可以构建无线传输的时延模型,其表述为:
[0084]
[0085] 其中sm,n表示设备n的第m个任务的数据量大小。
[0086] 其次,任务在到达边缘服务器时可能不会被立即执行,需要在任务队列中等待一定的时间,利用Pollaczek Khichine公式,构建任务在边缘服务器上的排队模型,表示如下:
[0087]
[0088] 其中vk为边缘服务器k的任务到达速率,θ为任务在当前服务器上的执行时间,E[θ]为当前服务器任务队列中任务执行时间的期望;
[0089] 最后,任务在边缘服务器上开始被执行,主要跟任务执行所需的周期数和边缘服务器的计算能力相关,可以依此构建具体的任务执行模型,表示如下:
[0090]
[0091] 其中,ηm,n表示单位任务量所消耗的CPU周期数。
[0092] 通过结合上述模型,得到异构移动边缘计算环境下的多用户序列任务卸载的总时延模型,其表示为:
[0093]
[0094] 其中Tm,n表示设备n的第m个任务的时延总和。
[0095] 2)步骤S2中开始利用建立的模型开始对卸载问题进行求解,先检查是否存在有任务需要卸载的设备,如果存在,那么先为其应用的序列任务输入随机的卸载决策:
[0096] 与此同时,为了方便得到问题的卸载策略,先将问题中原整型的卸载变量改写为如下的0‑1整型形式:
[0097]
[0098] 其中xm,n,k表示设备n的任务m是否卸载到边缘服务器k上,为1则卸载到此边缘服务器上,为0则不卸载到此边缘服务器上;
[0099] 然后,依次探究单个应用在不同卸载策略下的时延的时延,在探究单个应用的卸载时,暂时不考虑系统中其他未卸载应用卸载策略改变造成的时延变化情况,从而使得在改变单个应用的卸载策略时能够忽略其对系统的动态影响。求得原整数规划问题的形式,其如下表述:
[0100]
[0101] 其中,Cm,n,k表示设备n的任务m选择了卸载策略xm,n,k卸载到边缘服务器k后可能会产生的时延,X表示卸载策略张量,所述卸载策略张量的维度包括设备n、任务m和边缘服务器k。
[0102] 与此同时,由于系统中的设备应用存在时延限制和边缘服务器的负载上限,因此,为原问题设定如下约束:
[0103]
[0104] 其表示任一设备应用的所有任务完成时延总和不应超过其应用时延限制,以及[0105]
[0106] 其中,c表示边缘服务器的通用负载上限,即为边缘服务器所能接受的任务数量上限;
[0107] 为了表示以上应用的时延限制和边缘服务器的负载上限对系统产生的负面影响,从而得到尽可能符合系统要求的卸载策略,利用惩罚函数将这两个约束纳入惩罚项,同时将原本问题的系统时延优化目标改写为系统成本优化,以此来获得尽可能满足条件的卸载策略。将新的系统成本优化问题表述为:
[0108]
[0109] 其中,E表示为包含了应用时延和边缘服务器负载上限作为惩罚项的系统总成本,为每个应用未考虑设备间相互影响的最低成本的平均值,且
[0110]
[0111] 和
[0112]
[0113] 分别表示应用时延和边缘服务器负载上限的惩罚项,μ和ρ为各自项的惩罚因子。
[0114] 3)所述步骤S3的求解过程为:
[0115] 利用惩罚函数得到的问题为标准的最小二乘法形式,符合使用正规方程得到其近似最优解的条件。因此,使用正规方程的矩阵求导公式,其对上述构造好的问题可以直接求得原问题的近似最优解,当前设备n的近似最优卸载策略的数值求解公式如下:
[0116]
[0117] 其中, 表示设备n各个任务可能产生的时延矩阵的转置,(·)‑1表示矩阵的逆,表示不同设备的应用时延的惩罚项的均值。
[0118] 在得到问题的近似最优解之后,从而可以依次为多设备应用的序列任务提供卸载策略并实施。其中,针对式子(13)求出的解可能并不满足规定的0‑1整型要求的情况,通过归一化操作,即参照解的数值范围,将其中过半数值的置为1,其余置为0,从而使得求得的卸载策略满足实际的卸载要求。
[0119] 实施例一
[0120] 为了验证本方法的有效性,通过模拟仿真实验提供一具体实施例。本实施例中的边缘计算网络为局域网或者无线网络。本实例评估了异构边缘计算环境中面向多用户序列任务的计算卸载方法的性能,并将其与以下两种方案对比:
[0121] (1)Random Offloading Scheme(ROS)方案,在该方案中,ROS方案总是随机地为设备上的任务选取合适的卸载策略,将任务分配给任意的边缘服务器来执行。
[0122] (2)Greedy Offloading with Load Balanc(GOLB)方案,在该方案中,GOLB在系统中维持一个服务器的负载队列,每次有任务需要卸载时,都会从队列中挑选负载最轻的服务器进行卸载,并更新队列的负载信息。
[0123] 在本实施例中,假设了当前网络环境为250*250㎡的覆盖区域,其中包含了M=50个应用程序的设备,和9个边缘服务器,每个设备都有一个由5个序列任务组成的应用程序。该初始计算任务的大小遵循[600,1200]KB的均匀分布,完成该任务所需的CPU周期数遵循[500,1000]Megacycles的随机分布,边缘服务器的计算能力从{15,20,30}GHz中选择。信道增益模型中,信道损失被设定为140.7+36.7log10(d),其中d表示设备和边缘服务器之间的距离,设备和边缘服务器的位置遵循一个随机均匀分布,边缘服务器之间通过有线相互连接。对于通信模型,噪声功率被设定为‑100dBm,设备发射功率为23dBm,有线带宽为1Gbps。
无线信道是一个单载波信道,信道带宽为W=36MHz。将的基于正规方程的多用户序列任务卸载(regular expression‑based Multi‑User Sequential Task offloading,reMUST)方案与这些基准方案进行比较。
[0124] 在图3中,评估了不同设备数量下所有任务卸载方案的平均应用延迟,横坐标为系统中的设备数量,纵坐标表示应用完成的平均时延。图表显示,随着设备数量的增长,所有方案的平均时延都有持续增长的趋势。而其中,reMUST总是能实现最低的平均延迟。注意到,当设备的数量达到100时,reMUST的排队时间比GOLB长。这是因为GOLB倾向于将任务卸载到工作负荷低的边缘服务器上,这导致了较高的传输延迟,而reMUST同时考虑了数据传输和任务排队。虽然reMUST有一个很长的排队过程,但其传输延迟明显低于其他方案。因此,reMUST与其他的方案相比,它实现了最低的总体延迟。
[0125] 在图4中,评估了不同设备数量下所有任务卸载方案的平均应用延迟,横坐标为边缘服务器的数量,纵坐标表示应用完成的平均时延。可以发现,所有方案的平均延迟随着边缘服务器的增加而减少。发现,当边缘服务器的数量超过12时,平均延迟会缓慢下降。然后排队时间明显减少。在这种情况下,当边缘服务器的数量达到12时,系统资源足以满足当前的任务规模,资源竞争减弱。与其他方案相比,reMUST的优势主要体现在数据传输延迟的减少。
[0126] 在图5中,评估了设备数量对应用完成率的影响,横坐标表示系统中设备的数量,纵坐标表示应用的完成率,其中完成率是指在时延限制内完成应用的比例。图5表明,当设备的数量越多时,所有方案的表现都越差。在这些方案中,只有reMUST在设备数量为60时,完成率接近100%,而ROS和GOLB的完成率约为50%。当系统内有100个设备时,reMUST的完成率接近30%。这是因为网络环境非常拥挤,很少有应用程序能够满足他们的时延限制,同时,ROS和GOLB的完成率几乎下降到零。
[0127] 综上,reMUST方案不仅降低了系统中应用的平均延迟,而且还增强了卸载策略的可扩展性。
[0128] 实施例二
[0129] 本发明实施例提供了一种异构边缘环境下多用户序列任务计算卸载系统,包括:
[0130] 模型构建模块,用于根据系统参数、设备和边缘服务器信息,构建多用户序列任务卸载模型;
[0131] 问题转换模块,用于根据构建的多用户序列任务卸载模型,将卸载问题转换为带时延和服务器负载约束的非线性整数规划问题;
[0132] 策略求解模块,用于采用基于正规方程的求导方法,得到非线性整数规划问题的近似解,并对近似解进行归一化处理,得到可执行的卸载策略。
[0133] 本实施例用于实施上述实施方式及实施例,其解决问题的原理与所述一种异构边缘环境下多用户序列任务计算卸载方法类似,重复之处不再赘述。
[0134] 以上所述实施例仅是为充分说明本发明而所举的较佳的实施例,本发明的保护范围不限于此。本技术领域的技术人员在本发明基础上所作的等同替代或变换,均在本发明的保护范围之内。本发明的保护范围以权利要求书为准。