一种基于深度强化学习的时空充电调度方法转让专利

申请号 : CN202011506914.7

文献号 : CN112788560B

文献日 :

基本信息:

PDF:

法律信息:

相似专利:

发明人 : 冯勇王艺均李英娜钱谦

申请人 : 昆明理工大学

摘要 :

本发明公开一种基于深度强化学习的时空充电调度方法,涉及无线可充电传感器网络技术领域。本发明基于深度强化学习从在线模式的基础上考虑时间和空间两个维度设计了无线可充电传感网中MC对节点的充电方案。首先传感器节点根据自身剩余电量和能耗速度预估死亡时间,当剩余生存时间低于给定的阈值时向基站发送充电请求,MC根据请求节点信息规划充电序列和充电时间为低能量节点及时的补充能量。本发明基于深度强化学习从节点的充电序列和充电时长两个维度优化充电方案,最终输出一条避开障碍物的具体路线并且在充电过程中动态调整每个节点的充电时间,最小化网络中节点的失效率,达到延长网络生存时间,维护整个网络正常运行的目的。

权利要求 :

1.一种基于深度强化学习的时空充电调度方法,其特征在于,包括以下步骤:S1:构建无线可充电传感器网络模型,使得移动充电装置MC是具有自主移动能力和计算能力的独立设备,可自行规划充电序列和在移动过程中避障,由基站为MC补充能量;

S2:以最小化充电成本和减少节点死亡率为目标,设计基于深度强化学习的时空充电方案SCSDRL;

S3:使用SCSDRL算法生成充电序列后,根据MC当前位置坐标(xm,ym)和目标节点的二维坐标(xi,yi),使用Q‑learning算法规划路径,MC在移动过程中按照规划的路径避开障碍物访问每个节点为其进行一对一无线充电;

S4:完成一轮充电调度规划后,MC前往基站补充为自身补充能量,为下次调度做准备;

所述S2时空充电方案是:每个传感器节点可根据能耗速率计算自身剩余能量和平均剩余存活时间;当传感器节点剩余能量低于最小能量阈值时向基站发送充电请求,由MC首先根据充电请求中的节点信息进行充电序列的规划,再由规划的充电序列判断序列中的每个节点的平均剩余生存时间,通过后一节点的剩余生存时间动态调整前一节点的充电时间;

S3中的SCSDRL算法具体步骤为:首先根据t时刻待充电节点的请求集合D(t)=(Si,...,Sn;i=1,...,n‑1)为节点规划充电序列,引入深度强化学习DRL对充电序列进行优化,将问题抽象为马尔科夫决策过程MDP,其最优解视为一个决策序列,使用DRL通过增加解码序列的概率来逼近最优解;SCSDRL算法可由元组{S,A,R,S′}定义,S是状态空间;A为动作空间;R为MC 执行一个决策序列后的奖励;S′是执行动作后的环境状态;

在SCSDRL中,智能体是MC,负责做出充电决策;系统的状态空间包括基站和所有传感器节点的位置和待充电节点的能量需求,表示为S=Si,i=1,...,n; li给出了传感器节点i的二维坐标, 为其能量需求,为节点i的平均剩余生存时间,根据节点i的平均能耗率计算;

策略由表达式a=π(s)表示,是从输入状态S到输出动作a的映射,SCSDRL的目标是找出一种最优策略来规划MC的充电序列;

在SCSDRL中,为了提高WRSN的充电效率,包括通过优化MC的充电路径来避免传感器故障和降低充电成本,SCSDRL以MC的总行程长度和死节点数作为奖励信号,把奖励定义为:状态的具体更新过程如下:假设MC在0时刻位于基站B处;在每个步骤中,MC从传感器节点或基站B中选择下一步要访问的节点;访问传感器节点i后,更新传感器节点的需求和MC的剩余能量如下:

u

其次,SCSDRL中的网络模型为两个神经网络:其一是带有参数θ的Actor网络,其输出为Q

可选动作空间的动作概率分布,其二是带有参数θ的Critic网络;在当前WRSN环境下从MC执行动作序列中的动作a中得到一个奖励R;根据当前的统计数据从Critic网络中得到V值,进而更新Actor和具有R和V的误差准则函数的Critic网络;

接着,根据t时刻待充电节点的请求集合D(t)=(Si,...,Sn)为节点规划充电序列,引入深度强化学习对充电序列进行优化;将充电序列的规划抽象为VRP(Vehicle routing problem)问题,此类问题为NP‑hard问题,使用深度强化算法来接近最优解;

同时,由于随着充电时间的增加,电池接收的能量不是线性增加的,充电效率具有边际效应;若所有请求节点都进行完全充电,将影响充电效率;故在生成MC移动距离最短的充电序列后,判断为节点进行完全充电或部分充电,充电时间划分和电池获得能量计算如下:在充电序列的基础上动态调整每个节点的充电时长;

最后,基于策略梯度,使用预期奖励的梯度对策略参数的估计来迭代地改进策略使得奖励最大化,从而生成近似最优解。

2.如权利要求1所述的基于深度强化学习的时空充电调度方法,其特征在于:所述S1无线可充电传感器网络模型的构建是在规划好的有障碍物的目标区域内按需求部署一定数量的传感器节点,xi,0<i<n为传感器节点构成的集合,节点和障碍物固定且位置已知;

Cs为传感器节点电池最大容量,每个传感器节点装有相同容量的电池;Ei(t)表示节点i在当前时刻t的剩余电量;Si是包含位置、能量需求和剩余生存时间的元组,表示为li给出了传感器节点i的二维坐标, 为其能量需求;为节点i的平均剩余生存时间,根据节点i的平均能耗率计算;

D(t)=(Si,...,Sn)为t时刻待充电节点的请求集合;基站B按实际需求部署在合适的位置,网络中部署一个可移动充电装置MC在网络区域内可自由移动,携带电池容量为Cm;速度为vm/s;移动过程中的能耗为qmJ/m;在t时刻MC的剩余电量为Em(t);

整个无线可充电传感器网络部署在二维有障碍物的目标区域内,传感器节点负责收集和传输数据并将数据通过多跳的方式转发到基站,由基站负责存储数据,且基站B通过远距离通信与MC传输数据。

3.如权利要求1所述的基于深度强化学习的时空充电调度方法,其特征在于:所述S2的传感器节点的能耗模型为:

其中fi,j,1≤j≤n,kbps是节点i传输到节点j的数据;在t时刻节点的剩余能量为:传感器节点按照剩余能量分为两种状态,当剩余能量小于0时节点被标记死亡:节点计算出当前剩余能量后,当 时,节点i向基站发送充电请求,需要补充的能量为:

其中λ,0<λ≤1,为充电参数,决定MC是为节点i进行完全或部分充电。

4.如权利要求1所述的基于深度强化学习的时空充电调度方法,其特征在于:所述S2的MC的剩余能量计算公式为:

上式中La,i为上一节点a到当前节点i的距离,Lm,B为MC当前位置到基站B的距离,当MC剩余能量小于下一待充电节点能量需求与自身行驶消耗能量之和时停止为节点补。

5.如权利要求1所述的基于深度强化学习的时空充电调度方法,其特征在于:所述S3中用于规划路径的Q‑learning算法具体步骤为:首先将无线可充电传感网区域转化为二维网格地图,其中基站、传感器节点、MC的位置均已知;将路径规划问题抽象为马尔科夫决策过程,由元组{Sp,Ap,Rp,S′p}定义,Sp是状态空间;Ap为动作空间;Rp为MC执行该动作后的奖励;S′p为执行后的环境状态;将目标位置奖励设置为最大正奖励,将障碍物和其他节点位置设置为最大负奖励,通过Q函数进行学习;求解最优路径就是求得一条到达终点获得最大奖励的策略,最优价值动作函数定义为:* *

Q(s,a)=maxπQ(s,a)*

=∑s′P(s′|s,a)(R(s,a,s′)+γmaxa′Q(s′,a′))根据Q值进行学习,采用时间差分方法进行Q‑table的更新,更新过程如下:Q(s,a)←Q(s,a)+α[r+γmaxa′Q(s′,a′)‑Q(s,a)]通过Q‑learning算法为MC规划出避开障碍物到达目标节点的路径,并自行避开障碍物移动到节点位置为其进行一对一无线充电。

说明书 :

一种基于深度强化学习的时空充电调度方法

技术领域

[0001] 本发明涉及利用无线充电技术延长无线可充电传感器网络生存周期技术领域,具体的涉及一种无线可充电传感网中基于深度强化学习的时空充电调度方法。

背景技术

[0002] 无线传感网(Wireless sensor network,WSN)由三大部分构成,包括传感器节点、传感网络和基站。作为实现物联网的重要基础设施,近年来发展迅速,并被广泛应用于电气
自动化、农业、建筑物状态监控等领域。传感器节点电池能量限制使网络生存时间有限,而
一些应用场景中希望WSN无期限工作。随着无线充电技术的日趋成熟,无线可充电传感网
(Wireless rechargeable sensor network,WRSN)应运而生,有效改善了网络的生存时间。
[0003] 无线可充电传感网在WSN的基础上增加了可移动充电装置(Mobile charging unit,MC),通过充电算法的调度,MC自行移动到传感器节点位置为其进行无线充电。WRSN相
较于WSN大大提高了网络的生存时间,因此需要考虑在WRSN中如何有效的调度MC为节点补
充能量。
[0004] Chao Sha等学者于2019年在IEEE Transactions on Vehicular Technology发表的“Research on Cost‑Balanced Mobile Energy Replenishment Strategy for 
Wireless Rechargeable Sensor Networks”提出了一种成本均衡的移动能量补充策略。首
先,将节点按照剩余生命周期进行分组,保证在每个时隙中只对剩余能量较低的节点进行
再充电。然后,以移动距离和能量消耗为约束条件,均衡多基站间的能量消耗,得到最优轨
迹分配方案。
[0005] Jianxin Ma等学者于2019年在International Conference on Artificial Intelligence for Communications and Networks发表的“Path Optimization with 
Machine‑Learning Based Prediction for Wireless Sensor Networks”提出了一种基于
机器学习的能量消耗预测方法(ML‑ECP),该方法利用机器学习预测无线传感器网络的能量
消耗率。在此基础上,将传感器节点划分为多个簇,得到移动节点的最优轨迹。移动节点在
网络中周期性地采集信息和充电时提高了传感器节点充电和数据采集的能量效率。
[0006] 从出版的文献中,尚无这样的研究工作来利用深度强化学习技术来解决无线可充电传感网中对移动充电器调度策略的优化。现有无线了充电传感网中的能量补充方法大多
只考虑对MC移动路径和节点充电序列的优化,而忽略了对节点充电时间的优化,只考虑了
充电调度的空间维度,没有考虑到时间维度,因此对于充电调度方案还有可改进之处。为了
提高网络生成时间,提高充电效率,本发明结合深度强化学习技术对时间和空间进行协同
优化。
[0007] 深度强化学习近期来发展迅速,并在机器学习领域得到了很多的关注。传统的强化学习局限于动作空间和样本空间较小,且一般是离散的情境下。然而比较复杂的、更加接
近实际情况的任务则往往有着很大的状态空间和连续的动作空间。实现端到端的控制也是
要求能处理高维数据,如图像、声音等的数据输入。而现有的深度学习,刚好可以应对高维
的输入,将两者结合,使智能体同时拥有深度学习的理解能力和强化学习的决策能力。深度
强化学习可以解决有着高维或连续动作空间的情境。它包含一个策略网络来生成动作,一
个价值网络来评判动作的好坏,在动作输出方面采用一个网络来拟合策略函数,直接输出
动作,可以应对连续动作的输出及大的动作空间。
[0008] 为了解决WRSN中传感器节点的能量补充问题,本发明通过引入深度强化学习对其问题进行解决。传感器节点可以根据自身能耗预测剩余工作时间,在电量低于最小能量阈
值时,节点向基站B发送请求,MC根据基于深度强化学习的时空充电算法规划充电序列和每
个节点的充电时间。

发明内容

[0009] 针对现有技术存在的上述问题,本发明提供了一种基于深度强化学习的时空充电调度方法,本发明的时空充电方案(Spatio‑temporal charging scheme based on deep 
reinforcement learning,简称SCSDRL)的深度强化学习调度算法,在考虑路径成本最小的
基础上特别考虑了充电时间对充电效果的影响,基于时间和空间两个维度对充电序列进行
协同优化,通过对充电时间的动态调整,避免下一节点因等待时间多长而饥饿死亡,从而提
高整个无线可充电传感网的生存时间。
[0010] 为实现上述技术目的,达到上述技术效果,本发明是通过以下技术方案实现:
[0011] 一种基于深度强化学习的时空充电调度方法,包括以下步骤:
[0012] S1:构建无线可充电传感器网络模型,使得MC(移动充电装置)是具有自主移动能力和计算能力的独立设备,可自行规划充电序列和在移动过程中避障,由基站为MC补充能
量;
[0013] S2:以最小化充电成本和减少节点死亡率为目标,设计基于深度强化学习的时空充电方案(SCSDRL);
[0014] S3:使用SCSDRL算法生成充电序列后,根据MC当前位置坐标(xm,ym)和目标节点的二维坐标(xi,yi),使用Q‑learning算法规划路径,MC在移动过程中按照规划的路径避开障
碍物访问每个节点为其进行一对一无线充电;
[0015] S4:完成一轮充电调度规划后,MC前往基站补充为自身补充能量,为下次调度做准备。
[0016] 进一步的,所述S1无线可充电传感器网络模型的构建是在规划好的有障碍物的目标区域内按需求部署一定数量的传感器节点,XI(0<I<N)为传感器节点构成的集合,节点
和障碍物固定且位置已知;
[0017] Cs为传感器节点电池最大容量,每个传感器节点装有相同容量的电池;Ei(t)表示节点i在当前时刻t的剩余电量;Si是包含位置、能量需求和剩余生存时间的元组,表示为
LI给出了传感器节点i的二维坐标, 为其能量需求;为节点i的平均剩余
生存时间,根据节点i的平均能耗率计算;D(t)=(Si,...,Sn)为t时刻待充电节点的请求集
合;基站B按实际需求部署在合适的位置,网络中部署一个可移动充电装置MC在网络区域内
可自由移动,携带电池容量为CM;速度为VM/S;移动过程中的能耗为QEJ/M;在t时刻MC的剩余
电量为Em(t);
[0018] 整个无线可充电传感器网络部署在二维有障碍物的目标区域内,无线可充电传感器网络由三个部分组成,在一个二维平面区域内布置有一个基站(B),一个负责为节点充电
的可移动充电装置(MC)和若干用来收集和传输数据的传感器节点,每个传感器节点装有相
同容量的电池,传感器节点负责收集和传输数据并将数据通过多跳的方式转发到基站,由
基站负责存储数据,且基站B通过远距离通信(如4G/5G通信技术)与MC传输数据以及为MC补
充能量,MC从基站出发,根据节点的充电请求依次遍历传感器节点进行无线充电,并在一轮
充电完成后返回基站为下次调度补充能量。
[0019] 进一步的,所述S2时空充电方案是:每个传感器节点可根据能耗速率计算自身剩余能量和平均剩余存活时间;当传感器节点剩余能量低于最小能量阈值时向基站发送充电
请求,由MC首先根据充电请求中的节点信息进行充电序列的规划,再由规划的充电序列判
断序列中的每个节点的平均剩余生存时间,通过后一节点的剩余生存时间动态调整前一节
点的充电时间。
[0020] 进一步的,所述S2的传感器节点的能耗模型为:
[0021]
[0022] 其中fi,j(1≤j≤n)kbps是节点i传输到节点j的数据;在t时刻节点的剩余能量为:
[0023]
[0024] 传感器节点按照剩余能量分为两种状态,当剩余能量小于0时节点被标记死亡:
[0025]
[0026] 节点计算出当前剩余能量后,当 时,节点i向基站发送充电请求,需要补充的能量为:
[0027]
[0028] 其中λ(0<λ≤1)为充电参数,决定MC是为节点i进行完全或部分充电。
[0029] 进一步的,所述S2的MC的剩余能量计算公式为:
[0030]
[0031]
[0032] 上式中La,i为上一节点a到当前节点I的距离,Lm,B为MC当前位置到基站B的距离,当MC剩余能量小于下一待充电节点能量需求与自身行驶消耗能量之和时停止为节点补充能
量,从当前位置返回基站充电,准备下一次调度。
[0033] 进一步的,所述S3中的SCSDRL算法具体步骤为:
[0034] 首先根据t时刻待充电节点的请求集合D(t)=(Si,...,Sn)为节点规划充电序列,引入深度强化学习(DRL)对充电序列进行优化,将问题抽象为马尔科夫决策过程(MDP),其
最优解视为一个决策序列,使用DRL通过增加解码序列的概率来逼近最优解;SCSDRL算法可
由元组{S,A,R,S′}定义,S是状态空间;A为动作空间;R为MC执行该行为后的奖励;S′是执行
动作后的环境状态;
[0035] 在SCSDRL中,智能体是MC,负责做出充电决策;系统的状态空间包括基站和所有传感器节点的位置和待充电节点的能量需求,表示为S=Si,i=1,...,n; LI给
出了传感器节点i的二维坐标, 为其能量需求,为节点i的平均剩余生存时间,根据节点
i的平均能耗率计算;
[0036] 策略由表达式a=π(s)表示,是从输入状态S到输出动作a的映射,SCSDRL的目标是找出一种最优策略来规划MC的充电序列;
[0037] 在SCSDRL中,为了提高WRSN的充电效率,包括通过优化MC的充电路径来避免传感器故障和降低充电成本,SCSDRL以MC的总行程长度和死节点数作为奖励信号,把奖励定义
为:
[0038]
[0039] 状态的具体更新过程如下:假设MC在0时刻位于基站B处;在每个步骤中,MC从传感器节点或基站B中选择下一步要访问的节点;访问传感器节点i后,更新传感器节点的需求
和MC的剩余能量如下:
[0040]
[0041]
[0042] 其次,SCSDRL中的网络模型为两个神经网络:其一是带有参数θu的Actor网络,其Q
输出为可选动作空间的动作概率分布,其二是带有参数θ的Critic网络;可以在当前WRSN
环境下从MC执行动作序列中的动作a中得到一个奖励R;根据当前的统计数据从Critic网络
中得到V值,进而更新Actor和具有R和V的误差准则函数的Critic网络;
[0043] 接着,根据t时刻待充电节点的请求集合D(t)=(Si,...,Sn)为节点规划充电序列,引入深度强化学习对充电序列进行优化;将充电序列的规划抽象为VRP(Vehicle routing 
problem)问题,此类问题为NP‑hard问题,使用深度强化算法来接近最优解;
[0044] 同时,由于随着充电时间的增加,电池接收的能量不是线性增加的,充电效率具有边际效应;若所有请求节点都进行完全充电,将影响充电效率;故在生成MC移动距离最短的
充电序列后,判断为节点进行完全充电或部分充电,充电时间划分和电池获得能量计算如
下:
[0045]
[0046] 在充电序列的基础上动态调整每个节点的充电时长;
[0047] 最后,基于策略梯度,使用预期奖励的梯度对策略参数的估计来迭代地改进策略使得奖励最大化,从而生成近似最优解。
[0048] 进一步的,所述S3中用于规划路径的Q‑learning算法具体步骤为:
[0049] 首先将无线可充电传感网区域转化为二维网格地图,其中基站、传感器节点、MC的位置均已知;将路径规划问题抽象为马尔科夫决策过程,由元组{Sp,Ap,Rp,S′p}定义,Sp是状
态空间;Ap为动作空间;Rp为MC执行该动作后的奖励;S′p为执行后的环境状态。将目标位置
奖励设置为最大正奖励,将障碍物和其他节点位置设置为最大负奖励,通过Q函数进行学
习;求解最优路径就是求得一条到达终点获得最大奖励的策略,最优价值动作函数定义为:
[0050]
[0051] 根据Q值进行学习,采用时间差分方法进行Q‑table的更新,更新过程如下:
[0052] Q(s,a)←Q(s,a)+α[r+γmaxa'Q(s',a')‑Q(s,a)]
[0053] 通过Q‑learning算法为MC规划出避开障碍物到达目标节点的路径,并自行避开障碍物移动到节点位置为其进行一对一无线充电。
[0054] 本发明的有益效果是:
[0055] 本发明通过对无线可充电传感网中传感器节点充电序列和充电时间的优化,尤其是使用深度强化学习方法同时从时间和空间两个维度对MC的充电规划进行协同优化,在减
少MC在移动过程中能量损耗的同时,动态调整节点的充电时间,避免下一节点因等待时间
过长而失效死亡。该方法可以有效的适应节点能耗不平衡的无线可充电传感器网络,提高
整个无线可充电传感网的生存时间,避免因节点死亡带来的不良影响。

附图说明

[0056] 图1是无线可充电传感网络模型图;
[0057] 图2是充电曲线示意图;
[0058] 图3是SCSDRL网络结构图;
[0059] 图4是避障路径规划图。
[0060] 图5是基于深度强化学习的时空充电调度方法原理图。

具体实施方式

[0061] 为了更详细的描述本发明和便于本领域人员的理解,下面结合附图以及实施例对本发明做进一步的描述,本部分的实施例用于解释本发明,便于理解的目的,不以此来限制
本发明。
[0062] 实施例1
[0063] 如图1‑5所示,无线可充电传感网中一种基于深度强化学习的时空充电调度方法,包括如下步骤:
[0064] S1:建立无线可充电传感器网络模型:在规划好的有障碍物的目标区域内按需求部署一定数量的传感器节点,XI(0<I<N)为传感器节点构成的集合,节点和障碍物固定且
位置已知;Cs为传感器节点电池最大容量,每个传感器节点装有相同容量的电池;Ei(t)表示
节点i在当前时刻t的剩余电量;Si是包含位置、能量需求和剩余生存时间的元组,表示为
LI给出了传感器节点i的二维坐标, 为其能量需求;为节点i的平均剩余
生存时间,根据节点i的平均能耗率计算;D(t)=(Si,...,Sn)为t时刻待充电节点的请求集
合;基站B按实际需求部署在合适的位置,网络中部署一个可移动充电装置MC在网络区域内
可自由移动,携带电池容量为CM;速度为VM/S;移动过程中的能耗为QEJ/M;在t时刻MC的剩余
电量为Em(t);
[0065] 整个无线可充电传感器网络部署在二维有障碍物的目标区域内,传感器节点负责收集和传输数据并将数据通过多跳的方式转发到基站,由基站负责存储数据。基站B通过远
距离通信(如4G/5G通信技术)与MC传输数据,MC是具有自主移动能力和计算能力的独立设
备,可自行规划充电序列和在移动过程中避障,由基站为MC补充能量。
[0066] S2:以最小化充电成本和减少节点死亡率为目标,设计一种基于深度强化学习的时空充电方案(Spatio‑temporal charging scheme based on deep reinforcement 
learning,简称SCSDRL),该方案的工作过程是:每个传感器节点可根据能耗速率计算自身
剩余能量和平均剩余存活时间;当传感器节点剩余能量低于最小能量阈值时向基站发送充
电请求,由MC首先根据充电请求中的节点信息进行充电序列的规划,再由规划的充电序列
判断序列中的每个节点的平均剩余生存时间,通过后一节点的剩余生存时间动态调整前一
节点的充电时间。
[0067] 如图2所示,随着充电时间的增加,电池接收的能量不是线性增加的,充电效率具有边际效应。若所有请求节点都进行完全充电,将影响充电效率。故在生成MC移动距离最短
的充电序列后,判断为节点进行完全充电或部分充电。
[0068] S3:使用SCSDRL算法生成充电序列后,根据MC当前位置坐标(xm,ym)和目标节点的二维坐标(xi,yi),使用Q‑learning算法规划路径,MC在移动过程中按照规划的路径避开障
碍物访问每个节点为其进行一对一无线充电。至此完成一轮充电调度规划;完成一轮充电
后MC前往基站补充为自身补充能量,为下次调度做准备。
[0069] 具体地,传感器节点的能耗模型为:
[0070]
[0071] 其中fi,j(1≤j≤n)kbps是节点i传输到节点j的数据。在t时刻节点的剩余能量为:
[0072]
[0073] 传感器节点按照剩余能量分为两种状态,当剩余能量小于0时节点被标记死亡:
[0074]
[0075] 节点计算出当前剩余能量后,当 时,节点i向基站发送充电请求,需要补充的能量为:
[0076]
[0077] 其中λ(0<λ≤1)为充电参数,决定MC是为节点i进行完全或部分充电。
[0078] 具体地,所述Step3中MC的剩余能量计算公式为:
[0079]
[0080]
[0081] 上式中La,i为上一节点a到当前节点I的距离,Lm,B为MC当前位置到基站B的距离,当MC剩余能量小于下一待充电节点能量需求与自身行驶消耗能量之和时停止为节点补充能
量,从当前位置返回基站充电,准备下一次调度。
[0082] 首先根据t时刻待充电节点的请求集合D(t)=(Si,...,Sn)为节点规划充电序列。引入深度强化学习(DRL)对充电序列进行优化,将问题抽象为马尔科夫决策过程(MDP),其
最优解视为一个决策序列,使用DRL通过增加解码序列的概率来逼近最优解。SCSDRL算法可
由元组{S,A,R,S′}定义,S是状态空间;A为动作空间;R为MC执行该行为后的奖励;S′是执行
动作后的环境状态。
[0083] 在SCSDRL中,为了提高WRSN的充电效率,包括通过优化MC的充电路径来避免传感器故障和降低充电成本。SCSDRL以MC的总行程长度和死节点数作为奖励信号。把奖励定义
为:
[0084]
[0085] 状态空间更新:状态的具体更新过程如下:假设MC在0时刻位于基站B处。在每个步骤中,MC从传感器节点或基站B中选择下一步要访问的节点。访问传感器节点i后,更新传感
器节点的需求和MC的剩余能量如下:
[0086]
[0087]
[0088] 根据t时刻待充电节点的请求集合D(t)=(Si,...,Sn)为节点规划充电序列,引入深度强化学习对充电序列进行优化。将充电序列的规划抽象为VRP(Vehicle routing 
problem)问题,此类问题为NP‑hard问题,使用深度强化算法来接近最优解。
[0089] 在生成MC移动距离最短的充电序列后,判断为节点进行完全充电或部分充电,充电时间划分和电池获得能量计算如下:
[0090]
[0091] 在充电序列的基础上动态调整每个节点的充电时长。
[0092] 如图3所示,SCSDRL中的网络模型为两个神经网络:其一是带有参数θu的Actor网Q
络,其输出为可选动作空间的动作概率分布,其二是带有参数θ的Critic网络。然后可以在
当前WRSN环境下从MC执行动作序列中的动作a中得到一个奖励R。根据当前的统计数据从
Critic网络中得到V值。最后,进而更新Actor和具有R和V的误差准则函数的Critic网络。
[0093] 基于策略梯度,使用预期奖励的梯度对策略参数的估计来迭代地改进策略使得奖励最大化,从而生成最优解。
[0094] 如图4所示,网络区域内有位置固定的障碍物,使用Q‑learning算法为框架为MC在移动过程中进行避障规划,从而输出具体移动路径。具体步骤如下:
[0095] 首先将无线可充电传感网区域转化为二维网格地图,其中基站、传感器节点、MC的位置均已知;将路径规划问题抽象为马尔科夫决策过程,由元组{Sp,Ap,Rp,S′p}定义,Sp是状
态空间;Ap为动作空间;Rp为MC执行该动作后的奖励;S′p为执行后的环境状态。将目标位置
奖励设置为最大正奖励,将障碍物和其他节点位置设置为最大负奖励,通过Q函数进行学
习。
[0096] 求解最优路径就是求得一条到达终点获得最大奖励的策略,最优价值动作函数定义为:
[0097]
[0098] 根据Q值进行学习,采用时间差分方法进行Q‑table的更新,更新过程如下:
[0099] Q(s,a)←Q(s,a)+α[r+γmaxa'Q(s',a')‑Q(s,a)].
[0100] 实施例2
[0101] 如图2所示,例如在一定时间内,四个低能量传感器节点n1,n2,n3,n4在剩余生存时间小于60分钟时分别发送充电请求 并且构成集合D(t1)=(S1,S2,S3,S4),根据
节点坐标生成初始充电序列,由于节点能耗不均衡致使节点剩余电量不同,此时四个节点
充满能量所需的时间分别为30min,25min,15min,20min。此时若按照完全充电模式无论怎
样规划充电序列,都会有节点因等待时间过久而饥饿死亡,SCSDRL模型同时对充电序列和
充电时长动态调整,首先根据请求集合中的位置信息规划充电序列,生成序列n1→n3→n4→
n2,此时四个节点的等待时间分别为0、65、30、45(分钟),其中节点n2将饥饿死亡,通过
SCSDRL对节点n4的充电时长动态调整,为其补充70%能量,避免节点n2饥饿死亡。
[0102] 以上结合附图对本发明的具体实施方式作了详细说明,但是本发明并不限于上述实施方式,在本领域普通技术人员所具备的知识范围内,还可以在不脱离本发明宗旨的前
提下做出各种。