卫星东西保持策略模型的建模方法、模型、获取方法转让专利

申请号 : CN202211408083.9

文献号 : CN115795816B

文献日 :

基本信息:

PDF:

法律信息:

相似专利:

发明人 : 吴琳琳吴新林何镇武吴凌根陈倩茹王丽颖张琳娜

申请人 : 北京航天驭星科技有限公司

摘要 :

本发明涉及航空航天领域,提供一种卫星东西保持策略模型的建模方法、模型、获取方法、设备、介质,建模方法包括:S1:获取多组卫星训练状态数据组;S2:得到初始时刻之后所有切向控制行为及所对应输出的Q值;S3:获得当前时刻卫星状态和卫星执行的切向控制行为;S4:得到奖励和下一时刻卫星状态;S5:将卫星组合状态数据组存入经验池中;S6:计算每个卫星组合状态数据组的目标值;S7:计算误差;S8:更新Q值;将下一时刻卫星状态作为,当前时刻卫星状态;S9:重复S3‑S8;执行步骤S3‑S8的次数等于该组卫星训练状态数据组的预期轨控次数;S10:重复步骤S2‑S9,直到输入完所有卫星训练状态数据组的数据。本方案能得到最优的决策策略,减少卫星燃料消耗。

权利要求 :

1.一种基于深度Q网络的卫星东西保持策略模型的建模方法,其特征在于,包括以下步骤:S1:初始化模型,获取多组卫星训练状态数据组,每组卫星训练状态数据组包括卫星的初始状态、多个预期轨控时刻和预期轨控次数;每个卫星的初始状态包括初始时刻卫星状态;卫星状态包括平经度和偏心率矢量;

S2:向模型中输入一组卫星训练状态数据组的初始时刻卫星状态,得到初始时刻之后所有切向控制行为及所对应输出的Q值;

S3:获取当前时刻卫星状态,根据贪心策略获得卫星执行的切向控制行为;

S4:执行切向控制行为,得到下一时刻卫星状态;根据下一时刻卫星状态、东西保持策略奖励函数得到奖励;所述东西保持策略奖励函数采用公式(1):其中,rt为当前时刻卫星进行切向控制行为所获得的奖励,R0为标称轨道的平经度,e0为标称轨道的偏心率,ΔRs为平经度保持圆半径,Δes为偏心率保持圆半径,Rt+1为当前时刻的下一时刻卫星平经度,et+1为当前时刻的下一时刻卫星偏心率矢量;t0为预期轨控时刻;t为当前时刻;

S5:将当前时刻卫星状态、卫星执行的切向控制行为、奖励和下一时刻卫星状态作为一组卫星组合状态数据组存入经验池中;

S6:从经验池中取出多组卫星组合状态数据组,根据神经网络权值参数计算每个卫星组合状态数据组的目标值;

S7:根据损失函数计算误差,并更新神经网络权值参数;

S8:根据值函数更新Q值;将下一时刻卫星状态作为当前时刻卫星状态;

S9:重复执行步骤S3‑S8,执行步骤S3‑S8的次数等于该组卫星训练状态数据组的预期轨控次数;

S10:重复执行步骤S2‑S9,直到输入完所有卫星训练状态数据组的数据。

2.根据权利要求1所述的基于深度Q网络的卫星东西保持策略模型的建模方法,其特征在于,步骤S1中,卫星平经度的获得方法采用公式(2):其中,R表示卫星平经度,as为地球静止轨道半长轴,ao为卫星的轨道半长轴;

卫星偏心率矢量获得方法采用公式(3):

其中,e表示卫星偏心率,Ω表示卫星升交点赤经,ω表示近地点幅角;卫星在轨道上的二维偏心率矢量为(ex,ey)。

3.根据权利要求1所述的基于深度Q网络的卫星东西保持策略模型的建模方法,其特征在于,步骤S3中,所述根据贪心策略获得卫星执行的切向控制行为的方法包括:卫星以第一指定概率随机选择切向控制行为、或以第二指定概率执行最大Q值所对应的切向控制行为;

第一指定概率和第二指定概率之和等于1。

4.根据权利要求1所述的基于深度Q网络的卫星东西保持策略模型的建模方法,其特征在于,步骤S6中,所述根据神经网络权值参数计算每个卫星组合状态数据组的目标值的方法采用公式(4):其中,yj表示目标值,γ为折扣值,w为神经网络权值参数, 表示一组卫星组合状态数据组中下一时刻卫星执行切向控制行为a后的最大Q值,sj+1表示一组卫星组合状态数据组中的下一时刻卫星状态,a表示卫星执行的切向控制行为,rj表示一组卫星组合状态数据组中的奖励。

5.根据权利要求1所述的基于深度Q网络的卫星东西保持策略模型的建模方法,其特征在于,步骤S7中,所述损失函数采用公式(5):其中,yj表示目标值,w为神经网络权值参数,Q(sj,aj;w)表示一组卫星组合状态数据组中的当前时刻卫星执行切向控制行为aj后的Q值,sj表示一组卫星组合状态数据组中的当前时刻卫星状态,aj表示当前时刻卫星执行的切向控制行为,m为卫星组合状态数据组的数量。

6.根据权利要求1所述的基于深度Q网络的卫星东西保持策略模型的建模方法,其特征在于,步骤S8中,所述根据值函数更新Q值的方法采用公式(6):Q(st,at)←Q(st,at(+α[rt+γmaxQ(st+1,at)‑Q(st,at)]    (6);

其中,箭头左侧的Q(st,at)表示更新后的当前时刻卫星执行切向控制行为at后的Q值,箭头右侧的Q(st,at)表示更新前的当前时刻的卫星执行切向控制行为at后的Q值,Q(st+1,at)表示更新前的当前时刻的下一时刻卫星执行切向控制行为at后的Q值,α为权重,γ为折扣值,st表示当前时刻卫星状态,at表示当前时刻卫星执行的切向控制行为,st+1表示当前时刻的下一时刻卫星状态,rt表示奖励。

7.一种基于深度Q网络的卫星东西保持策略模型,其特征在于,采用权利要求1‑6中任一项所述的建模方法建立模型。

8.一种卫星东西保持最优策略的获取方法,其特征在于,根据权利要求1‑6中任一项所述的建模方法建立基于深度Q网络的卫星东西保持策略模型;

根据该模型得到最优策略;

所述根据该模型得到最优策略的方法采用公式(7):

*

其中,π表示卫星进行切向控制的策略,π表示通过模型学习到的最优的切向控制策略,*即卫星在初始时刻卫星状态为s的情况下经过策略π的切向控制行为a下产生最大的回报。

9.一种电子设备,其特征在于,包括:

一个或多个处理器;

存储装置,用于存储一个或多个程序;

当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1‑6中任一所述的方法。

10.一种计算机可读介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现如权利要求1‑6中任一所述的方法。

说明书 :

卫星东西保持策略模型的建模方法、模型、获取方法

技术领域

[0001] 本发明涉及航空航天技术领域,特别是涉及一种卫星东西保持策略模型的建模方法、模型、获取方法、设备、介质。

背景技术

[0002] 随着人类航天活动的不断开展,越来越多的遥感卫星为人们的日常生活提供帮助。
[0003] GEO卫星在运行的过程中会受到日、月引力和地球非球形摄动的影响,从而导致在东西方向上发生漂移,所以对GEO三轴稳定卫星东西位置保持控制对于航天领域有至关重要的作用。
[0004] 现有的技术方法首先分析了卫星东西漂移是由于卫星在轨道运行过程中受到的地球形状和太阳光压等各种摄动力的影响所导致卫星的平经度和偏心率发生变化,然后根据摄动力进行建模并制定东西保持的策略,进而对保持参数进行优化并且计算推进剂的消耗量。现有技术方法通过对卫星在轨道运行过程中受到的各种摄动力进行复杂的建模,然而由于空间受力的复杂性以及卫星本身参数的不确定性,导致无法对卫星进行精确建模,参数多、计算复杂,进而影响卫星东西控制的精度,可能会消耗更多的燃料。
[0005] 因此,亟需开发一种卫星东西保持策略模型的建模方法、模型、获取方法、设备、介质,降低建模难度,精确计算东西保持策略。

发明内容

[0006] 本发明的目的是提供一种卫星东西保持策略模型的建模方法、模型、获取方法、设备、介质,对GEO三轴稳定卫星进行东西位置保持时不需要进行复杂的建模,不需要考虑空间受力的复杂性以及卫星本身参数的不确定性,强化学习具有很强的行为决策能力,能够得到最优的决策策略,减少卫星燃料的消耗。
[0007] 为解决上述技术问题,作为本发明的一个方面,提供了一种基于深度Q网络的卫星东西保持策略模型的建模方法,包括以下步骤:
[0008] S1:初始化模型,获取多组卫星训练状态数据组,每组卫星训练状态数据组包括卫星的初始状态、多个预期轨控时刻和预期轨控次数;每个卫星的初始状态包括初始时刻卫星状态;卫星状态包括平经度和偏心率矢量;
[0009] S2:向模型中输入一组卫星训练状态数据组的初始时刻卫星状态,得到初始时刻之后所有切向控制行为及所对应输出的Q值;
[0010] S3:获取当前时刻卫星状态,根据贪心策略获得卫星执行的切向控制行为;
[0011] S4:执行切向控制行为,得到下一时刻卫星状态;根据下一时刻卫星状态、东西保持策略奖励函数得到奖励;所述东西保持策略奖励函数采用公式1:
[0012]
[0013] 其中,rt为当前时刻卫星进行切向控制行为所获得的奖励,R0为标称轨道的平经度,e0为标称轨道的偏心率,ΔRs为平经度保持圆半径,Δes为偏心率保持圆半径,Rt+1为当前时刻的下一时刻卫星平经度,et+1为当前时刻的下一时刻偏心率矢量;当当前时刻的下一时刻卫星平经度或偏心率矢量不在保持圆的范围内就给予惩罚;t0为预期轨控时刻;t为当前时刻;
[0014] S5:将当前时刻卫星状态、卫星执行的切向控制行为、奖励和下一时刻卫星状态作为一组卫星组合状态数据组存入经验池中;
[0015] S6:从经验池中取出多组卫星组合状态数据组,根据神经网络权值参数计算每个卫星组合状态数据组的目标值;
[0016] S7:根据损失函数计算误差,并更新神经网络权值参数;
[0017] S8:根据值函数更新Q值;将下一时刻卫星状态作为当前时刻卫星状态;
[0018] S9:重复执行步骤S3‑S8,执行步骤S3‑S8的次数等于该组卫星训练状态数据组的预期轨控次数;
[0019] S10:重复执行步骤S2‑S9,直到输入完所有卫星训练状态数据组的数据。
[0020] 根据本发明一示例实施方式,步骤S1中,初始化模型包括定义损失函数。
[0021] 根据本发明一示例实施方式,模型的输入为卫星状态,输出为执行卫星执行切向控制行为后的回报值(Q值)。
[0022] 根据本发明一示例实施方式,卫星状态包括:平经度漂移率、偏心率矢量、倾角矢量和平经度。平经度漂移率用L表示,偏心率矢量用e表示,倾角矢量用i表示,平经度用R表示。
[0023] 根据本发明一示例实施方式,步骤S1中,卫星平经度的获得方法采用公式2:
[0024]
[0025] 其中,R表示卫星平经度,as为地球静止轨道半长轴,ao为卫星的轨道半长轴;
[0026] 卫星偏心率矢量获得方法采用公式3:
[0027]
[0028] 其中,e表示卫星偏心率,Ω表示卫星升交点赤经,v表示近地点幅角;卫星在轨道上的二维偏心率矢量为(ex,ey)。
[0029] 根据本发明一示例实施方式,步骤S3中,初次循环时,当前时刻卫星状态为初始时刻卫星状态。
[0030] 根据本发明一示例实施方式,步骤S3中,所述根据贪心策略获得卫星执行的切向控制行为的方法包括:卫星以第一指定概率随机选择切向控制行为、或以第二指定概率执行最大Q值所对应的切向控制行为;第一指定概率和第二指定概率之和等于1。
[0031] 根据本发明一示例实施方式,步骤S6中,所述根据神经网络权值参数计算每个卫星状态数据组的目标值的方法采用公式4:
[0032]
[0033] 其中,yj表示目标值,γ为折扣值,w为神经网络权值参数, 表示一组卫星组合状态数据组中的下一时刻卫星执行切向控制行为a后的最大Q值,sj+1表示一组卫星组合状态数据组中的下一时刻卫星状态,a表示一组卫星组合状态数据组中的当前卫星执行的切向控制行为,rj表示一组卫星组合状态数据组中的奖励。
[0034] 根据本发明一示例实施方式,步骤S7中,所述损失函数采用公式5:
[0035]
[0036] 其中,yj表示目标值,w为神经网络权值参数,Q(sj,aj;w)表示一组卫星组合状态数据组中的当前时刻卫星执行切向控制行为aj后的Q值,sj表示一组卫星组合状态数据组中的当前时刻卫星状态,aj表示当前时刻卫星执行的切向控制行为,m为卫星组合状态数据组的数量。
[0037] 根据本发明一示例实施方式,步骤S8中,所述根据值函数更新Q值的方法采用公式6:
[0038] Q(st,at)←Q(st,at)+α[rt+γmaxQ(st+1,at)‑Q(st,at)]   (6);
[0039] 其中,箭头左侧的Q(st,at)表示更新后的当前时刻的卫星执行切向控制行为at后的Q值,箭头右侧的Q(st,at)表示更新前的当前时刻的卫星执行切向控制行为at后的Q值,Q(st+1,at)表示更新前的当前时刻的下一时刻卫星执行切向控制行为at后的Q值,α为权重,γ为折扣值,st表示当前时刻卫星状态,at表示当前时刻卫星执行的切向控制行为,st+1表示当前时刻的下一时刻卫星状态,rt表示在当前时刻卫星状态为st下采取切向控制行为at后获得的奖励。
[0040] t时刻即为当前时刻,t+1时刻即为当前时刻的下一时刻。
[0041] 作为本发明的第二个方面,提供了一种基于深度Q网络的卫星东西保持策略模型,采用所述基于深度Q网络的卫星东西保持策略模型的建模方法建立模型。
[0042] 作为本发明的第三个方面,提供一种卫星东西保持最优策略的获取方法,采用所述基于深度Q网络的卫星东西保持策略模型的建模方法建立基于深度Q网络的卫星东西保持策略模型;
[0043] 根据该模型得到最优策略;
[0044] 所述根据该模型得到最优策略的方法采用公式7:
[0045]
[0046] 其中,π表示卫星进行切向控制的策略,π*表示通过模型学习到的最优的切向控制*策略,即卫星在初始时刻卫星状态为s的情况下经过策略π的切向控制行为a下产生最大的回报。
[0047] 作为本发明的第四个方面,提供一种电子设备,包括:
[0048] 一个或多个处理器;
[0049] 存储装置,用于存储一个或多个程序;
[0050] 当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现所述基于深度Q网络的卫星东西保持策略模型的建模方法。
[0051] 作为本发明的第五个方面,提供一种计算机可读介质,其上存储有计算机程序,所述程序被处理器执行时实现所述基于深度Q网络的卫星东西保持策略模型的建模方法。
[0052] 本发明的有益效果是:
[0053] 本方案通过神经网络进行建模,利用当前卫星状态数据进行深度强化学习和决策,不需要利用卫星在轨道运行过程中受到的各种摄动力进行复杂的建模,不仅能够得到最优的东西控制策略,而且能够减少卫星燃料的消耗,这对实际的航天应用具有重要的意义和价值。

附图说明

[0054] 图1示意性示出了基于深度Q网络的卫星东西保持策略模型的建模方法的步骤图。
[0055] 图2示意性示出了一种电子设备的框图。
[0056] 图3示意性示出了一种计算机可读介质的框图。

具体实施方式

[0057] 现在将参考附图更全面地描述示例实施例。然而,示例实施例能够以多种形式实施,且不应被理解为限于在此阐述的实施例;相反,提供这些实施例使得本申请将全面和完整,并将示例实施例的构思全面地传达给本领域的技术人员。在图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。
[0058] 此外,所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施例中。在下面的描述中,提供许多具体细节从而给出对本申请的实施例的充分理解。然而,本领域技术人员将意识到,可以实践本申请的技术方案而没有特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知方法、装置、实现或者操作以避免模糊本申请的各方面。
[0059] 附图中所示的方框图仅仅是功能实体,不一定必须与物理上独立的实体相对应。即,可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
[0060] 附图中所示的流程图仅是示例性说明,不是必须包括所有的内容和操作/步骤,也不是必须按所描述的顺序执行。例如,有的操作/步骤还可以分解,而有的操作/步骤可以合并或部分合并,因此实际执行的顺序有可能根据实际情况改变。
[0061] 应理解,虽然本文中可能使用术语第一、第二、第三等来描述各种组件,但这些组件不应受这些术语限制。这些术语乃用以区分一组件与另一组件。因此,下文论述的第一组件可称为第二组件而不偏离本申请概念的教示。如本文中所使用,术语“及/或”包括相关联的列出项目中的任一个及一或多者的所有组合。
[0062] 本领域技术人员可以理解,附图只是示例实施例的示意图,附图中的模块或流程并不一定是实施本申请所必须的,因此不能用于限制本申请的保护范围。
[0063] 本发明基于深度学习较强的感知能力来从环境中获取观测信息,基于强化学习较强的决策能力获得预期回报值来评估动作价值。整个学习过程可以描述为:在某一时刻,卫星与飞行的环境交互来获取观测信息,通过神经网络将当前状态信息映射为相应的动作,环境对此动作做出反应,得到对应的奖励值和下一个观测信息,并把完整的交互信息存入经验池中。通过不断循环以上过程,最终可以得到实现目标的最优策略。
[0064] 本方案所述的卫星为GEO三轴稳定卫星。地球同步轨道(GEO),是指人造卫星在地球赤道上空约36000公里处围绕地球运行的圆形轨道。因为卫星绕地球运行周期与地球自转同步,卫星与地球之间处于相对静止的状态,因此在这种轨道上运行的卫星被简称为“同步卫星”,又称为“静止卫星”或“固定卫星”。三轴稳定就是卫星不旋转,本体在X、Y、Z三个方向上均稳定,换言之就是与地球保持一定的姿态关系。
[0065] 深度Q网络(DeepQNetworks,简称DQN)算法是深度强化学习中的一种网络,是深度学习与Q学习的结合。由于其综合了强化学习和深度学习的优势,所以目前在各个领域都已经得到广泛的应用。
[0066] 深度强化学习作为人工智能领域的一个新的研究热点,将深度学习和强化学习相结合,通过一种端对端的学习方式实现从原始输入到输出的直接控制和决策。由于深度学习是基于神经网络结构的,所以它对环境具有较强的感知能力,但是缺乏一定的决策控制能力;而强化学习恰好具有很强的行为决策能力。因此,深度强化学习将深度学习的感知能力和强化学习的决策能力相结合,优势互补,可以直接从高维原始数据中学习控制策略。深度强化学习方法自提出以来,在许多需要感知高维度原始输入数据和决策控制的任务中,已经取得了实质性的突破,由于深度学习端到端的学习优势,故深度强化学习可以解决建模难、规划难的问题。
[0067] 作为本发明的第一个实施方式,提供一种基于深度Q网络的卫星东西保持策略模型的建模方法,如图1所示,包括以下步骤:
[0068] S1:初始化模型,获取多组卫星训练状态数据组,每组卫星训练状态数据组包括卫星的初始状态、多个预期轨控时刻和预期轨控次数;每个卫星的初始状态包括初始时刻卫星状态;卫星状态包括平经度和偏心率矢量。
[0069] 模型的输入为卫星状态,输出为执行卫星执行切向控制行为后的回报值(Q值)。
[0070] 卫星状态还包括:平经度漂移率、倾角矢量。平经度漂移率用L表示,偏心率矢量用e表示,倾角矢量用i表示,平经度用R表示。
[0071] 初始化模型的方法包括:定义损失函数;初始化经验池的容量为N,经验池用于存储训练的样本;初始化网络模型的神经网络权值参数w;初始化网络模型的输入为卫星状态s,计算出的网络模型输出为卫星执行切向控制行为后的回报值Q。
[0072] 多组卫星训练状态数据组组成数据集,该数据集中的卫星训练用的状态的数据大于或等于100组,卫星状态的数据越多,模型训练出来的结果越准确。
[0073] 多组卫星训练状态数据组的数据为训练集的数据,可以采用仿真数据,也可以采用仿真数据和真实数据相结合。一个时间段内的时间线上包括多个时间点,每个时间点上卫星的状态都不同,在不同的时间点执行轨控策略会得到不同的效果。本方案的通过多组卫星训练状态数据组,每组卫星的初始时刻卫星状态对应一个时间点的卫星状态,每组卫星训练状态数据组的初始时刻对应的时间点均不同,即每组卫星训练状态数据组的初始时刻均不同。
[0074] S2:向模型中输入一组卫星训练状态数据组的初始时刻卫星状态,得到初始时刻之后所有切向控制行为及所对应输出的Q值。
[0075] 初始时刻卫星执行切向控制行为后,得到下一时刻卫星状态。下一时刻卫星执行切向控制行为后,得到下一时刻的下一时刻卫星状态。以此类推,得到下多个时刻的切向控制行为。
[0076] S3:获取当前时刻卫星状态,根据贪心策略获得卫星执行的切向控制行为。
[0077] 初次循环时,当前时刻卫星状态为初始时刻卫星状态。
[0078] 根据贪心策略获得当前卫星执行的切向控制行为的方法包括:卫星以第一指定概率随机选择切向控制行为、或以第二指定概率执行最大Q值所对应的切向控制行为;第一指定概率和第二指定概率之和等于1。
[0079] 如果第一指定概率大于第二指定概率,则根据贪心策略获得卫星执行的切向控制行为的方法采用:卫星以第一指定概率随机选择切向控制行为;
[0080] 如果第二指定概率大于第一指定概率,则根据贪心策略获得卫星执行的切向控制行为的方法采用:卫星以第二指定概率执行最大Q值所对应的切向控制行为;
[0081] 如果第一指定概率等于第二指定概率,则根据贪心策略获得卫星执行的切向控制行为的方法择其一:卫星以第一指定概率随机选择切向控制行为、或以第二指定概率执行最大Q值所对应的切向控制行为。
[0082] 贪心策略为ε‑greedy策略。
[0083] 第一指定概率为ε,ε随迭代次数的增加而减小。
[0084] 当前时刻卫星执行的切向控制行为为at。
[0085] S4:执行切向控制行为,得到下一时刻卫星状态;根据下一时刻卫星状态、东西保持策略奖励函数得到奖励。
[0086] 卫星在东西方向的漂移由两部分组成:一是地球形状摄动使卫星平经度产生漂移,另一个是太阳光压产生的偏心率摄动,引起卫星的经度日周期振荡。所以卫星的东西保持主要包括平经度保持和偏心率保持。平经度保持主要是利用东西机动校正卫星的漂移率,将一颗卫星保持在较窄的轨道窗口内;在卫星偏心率矢量保持策略中,太阳指向近地点策略是一种较常用的方法,该方法使卫星的平偏心率矢量在控制周期内始终保持在偏心率控制圆内,并使控制圆圆心至平偏心率矢量端点连线的平均方向指向太阳方向。
[0087] 在二体问题中,平经度(mean longitude)是物体在轨道倾角为0的假想圆轨道上运动的经度值。
[0088] 偏心率(Eccentricity)即离心率,是用来描述圆锥曲线轨道形状的数学量。定义为曲线到定点(焦点)的距离与到定直线(准线)的距离之比。对于椭圆,偏心率即为两焦点间的距离(焦距)和长轴长度的比值。偏心率一般用e表示。卫星平经度的获得方法采用公式2:
[0089]
[0090] 其中,R表示卫星平经度,as为地球静止轨道半长轴,ao为卫星的轨道半长轴;
[0091] 卫星偏心率矢量获得方法采用公式3:
[0092]
[0093] 其中,e表示卫星偏心率,卫星在轨道上的二维偏心率矢量为(ex,ey),Ω表示卫星升交点赤经,ω表示近地点幅角。
[0094] 切向推力和径向推力均属于平面内机动。采用切向推力的机动称为切向控制(亦称东西控制或经度控制),可改变卫星的平经度漂移率和偏心率矢量。径向推力的机动仅改变卫星的偏心率矢量,但同样大小的径向推力,只能达到切向推力的一半效果。与径向控制相比,切向控制的效率更高。因此,卫星的东西保持机动主要依靠切向推力实现,很少采用径向推力。
[0095] 切向控制指的是轨道平面内卫星沿速度方向的机动。
[0096] 由于切向机动不仅能引起偏心率矢量的变化,而且可导致轨道半长轴的变化,因此为优化地面测控工作并减少燃料消耗,理想状态的东西保持通常使卫星平经度保持控制周期与偏心率保持周期相同,利用平面内机动燃料消耗最优准则,同时对卫星的偏心率矢量和平经度进行保持控制。
[0097] 卫星东西保持策略问题的目标是在保持卫星东西位置的同时还要尽可能最小化燃料的消耗量。东西位置保持控制所需的速度冲量主要用于平经度和偏心率矢量的保持控制。假设对于卫星控制频率固定(即固定经过一段时间后进行轨控),期望本次控制量可以保证在下一次控制时候卫星平经度和偏心率矢量在保持范围内且控制量尽可能小。所以t时刻卫星的速度增量决定了外推的t+1时刻的卫星轨道的状态。基于这个目的,设计了t时刻的奖励策略。东西保持策略奖励函数采用公式1:
[0098]
[0099] 其中,rt为当前时刻卫星进行切向控制行为所获得的奖励,R0为标称轨道(理论轨道)的平经度,e0为标称轨道(理论轨道)的偏心率,ΔRs为平经度保持圆半径,Δes为偏心率保持圆半径,Rt+1为当前时刻的下一时刻卫星平经度,et+1为当前时刻的下一时刻卫星偏心率矢量;当当前时刻的下一时刻卫星平经度或偏心率矢量不在保持圆的范围内就给予惩罚。
[0100] t+1时刻为初始时刻的下一时刻。外推的t+1时刻为初始时刻的下一时刻。
[0101] S5:将当前时刻卫星状态、卫星执行的切向控制行为、奖励和下一时刻卫星状态作为一组卫星组合状态数据组存入经验池中。
[0102] S6:从经验池中取出多组卫星组合状态数据组,根据神经网络权值参数计算每个卫星组合状态数据组的目标值。
[0103] 卫星组合状态数据组的数量为m,m为大于0的自然数,且m小于卫星训练状态数据集的数量。m组卫星组合状态数据组为小批量的数据组。卫星组合状态数据组的数量根据卫星训练状态数据集确定。
[0104] 所述根据神经网络权值参数计算每个卫星状态数据组的目标值的方法采用公式4:
[0105]
[0106] 其中,yj表示目标值,γ为折扣值(衰减因子),w为神经网络权值参数,表示一组卫星组合状态数据组中的下一时刻卫星执行切向控制行为a后的最大Q值,sj+1表示一组卫星组合状态数据组中的下一时刻卫星状态,a表示卫星执行的切向控制行为,rj表示一组卫星组合状态数据组中的奖励。
[0107] 使任务终止即为模型收敛或迭代完成。当sj+1为模型收敛或迭代完成时,yi等于rj;当sj+1不为模型收敛或迭代完成时,yi等于
[0108] 模型收敛的条件为:损失函数计算出来的误差在指定范围内。
[0109] 迭代完成的条件为:执行完所有步骤。
[0110] S7:根据损失函数计算误差,并更新神经网络权值参数。
[0111] 还根据目标值计算误差。
[0112] 损失函数采用公式5:
[0113]
[0114] 其中,yj表示目标值,w为神经网络权值参数,Q(sj,aj;w)表示一组卫星组合状态数据组中的当前时刻卫星执行切向控制行为aj后的Q值,sj表示一组卫星组合状态数据组中的当前时刻卫星状态,aj表示当前时刻卫星执行的切向控制行为,rj表示一组卫星组合状态数据组中的奖励;m为卫星组合状态数据组的数量。
[0115] 误差即为损失函数采用公式5的计算结果。
[0116] 神经网络权值参数通过随机梯度下降法(SGD)进行更新。
[0117] rt、at、st、st+1表示卫星训练状态数据集中的样本,rj、aj、sj、sj+1表示经验池中的样本。
[0118] 步骤S5‑S7对模型的参数进行调整,能够让模型的计算准确度更高。
[0119] S8:根据值函数更新Q值;将下一时刻卫星状态作为当前时刻卫星状态。
[0120] 根据值函数更新Q值的方法采用公式6:
[0121] Q(st,at)←Q(st,at)+α[rt+γmax Q(st+1,at)‑Q(st,at)]   (6);
[0122] 其中,箭头左侧的Q(st,at)表示更新后的当前时刻的卫星执行切向控制行为at后的Q值,箭头右侧的Q(st,at)表示更新前的当前时刻的卫星执行切向控制行为at后的Q值,Q(st+1,at)表示更新前的当前时刻的下一时刻的卫星执行切向控制行为at后的Q值,α为权重,γ为折扣值(衰减因子),st表示当前时刻卫星状态,at表示当前时刻卫星执行的切向控制行为,st+1表示当前时刻的下一时刻卫星状态,rt表示在当前时刻卫星状态为st下采取切向控制行为at后获得的奖励。
[0123] 其中α和γ的范围都在0~1之间。
[0124] S9:重复执行步骤S3‑S8,执行步骤S3‑S8的次数等于该组卫星训练状态数据组的预期轨控次数。
[0125] S10:重复执行步骤S2‑S9,直到输入完所有卫星训练状态数据组的数据。
[0126] 本方案的建模方法以卫星训练状态数据作为神经网络模型的输入,产生的回报值作为输出,采用深度神经网络,不需要利用卫星在轨道运行过程中受到的各种摄动力进行复杂的建模,直接采用深度强化学习来进行学习和决策,不仅能够得到最优的东西控制策略,而且能够减少卫星燃料的消耗这对实际的航天应用具有重要的意义和价值。
[0127] 根据本发明的第二个具体实施方式,本发明提供一种基于深度Q网络的卫星东西保持策略模型,采用第一个实施方式的基于深度Q网络的卫星东西保持策略模型的建模方法建立模型。
[0128] 根据本发明的第三个具体实施方式,本发明提供一种卫星东西保持最优策略的获取方法,采用第一个实施方式的基于深度Q网络的卫星东西保持策略模型的建模方法建立基于深度Q网络的卫星东西保持策略模型;
[0129] 根据该模型得到最优策略。
[0130] 根据该模型得到最优策略的方法采用公式7:
[0131]
[0132] 其中,π表示卫星进行切向控制的策略,π*表示通过模型学习到的最优的切向控制*策略,即卫星在初始时刻卫星状态为s的情况下经过策略π的切向控制行为a下产生最大的回报。
[0133] 根据本发明的第四个具体实施方式,本发明提供一种电子设备,如图2所示,图2是根据一示例性实施例示出的一种电子设备的框图。
[0134] 下面参照图2来描述根据本申请的这种实施方式的电子设备200。图2显示的电子设备200仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
[0135] 如图2所示,电子设备200以通用计算设备的形式表现。电子设备200的组件可以包括但不限于:至少一个处理单元210、至少一个存储单元220、连接不同系统组件(包括存储单元220和处理单元210)的总线230、显示单元240等。
[0136] 其中,所述存储单元存储有程序代码,所述程序代码可以被所述处理单元210执行,使得所述处理单元210执行本说明书中描述的根据本申请各种示例性实施方式的步骤。例如,所述处理单元210可以执行如图1中所示的步骤。
[0137] 所述存储单元220可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)2201和/或高速缓存存储单元2202,还可以进一步包括只读存储单元(ROM)2203。
[0138] 所述存储单元220还可以包括具有一组(至少一个)程序模块2205的程序/实用工具2204,这样的程序模块2205包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
[0139] 总线230可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
[0140] 电子设备200也可以与一个或多个外部设备200’(例如键盘、指向设备、蓝牙设备等)通信,使得用户能与该电子设备200交互的设备通信,和/或该电子设备200能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口250进行。并且,电子设备200还可以通过网络适配器260与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。网络适配器260可以通过总线230与电子设备200的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备200使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
[0141] 通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。
[0142] 因此,根据本发明的第五个具体实施方式,本发明提供一种计算机可读介质。如图3所示,根据本发明实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD‑ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、或者网络设备等)执行根据本发明实施方式的上述方法。
[0143] 所述软件产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD‑ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
[0144] 所述计算机可读存储介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读存储介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
[0145] 可以以一种或多种程序设计语言的任意组合来编写用于执行本发明操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
[0146] 上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被一个该设备执行时,使得该计算机可读介质实现第一个实施方式的功能。
[0147] 本领域技术人员可以理解上述各模块可以按照实施例的描述分布于装置中,也可以进行相应变化唯一不同于本实施例的一个或多个装置中。上述实施例的模块可以合并为一个模块,也可以进一步拆分成多个子模块。
[0148] 通过以上的实施例的描述,本领域的技术人员易于理解,这里描述的示例实施例可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本发明实施例的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD‑ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、移动终端、或者网络设备等)执行根据本发明实施例的方法。
[0149] 以上仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。