卫星相对相位保持策略模型的建模方法、模型、获取方法转让专利

申请号 : CN202211408073.5

文献号 : CN115806060B

文献日 :

基本信息:

PDF:

法律信息:

相似专利:

发明人 : 吴琳琳吴新林何镇武吴凌根陈倩茹王丽颖张琳娜

申请人 : 北京航天驭星科技有限公司

摘要 :

本发明涉及航空航天领域,提供一种基于Double DQN的卫星相对相位保持策略模型的建模方法、模型、获取方法、设备、介质,建模方法包括:S1:获取多组卫星训练状态数据组;S2:得到初始时刻之后所有半长轴控制行为及所对应输出的Q值;S3:获得当前时刻第一卫星或第二卫星的状态及半长轴控制行为;S4:得到下一时刻第一卫星与第二卫星状态、实际轨控时刻及奖励;S5:将卫星组合状态数据组存入经验池中;S6:计算目标值;S7:计算误差;S8:更新Q值;将下一时刻第一卫星或第二卫星的状态作为当前第一卫星或第二卫星的状态;S9:重复S3‑S8,更新目标神经网络权值参数;S10:重复S2‑S9,直到输入完所有数据。本方案能够得到最优的决策策略,减少卫星燃料的消耗。

权利要求 :

1.一种基于Double DQN的卫星相对相位保持策略模型的建模方法,其特征在于,包括以下步骤:S1:初始化模型,获取多组卫星训练状态数据组,每组卫星训练状态数据组包括初始时刻第一卫星与第二卫星的状态、多个预期轨控时刻和预期轨控次数;

S2:向模型中输入一组卫星训练状态数据组的初始时刻第一卫星与第二卫星的状态,得到初始时刻之后所有半长轴控制行为及所对应输出的Q值;

S3:获取当前时刻第一卫星与第二卫星的状态,根据贪心策略获得第一卫星或第二卫星执行的半长轴控制行为;

S4:执行半长轴控制行为,得到下一时刻第一卫星与第二卫星的状态及实际轨控时刻;

根据实际轨控时刻、相对相位保持策略奖励函数得到奖励;所述相对相位保持策略奖励函数采用公式1:其中,rt为当前时刻卫星进行半长轴控制行为所获得的奖励,Δt为距离实际轨控时刻的时间间隔;Δt根据当前时刻及实际轨控时刻获得;t为当前时刻,t0为与当前时刻距离最近的预期轨控时刻;

S5:将当前时刻第一卫星与第二卫星的状态、第一卫星或第二卫星执行的半长轴控制行为、奖励和下一时刻第一卫星与第二卫星的状态作为一组卫星组合状态数据组存入经验池中;

S6:从经验池中取出多组卫星组合状态数据组,根据目标神经网络权值参数计算每个卫星组合状态数据组的目标值;

S7:根据损失函数计算误差,并更新当前神经网络权值参数;

S8:根据值函数更新Q值;将下一时刻第一卫星与第二卫星的状态作为当前时刻第一卫星与第二卫星的状态;

S9:重复执行步骤S3‑S8,执行步骤S3‑S8的次数等于该组卫星训练状态数据组的预期轨控次数;每重复执行指定迭代次数的步骤S3‑S8后,根据当前神经网络权值参数更新目标神经网络权值参数;

S10:重复执行步骤S2‑S9,直到输入完所有卫星训练状态数据组的数据。

2.根据权利要求1所述的基于Double DQN的卫星相对相位保持策略模型的建模方法,其特征在于,步骤S3中,初次循环时,当前时刻第一卫星与第二卫星的状态为初始时刻第一卫星与第二卫星的状态。

3.根据权利要求1所述的基于Double DQN的卫星相对相位保持策略模型的建模方法,其特征在于,步骤S3中,所述根据贪心策略获得第一卫星或第二卫星执行的半长轴控制行为的方法包括:第一卫星或第二卫星以第一指定概率随机选择半长轴控制行为、或以第二指定概率执行最大Q值所对应的半长轴控制行为;第一指定概率和第二指定概率之和等于

1。

4.根据权利要求1所述的基于Double DQN的卫星相对相位保持策略模型的建模方法,其特征在于,步骤S6中,所述根据目标神经网络权值参数计算每个卫星组合状态数据组的目标值的方法采用公式2:其中,yj表示目标值,γ为折扣值,θ’为目标神经网络权值参数,θ为当前神经网络权值参数, 表示一组卫星组合状态数据组中的下一时刻第一卫星或第二卫星执行半长轴控制行为a后得到的Q值, 表示选择能使一组卫星组合状态数据组中的下一时刻第一卫星或第二卫星执行半长轴控制行为a后得到的最大Q值所对应的半长轴控制行为,sj+1表示一组卫星组合状态数据组中的下一时刻第一卫星与第二卫星状态,a表示第一卫星或第二卫星执行的半长轴控制行为,rj表示一组卫星组合状态数据组中的奖励。

5.根据权利要求1所述的基于Double DQN的卫星相对相位保持策略模型的建模方法,其特征在于,步骤S7中,所述损失函数采用公式3:其中,yj表示目标值,θ为当前神经网络权值参数,Q(sj,aj;θ)表示一组卫星组合状态数据组中的当前时刻第一卫星或第二卫星执行半长轴控制行为aj后的Q值,sj表示一组卫星组合状态数据组中的当前时刻第一卫星与第二卫星的状态,aj表示当前时刻第一卫星或第二卫星执行的半长轴控制行为,m为卫星组合状态数据组的数量。

6.根据权利要求1所述的基于Double DQN的卫星相对相位保持策略模型的建模方法,其特征在于,步骤S8中,所述根据值函数更新Q值的方法采用公式4:Q(st,at)←Q(st,at)+α[rt+γmaxQ(st+1,at)‑Q(st,at)]           (4);

其中,箭头左侧的Q(st,at)表示更新后的当前时刻第一卫星或第二卫星执行半长轴控制行为at后的Q值,箭头右侧的Q(st,at)表示更新前的当前时刻的第一卫星或第二卫星执行半长轴控制行为at后的Q值,Q(st+1,at)表示更新前的当前时刻的下一时刻第一卫星或第二卫星执行半长轴控制行为at后的Q值,α为权重,γ为折扣值,st表示当前时刻第一卫星与第二卫星的状态,at表示当前时刻第一卫星或第二卫星执行的半长轴控制行为,st+1表示当前时刻的下一时刻第一卫星与第二卫星的状态,rt表示在当前时刻第一卫星与第二卫星的状态为st下采取半长轴控制行为at后获得的奖励。

7.一种基于Double DQN的卫星相对相位保持策略模型,其特征在于,采用权利要求1‑6中任一项所述的建模方法建立模型。

8.一种卫星相对相位保持最优策略的获取方法,其特征在于,根据权利要求1‑6中任一项所述的建模方法建立基于DoubleDQN的卫星相对相位保持策略模型;

根据该模型得到最优策略;

所述根据该模型得到最优策略的方法采用公式5:

*

其中,π表示卫星进行半长轴控制的策略,π表示通过模型学习到的最优的半长轴控制*策略,即初始时刻第一卫星与第二卫星的状态为s的情况下经过策略π的半长轴控制行为a下产生最大的回报。

9.一种电子设备,其特征在于,包括:

一个或多个处理器;

存储装置,用于存储一个或多个程序;

当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1‑6中任一所述的方法。

10.一种计算机可读介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现如权利要求1‑6中任一所述的方法。

说明书 :

卫星相对相位保持策略模型的建模方法、模型、获取方法

技术领域

[0001] 本发明涉及航空航天技术领域,特别是涉及一种卫星相对相位保持策略模型的建模方法、模型、获取方法、设备、介质。

背景技术

[0002] 随着人类航天活动的不断开展,越来越多的遥感卫星为人们的日常生活提供帮助。
[0003] MEO卫星星座在运行过程中通常都要求星座中的各卫星保持一定的相位,由于入轨及运行过程中各种摄动因素的影响,卫星的实际相位与标称相位之间会存在一定的误差,当该误差的量值使星座的性能降低时就应该对卫星的相位进行控制,消除卫星实际相位与标称相位的误差。
[0004] 完全自主轨道保持可以有效降低卫星的运行成本,提高卫星应对突发事件的能力。如果能够实现MEO卫星的自主轨道保持,则可以极大地提高星座的工作能力,同时降低维护成本。具有完全自主轨道保持能力的卫星必须具有完全自主的导航与轨道控制。卫星的寿命将主要由其携带的燃料决定,有效的相位控制方法将使卫星的寿命延长。
[0005] 现有的技术方法首先通过动力学模型分析了星座中的卫星在轨道运行过程中受到的地球形状和日月引力等各种摄动力的影响所导致的卫星相位变化,然后根据相位偏差与半长轴偏差的关系得出通过调整半长轴可以间接消除相位偏差的结论,然后设计相对相位保持的策略,进而对保持参数进行优化并且计算推进剂的消耗量。现有技术方法通过对卫星在轨道运行过程中受到的各种摄动力进行复杂的建模,然而由于空间受力的复杂性以及卫星本身参数的不确定性,导致无法对卫星进行精确建模,参数多、计算复杂,进而影响卫星相位保持的精度,可能会消耗更多的燃料。
[0006] 因此,亟需开发一种卫星相对相位保持策略模型的建模方法、模型、获取方法、设备、介质,降低建模难度,精确计算相对相位保持策略。

发明内容

[0007] 本发明的目的是提供一种卫星相对相位保持策略模型的建模方法、模型、获取方法、设备、介质,对MEO三轴稳定卫星进行相对相位位置保持时不需要进行复杂的建模,不需要考虑空间受力的复杂性以及卫星本身参数的不确定性,强化学习具有很强的行为决策能力,能够得到最优的决策策略,减少卫星燃料的消耗。
[0008] 为解决上述技术问题,作为本发明的一个方面,提供了一种基于Double DQN的卫星相对相位保持策略模型的建模方法,包括以下步骤:
[0009] S1:初始化模型,获取多组卫星训练状态数据组,每组卫星训练状态数据组包括初始时刻第一卫星与第二卫星的状态、多个预期轨控时刻和预期轨控次数;
[0010] S2:向模型中输入一组卫星训练状态数据组的初始时刻第一卫星与第二卫星的状态,得到初始时刻之后所有半长轴控制行为及所对应输出的Q值;
[0011] S3:获取当前时刻第一卫星与第二卫星的状态,根据贪心策略获得第一卫星或第二卫星执行的半长轴控制行为;
[0012] S4:执行半长轴控制行为,得到下一时刻第一卫星与第二卫星的状态及实际轨控时刻;根据实际轨控时刻、相对相位保持策略奖励函数得到奖励;所述相对相位保持策略奖励函数采用公式1:
[0013]
[0014] 其中,rt为当前时刻卫星进行半长轴控制行为所获得的奖励,Δt为距离实际轨控时刻的时间间隔;Δt根据当前时刻及实际轨控时刻获得;t为当前时刻,t0为与当前时刻距离最近的预期轨控时刻;
[0015] S5:将当前时刻第一卫星与第二卫星的状态、第一卫星或第二卫星执行的半长轴控制行为、奖励和下一时刻第一卫星与第二卫星的状态作为一组卫星组合状态数据组存入经验池中;
[0016] S6:从经验池中取出多组卫星组合状态数据组,根据目标神经网络权值参数计算每个卫星组合状态数据组的目标值;
[0017] S7:根据损失函数计算误差,并更新当前神经网络权值参数;
[0018] S8:根据值函数更新Q值;将下一时刻第一卫星与第二卫星的状态作为当前时刻第一卫星与第二卫星的状态;
[0019] S9:重复执行步骤S3‑S8,执行步骤S3‑S8的次数等于该组卫星训练状态数据组的预期轨控次数;每重复执行指定迭代次数的步骤S3‑S8后,根据当前神经网络权值参数更新目标神经网络权值参数;
[0020] S10:重复执行步骤S2‑S9,直到输入完所有卫星训练状态数据组的数据。
[0021] 根据本发明一示例实施方式,步骤S1中,初始化模型包括定义损失函数。
[0022] 根据本发明一示例实施方式,第一卫星与第二卫星的状态包括:第一卫星与第二卫星的相对相位差。
[0023] 根据本发明一示例实施方式,模型的输入为第一卫星与第二卫星的状态,输出为执行第一卫星或第二卫星执行半长轴控制行为后的回报值(Q值)。
[0024] 根据本发明一示例实施方式,步骤S3中,初次循环时,当前时刻第一卫星与第二卫星的状态为初始时刻第一卫星与第二卫星的状态。
[0025] 根据本发明一示例实施方式,步骤S3中,所述根据贪心策略获得第一卫星或第二卫星执行的半长轴控制行为的方法包括:第一卫星或第二卫星以第一指定概率随机选择半长轴控制行为、或以第二指定概率执行最大Q值所对应的半长轴控制行为;第一指定概率和第二指定概率之和等于1。
[0026] 根据本发明一示例实施方式,步骤S6中,根据目标神经网络权值参数计算每个卫星组合状态数据组的目标值的方法采用公式2:
[0027]
[0028] 其中,yj表示目标值,γ为折扣值,θ′为目标神经网络权值参数,θ为当前神经网络权值参数, 表示一组卫星组合状态数据组中的下一时刻第一卫星或第二卫星执行半长轴控制行为a后得到的Q值, 表示选择能使一组卫
星组合状态数据组中的下一时刻第一卫星或第二卫星执行半长轴控制行为a后得到的最大Q值所对应的半长轴控制行为,sj+1表示一组卫星组合状态数据组中的下一时刻第一卫星与第二卫星的状态,a表示第一卫星或第二卫星执行的半长轴控制行为,rj表示一组卫星组合状态数据组中的奖励。
[0029] 根据本发明一示例实施方式,步骤S7中,所述损失函数采用公式3:
[0030]
[0031] 其中,yj表示目标值,θ为当前神经网络权值参数,Q(sj,aj;θ)表示一组卫星组合状态数据组中的当前时刻第一卫星或第二卫星执行半长轴控制行为aj后的Q值,sj表示一组卫星组合状态数据组中的当前时刻第一卫星与第二卫星的状态,aj表示当前时刻第一卫星或第二卫星执行的半长轴控制行为,m为卫星组合状态数据组的数量。
[0032] 根据本发明一示例实施方式,步骤S8中,所述根据值函数更新Q值的方法采用公式4:
[0033] Q(st,at)←Q(st,at)+α[rt+γmaxQ(st+1,at)‑Q(st,at)]  (4);
[0034] 其中,箭头左侧的Q(st,at)表示更新后的当前时刻的第一卫星或第二卫星执行半长轴控制行为at后的Q值,箭头右侧的Q(st,at)表示更新前的当前时刻的第一卫星或第二卫星执行半长轴控制行为at后的Q值,Q(st+1,at)表示更新前的当前时刻的下一时刻第一卫星或第二卫星执行半长轴控制行为at后的Q值,α为权重,γ为折扣值,st表示当前时刻第一卫星与第二卫星的状态,at表示当前时刻第一卫星或第二卫星执行的半长轴控制行为,st+1表示当前时刻的下一时刻第一卫星与第二卫星的状态,rt表示在当前时刻第一卫星与第二卫星的状态为st下采取半长轴控制行为at后获得的奖励。
[0035] t时刻即为当前时刻,t+1时刻即为当前时刻的下一时刻。
[0036] 作为本发明的第二个方面,提供了一种基于DoubleDQN的卫星相对相位保持策略模型,采用所述基于DoubleDQN的卫星相对相位保持策略模型的建模方法建立模型。
[0037] 作为本发明的第三个方面,提供一种卫星相对相位保持最优策略的获取方法,采用所述基于DoubleDQN的卫星相对相位保持策略模型的建模方法建立基于DoubleDQN的卫星相对相位保持策略模型;
[0038] 根据该模型得到最优策略;
[0039] 所述根据该模型得到最优策略的方法采用公式5:
[0040]
[0041] 其中,π表示卫星进行半长轴控制的策略,π*表示通过模型学习到的最优的半长轴*控制策略,即初始时刻第一卫星与第二卫星的状态为s的情况下经过策略π的半长轴控制行为a下产生最大的回报。
[0042] 作为本发明的第四个方面,提供一种电子设备,包括:
[0043] 一个或多个处理器;
[0044] 存储装置,用于存储一个或多个程序;
[0045] 当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现所述基于DoubleDQN的卫星相对相位保持策略模型的建模方法。
[0046] 作为本发明的第五个方面,提供一种计算机可读介质,其上存储有计算机程序,所述程序被处理器执行时实现所述基于DoubleDQN的卫星相对相位保持策略模型的建模方法。
[0047] 本发明的有益效果是:
[0048] 本方案通过神经网络进行建模,利用当前第一卫星与第二卫星的状态数据进行深度强化学习和决策,不需要利用卫星在轨道运行过程中受到的各种摄动力进行复杂的建模,不仅能够得到最优的相对相位控制策略,而且能够减少卫星燃料的消耗,这对实际的航天应用具有重要的意义和价值。

附图说明

[0049] 图1示意性示出了基于DoubleDQN的卫星相对相位保持策略模型的建模方法的步骤图。
[0050] 图2示意性示出了一种电子设备的框图。
[0051] 图3示意性示出了一种计算机可读介质的框图。

具体实施方式

[0052] 现在将参考附图更全面地描述示例实施例。然而,示例实施例能够以多种形式实施,且不应被理解为限于在此阐述的实施例;相反,提供这些实施例使得本申请将全面和完整,并将示例实施例的构思全面地传达给本领域的技术人员。在图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。
[0053] 此外,所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施例中。在下面的描述中,提供许多具体细节从而给出对本申请的实施例的充分理解。然而,本领域技术人员将意识到,可以实践本申请的技术方案而没有特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知方法、装置、实现或者操作以避免模糊本申请的各方面。
[0054] 附图中所示的方框图仅仅是功能实体,不一定必须与物理上独立的实体相对应。即,可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
[0055] 附图中所示的流程图仅是示例性说明,不是必须包括所有的内容和操作/步骤,也不是必须按所描述的顺序执行。例如,有的操作/步骤还可以分解,而有的操作/步骤可以合并或部分合并,因此实际执行的顺序有可能根据实际情况改变。
[0056] 应理解,虽然本文中可能使用术语第一、第二、第三等来描述各种组件,但这些组件不应受这些术语限制。这些术语乃用以区分一组件与另一组件。因此,下文论述的第一组件可称为第二组件而不偏离本申请概念的教示。如本文中所使用,术语“及/或”包括相关联的列出项目中的任一个及一或多者的所有组合。
[0057] 本领域技术人员可以理解,附图只是示例实施例的示意图,附图中的模块或流程并不一定是实施本申请所必须的,因此不能用于限制本申请的保护范围。
[0058] 本方案基于深度学习较强的感知能力来从环境中获取观测信息,基于强化学习较强的决策能力获得预期回报值来评估顶座价值。整个学习过程可以描述为:在某一时刻,卫星与飞行的环境交互来获取观测信息,通过神经网络将当前状态信息映射为相应的动作(控制行为),环境对此动作做出反应,得到对应的奖励值和下一个观测信息,并把完整的交互信息存入经验池中。通过不断循环以上过程,最终可以得到实现目标的最优策略。
[0059] 本方案所述的卫星为MEO卫星。中轨道(MEO)地球卫星主要是指卫星轨道距离地球表面2000~20000km的地球卫星。它属于地球非同步卫星,主要是作为陆地移动通信系统的补充和扩展,与地面公众网有机结合,实现全球个人移动通信。也可以用作卫星导航系统。因此,其在全球个人移动通信和卫星导航系统中具有极大的优势。中轨道卫星兼具静止轨道和低轨道地球卫星的优点,可实现真正的全球覆盖和更有效的频率复用。
[0060] 利用卫星完成包括两极地区在内的全球通讯、全球导航、全球环境监测等任务,必须使地球上任何地点在任何时刻都能为卫星覆盖。要做到这一点用单颗卫星或一个卫星环是不够的,需要由几个卫星环按一定的方式配置组成一个卫星网‑‑‑‑星座。卫星星座是发射入轨能正常工作的卫星的集合,通常是由一些卫星环按一定的方式配置组成的一个卫星网。主要的卫星星座有GPS卫星星座、GLONASS卫星星座、Galileo卫星星座和北斗卫星星座等。
[0061] 深度Q网络(Deep Q Networks,简称DQN)算法是深度强化学习中的一种网络,是深度学习与Q学习的结合。由于其综合了强化学习和深度学习的优势,所以目前在各个领域都已经得到广泛的应用。
[0062] 深度强化学习作为人工智能领域的一个新的研究热点,将深度学习和强化学习相结合,通过一种端对端的学习方式实现从原始输入到输出的直接控制和决策。由于深度学习是基于神经网络结构的,所以它对环境具有较强的感知能力,但是缺乏一定的决策控制能力;而强化学习恰好具有很强的行为决策能力。因此,深度强化学习将深度学习的感知能力和强化学习的决策能力相结合,优势互补,可以直接从高维原始数据中学习控制策略。深度强化学习方法自提出以来,在许多需要感知高维度原始输入数据和决策控制的任务中,已经取得了实质性的突破,由于深度学习端到端的学习优势,故深度强化学习可以解决建模难、规划难的问题。
[0063] DQN算法在计算目标值和计算当前值用的是同一个网络,即目标值的计算使用了当前要训练的Q网络中的参数,而又用目标值来更新网络的参数,这样二者循环依赖,不利于算法的收敛。相比较于DQN,Nature DQN增加了目标网络,通过双网络结构来减少目标Q值计算与待更新Q网络参数之间的依赖关系,综合了强化学习和深度学习的优势,从而极大地提高了DQN算法的稳定性。
[0064] Nature DQN通过使用两个独立的但完全相同的Q网络(一个网络作为当前Q网络,另一个作为目标Q网络),减少计算目标网络的目标值和当前网络参数之间的相关性。通过复制当前网络的权重参数给目标网络,使得当前网络每隔一定步长C更新目标网络,双网络结构让目标Q值在一段时间里使保持不变,降低了计算目标Q值和当前网络参数的相关性,进而提高了算法收敛性和稳定性。
[0065] DQN和Nature DQN算法在进行值函数优化目标时,动作选择和策略评估都是基于相同的值函数来实现的。无论是DQN还是Nature DQN,都无法克服Q‑Learning本身固有的缺陷——过估计,从而使得估计的值函数比真实值大。
[0066] 过估计是指估计的值函数比真实值函数要大,其根源主要在于Q‑Learning中的最大化操作,即目标值 其中的max操作使得估计的值函数比值函数的真实值大(注:对于真实的策略来说并在给定的状态下并不是每次都选择使得Q值最大的动作,因为一般真实的策略都是随机性策略,所以在这里目标值直接选择动作最大的Q值往往会导致目标值要高于真实值)。
[0067] 不同于这两种算法,DoubleDQN(简称DDQN)则是基于NatureDQN双网络架构,将动作选择和策略评估分开进行,使用当前神经网络权值参数θ来选择最优动作,使用目标神经网络权值参数θ′来评估最优动作,从而解决DQN和NatureDQN算法过度估计的问题。DDQN算法和NatureDQN的算法步骤的区别就在目标Q值的计算方式不同。DDQN能够估计出更加准确的Q值,可获得更稳定有效的策略。
[0068] 作为本发明的第一个实施方式,提供一种基于DoubleDQN的卫星相对相位保持策略模型的建模方法,如图1所示,包括以下步骤:
[0069] S1:初始化模型,获取多组卫星训练状态数据组,每组卫星训练状态数据组包括初始时刻第一卫星与第二卫星的状态、多个预期轨控时刻和预期轨控次数。第一卫星与第二卫星的状态包括第一卫星与第二卫星的相对相位差。
[0070] 模型的输入为第一卫星与第二卫星的状态,输出为执行第一卫星或第二卫星执行半长轴控制行为后的回报值(Q值)。
[0071] 初始化模型的方法包括:定义损失函数;初始化经验池的容量为N,经验池用于存储训练的样本;初始化网络模型的当前神经网络权值参数θ和目标神经网络权值参数θ′,θ′=θ;初始化网络的输入为第一卫星与第二卫星的状态s,计算出的网络输出为第一卫星或第二卫星执行半长轴控制行为后的回报值Q。
[0072] 卫星在某一时刻的运动状态可由开普勒轨道六根数表示:半长轴a1、偏心率e、升交点赤经Ω、近地点幅角度ω、轨道倾角io、平近点角M,卫星的轨道相位角为λ=ω+M。即卫星的运动状态可表示为{a1,e,io,Ω,ω,M}。由卫星的运动状态可以获得第一卫星与第二卫星的状态,第一卫星与第二卫星的状态包括第一卫星与第二卫星的相对相位差。
[0073] 通过卫星的运动状态获得第一卫星与第二卫星的相对相相位差的方法如下:
[0074] 在星座组建过程中,由于卫星并不能准确进入理论设计轨道。往往存在一偏差(下称入轨偏差),这种轨道偏差(主要是轨道半长轴偏差)也将影响卫星相位相对设计相位的长期变化。这种长期的变化为:
[0075]
[0076] 式中,δλ1表示相位的长期变化; 为轨道半长轴偏差,轨道半长轴偏差等于t时刻的半长轴减去初始时刻的半长轴;n为卫星的平均运动角速度, 其中G为万有引力常量,M为地球的质量;λ1为卫星由于J2摄动引起的相位长期变化率, 为卫星由于日月引力引起的相位长期变率,a0为卫星初始的轨道半长轴,t为当前时刻,t初为初始时刻;等号右边括号的第1项 为轨道半长轴偏差 引起的卫星运动角速度变化所产生的相位长期变化,第2、3项 是 引起的相位长期摄动的改变部分,相比第1项要小3个量级,一般情况下可以忽略。于是在J2项摄动、日月引力摄动和入轨偏差导致的卫星轨道相位演化为:
[0077]
[0078] 式中,Δλ为卫星实际工作相位相对二体条件下设计轨道的偏差; 为轨道半长轴偏差,轨道半长轴偏差等于t时刻的半长轴减去初始时刻半长轴;n为卫星的平均运动角速度, 其中G为万有引力常量,M为地球的质量;λ1为卫星由于J2摄动引起的相位长期变化率, 为卫星由于日月引力引起的相位长期变率,a0为卫星初始的轨道半长轴,t为当前时刻(t时刻),t初为初始时刻。
[0079] J2摄动指由于地球非球形引起的轨道根数的长周期变化。二体条件指研究两个可以视为质点的天体在其相互之间的万有引力作用下的动力学问题。
[0080] 由上式可见,对轨道高度、偏心率和轨道倾角相同的一类卫星,它们因轨道摄动导致相位长期漂移的主要部分是相同的,并不会产生显著的相对相位变化,但是由于入轨偏差的存在,使得各卫星的相位长期漂移出现差异。因此,相对相位控制的目标就是消除初始入轨半长轴偏差。
[0081] 对于第一卫星(用i表示)和第二卫星(用j表示),其半长轴分别为ai和aj,相位角分别为λi和λj,半长轴相对偏差为 由上述分析可得,星座卫星间的相对相位变化即为第一卫星与第二卫星的相对相位差的获得方式采用下式:
[0082]
[0083] 其中,Δλij为第一卫星与第二卫星的相对相位差; 为第一卫星的轨道半长轴偏差, 为第二卫星的轨道半长轴偏差,第一卫星与第二卫星半长轴相对偏差为t为当前时刻(t时刻),t初为初始时刻;λ1,i为第一卫星由于J2摄动引起的相位长期变化率,λ1,j为第二卫星由于J2摄动引起的相位长期变化率, 为第一卫星由于日月引力 引起的相位长期变化率, 为第二卫星由于日月引力引起的相位长期变化率;n为卫星的平均运动角速度, 其中G为万有引力常量,M为地球的质量,a0为卫星初始的轨道半长轴; 为卫星初始的轨道半长轴,第一卫星与第二卫星的平均运动角速度相等,第一卫星与第二卫星的初始轨道半长轴相等;半长轴偏差等于t时刻(当前时刻)的半长轴减去卫星初始的轨道半长轴。
[0084] 式中,Δλij为第一卫星相对第二卫星的相对相位变化量。考虑到星座中各卫星的轨道半长轴、偏心率和倾角均相同,星座卫星在轨道摄动作用下的相位长期便宜可认为相同,于是上式进一步简化为:
[0085]
[0086] 由上式可知星座的相对相位演化主要是由卫星入轨偏差所引起,所以可以通过调整卫星的半长轴来实现相对相位保持。
[0087] 综上所述,下一时刻第一卫星与第二卫星的相对相位差的获得方式采用以下公式:
[0088]
[0089] 其中,Δλij为下一时刻第一卫星与第二卫星的相对相位差; 为第一卫星的轨道半长轴偏差, 为第二卫星的轨道半长轴偏差,第一卫星与第二卫星半长轴相对偏差为t1为t时刻的下一时刻,t初为初始时刻;n为卫星的平均运动角速度, 其中G为万有引力常量,M为地球的质量;a0为卫星初始的轨道半长轴,第一卫星与第二卫星的平均运动角速度相等,第一卫星与第二卫星的初始的轨道半长轴相等;半长轴偏差等于t时刻的下一时刻的半长轴减去卫星初始的轨道半长轴。
[0090] 多组卫星训练状态数据组组成数据集,该数据集中的卫星训练用的状态的数据大于或等于100组,卫星状态的数据越多,模型训练出来的结果越准确。
[0091] 多组卫星训练状态数据组的数据为训练集的数据,可以采用仿真数据,也可以采用仿真数据和真实数据相结合。一个时间段内的时间线上包括多个时间点,每个时间点上卫星的状态都不同,在不同的时间点执行轨控策略会得到不同的效果。本方案的通过多组卫星训练状态数据组,每组卫星的初始时刻卫星状态对应一个时间点的卫星状态,每组卫星训练状态数据组的初始时刻对应的时间点均不同,即每组卫星训练状态数据组的初始时刻均不同。
[0092] 轨道半长轴是指人造卫星的轨道要素之一,表示着轨道的大小。当瞬时轨道为椭圆时,半长轴是指长轴的一半;当轨道为圆时,半长轴则为其半径。
[0093] S2:向模型中输入一组卫星训练状态数据组的初始时刻第一卫星与第二卫星的状态,得到当前时刻之后所有半长轴控制行为及所对应输出的Q值。
[0094] 当前时刻第一卫星与第二卫星的状态为st。
[0095] t时刻为当前时刻,当前时刻的下一时刻即为t+1时刻。
[0096] 当前时刻第一卫星或第二卫星执行半长轴控制行为后,得到下一时刻第一卫星与第二卫星的状态(下一个网络的输入),即为st+1。
[0097] 当前时刻第一卫星或第二卫星执行半长轴控制行为后,得到下一时刻第一卫星与第二卫星的状态,即为st+1。因为需要调整第一卫星与第二卫星的相对相位,因此只需要第一卫星或第二卫星中任一颗卫星控制半长轴即可。
[0098] S3:获取当前时刻第一卫星与第二卫星的状态,根据贪心策略获得第一卫星或第二卫星执行的半长轴控制行为。
[0099] 初次循环时,当前时刻第一卫星与第二卫星的状态为初始时刻第一卫星与第二卫星的状态。
[0100] 根据贪心策略获得第一卫星或第二卫星执行的半长轴控制行为的方法包括:第一卫星或第二卫星以第一指定概率随机选择半长轴控制行为、或以第二指定概率执行最大Q值所对应的半长轴控制行为;第一指定概率和第二指定概率之和等于1。
[0101] 如果第一指定概率大于第二指定概率,则根据贪心策略获得第一卫星或第二卫星执行的半长轴控制行为的方法采用:第一卫星或第二卫星以第一指定概率随机选择半长轴控制行为;
[0102] 如果第二指定概率大于第一指定概率,则根据贪心策略获得第一卫星或第二卫星执行的半长轴控制行为的方法采用:第一卫星或第二卫星以第二指定概率执行最大Q值所对应的半长轴控制行为;
[0103] 如果第一指定概率等于第二指定概率,则根据贪心策略获得第一卫星或第二卫星执行的半长轴控制行为的方法择其一:第一卫星或第二卫星以第一指定概率随机选择半长轴控制行为、或以第二指定概率执行最大Q值所对应的半长轴控制行为。
[0104] 贪心策略为ε‑greedy策略。
[0105] 第一指定概率为ε,ε随迭代次数的增加而减小。
[0106] 当前时刻第一卫星或第二卫星执行的半长轴控制行为为at。
[0107] S4:执行半长轴控制行为,得到下一时刻第一卫星与第二卫星的状态及实际轨控时刻;根据实际轨控时刻、相对相位保持策略奖励函数得到奖励。
[0108] 卫星长期在轨运行期间,当星座中第i颗星的相对相位偏差超出门限值时(|Δλi|>λmax),需要对第i颗星实施轨道控制,通过消耗燃料的主动控制来消除各种因素的干扰,而卫星相位调整时间相对导航卫星的工作寿命为一小量,因此,性能指标仅要求整个过程消耗的燃料最少。
[0109] 考虑到每次对卫星进行控制都需要耗费大量的人工作业,所以控制的次数越少,风险就越低,这就要求对星座中卫星的相对相位保持的周期越长。
[0110] 在每次控制消耗的燃料等量的前提下,t时刻(某一时刻)半长轴的变化量决定了下一次进行卫星相位控制的时间。卫星标称轨道(理论轨道)的双星(第一卫星与第二卫星)相位差为Δλ0,在t时刻对卫星进行控制后,根据外推的星历得到两个卫星相对相位在超出Δλ0±Δλmax范围的时刻。基于卫星相对相位保持周期长的目的,设计了t时刻(当前时刻)的奖励策略。
[0111] t时刻的奖励策略,即相对相位保持策略奖励函数采用公式1:
[0112]
[0113] 其中,rt为当前时刻卫星进行半长轴控制行为所获得的奖励,Δt为距离实际轨控时刻的时间间隔;Δt根据当前时刻及实际轨控时刻获得;t为当前时刻,t0与当前时刻距离最近的预期轨控时刻。
[0114] Δt等于实际轨控时刻减去当前时刻。Δt=t1‑t;t1为实际轨控时刻(下一次需要进行半长轴控制行为的时刻)。实际轨控时刻为外推出来的要进行的切向控制的时刻,即平经度或偏心率矢量超出预定范围的时刻。
[0115] 显然,间隔时间越长,保持周期越长,奖赏越高。
[0116] S5:将当前时刻第一卫星与第二卫星的状态、第一卫星或第二卫星执行的半长轴控制行为、奖励和下一时刻第一卫星与第二卫星的状态作为一组卫星组合状态数据组存入经验池中。
[0117] S6:从经验池中取出多组卫星组合状态数据组,根据目标神经网络权值参数计算每个卫星组合状态数据组的目标值。
[0118] 卫星组合状态数据组的数量为m,m为大于0的自然数,且m小于卫星训练状态数据组的数量。m组卫星组合状态数据组为小批量的卫星组合状态数据组。卫星组合状态数据组的数量根据卫星训练状态数据组的数量确定。
[0119] 所述根据目标神经网络权值参数计算每个卫星组合状态数据组的目标值的方法采用公式2:
[0120]
[0121] 其中,yj表示目标值,γ为折扣值(衰减因子),θ′为目标神经网络权值参数,θ为当前神经网络权值参数, 表示一组卫星组合状态数据组中的下一时刻第一卫星或第二卫星执行半长轴控制行为a后得到的Q值, 表示选择
能使一组卫星组合状态数据组中的下一时刻第一卫星或第二卫星执行半长轴控制行为a后得到的最大Q值所对应的半长轴控制行为,sj+1表示一组卫星组合状态数据组中的下一时刻第一卫星与第二卫星的状态,a表示第一卫星或第二卫星执行的半长轴控制行为,rj表示一组卫星组合状态数据组中的奖励。
[0122] 指的是一个半长轴控制行为,该半长轴控制行为是该组卫星组合状态数据组的所有下一时刻卫星执行半长轴控制行为中的一个,并且执行该半长轴控制行为后,得到的Q值比该组卫星组合状态数据组的所有下一时刻卫星执行半长轴控制行为得到的Q值大。
[0123] 得 到 的 Q 值 为 目 标 网 络 Q 值 ;中得到的Q值为当前网络Q值;目标网络Q值和当前网络Q值都是神经网
络的输出值。
[0124] 公式2将动作(半长轴控制行为)选择和策略评估分开进行,使用当前神经网络权值参数θ来选择最优动作,使用目标神经网络权值参数θ'来评估最优半长轴控制行为,从而解决DQN和Nature DQN算法过度估计的问题。
[0125] 使任务终止即为模型收敛或迭代完成。当sj+1为模型收敛或迭代完成时,yi等于rj;当sj+1不为模型收敛或迭代完成时,yi等于
[0126] 模型收敛的条件为:损失函数计算出来的误差在指定范围内。
[0127] 迭代完成的条件为:执行完所有步骤。
[0128] S7:根据损失函数计算误差,并更新当前神经网络权值参数。
[0129] 还根据目标值计算误差。
[0130] 损失函数采用公式3:
[0131]
[0132] 其中,yj表示目标值,θ为当前神经网络权值参数,Q(sj,aj;θ)表示一组卫星组合状态数据组中的当前时刻第一卫星或第二卫星执行半长轴控制行为aj后的Q值,sj表示一组卫星组合状态数据组中的当前时刻第一卫星与第二卫星的状态,aj表示当前时刻第一卫星或第二卫星执行的半长轴控制行为,rj表示一组卫星组合状态数据组中的奖励;m为卫星组合状态数据组的数量。
[0133] 误差即为损失函数采用公式3的计算结果。
[0134] 当前神经网络权值参数通过随机梯度下降法(SGD)进行更新。
[0135] rt、at、st、st+1表示卫星训练状态数据组的数据集中的样本,rj、aj、sj、sj+1表示经验池中的样本。
[0136] 步骤S5‑S7对模型的参数进行调整,能够让模型的计算准确度更高。
[0137] S8:根据值函数更新Q值;将下一时刻第一卫星与第二卫星的状态作为当前时刻第一卫星与第二卫星的状态。
[0138] 根据值函数更新Q值的方法采用公式4:
[0139] Q(st,at)←Q(st,at)+α[rt+γ max Q(st+1,at)‑Q(st,at)]  (4);
[0140] 其中,箭头左侧的Q(st,at)表示更新后的当前时刻的第一卫星或第二卫星执行半长轴控制行为at后的Q值,箭头右侧的Q(st,at)表示更新前的当前时刻的第一卫星或第二卫星执行半长轴控制行为at后的Q值,Q(st+1,at)表示更新前的当前时刻的下一时刻的第一卫星或第二卫星执行半长轴控制行为at后的Q值,α为权重,γ为折扣值(衰减因子),st表示当前时刻第一卫星与第二卫星的状态,at表示当前时刻第一卫星或第二卫星执行的半长轴控制行为,st+1表示当前时刻的下一时刻第一卫星与第二卫星的状态,rt表示在当前时刻第一卫星与第二卫星的状态为st下采取半长轴控制行为at后获得的奖励。
[0141] 其中α和γ的范围都在0~1之间。
[0142] S9:重复执行第一迭代次数的步骤S3‑S8,执行步骤S3‑S8的次数等于该组卫星训练状态数据组的预期轨控次数;每重复执行指定迭代次数的步骤S3‑S8后,根据当前神经网络权值参数更新目标神经网络权值参数。
[0143] 完成指定迭代次数的迭代后,将目标神经网络权值参数更新为当前神经网络权值参数。
[0144] S10:重复执行步骤S2‑S9,直到输入完所有卫星训练状态数据组的数据。
[0145] 本方案的建模方法以第一卫星与第二卫星的状态数据作为神经网络模型的输入,产生的回报值作为输出,采用DoubleDQN神经网络,不需要利用卫星在轨道运行过程中受到的各种摄动力进行复杂的建模,直接采用深度强化学习来进行学习和决策,基于DQN算法进行改进适用于训练大规模的神经网络且极大提高了DQN算法的稳定性,不仅能够得到最优的相对相位控制策略,解决喷气次数多、轨控精度差、燃料消耗大、测控时段长等一系列问题,而且能够减少卫星燃料的消耗这对实际的航天应用具有重要的意义和价值。
[0146] 根据本发明的第二个具体实施方式,本发明提供一种基于DoubleDQN的卫星相对相位保持策略模型,采用第一个实施方式的基于DoubleDQN的卫星相对相位保持策略模型的建模方法建立模型。
[0147] 根据本发明的第三个具体实施方式,本发明提供一种卫星相对相位保持最优策略的获取方法,采用第一个实施方式的基于DoubleDQN的卫星相对相位保持策略模型的建模方法建立基于DoubleDQN的卫星相对相位保持策略模型;
[0148] 根据该模型得到最优策略。
[0149] 根据该模型得到最优策略的方法采用公式5:
[0150]
[0151] 其中,π表示卫星进行半长轴控制的策略,π*表示通过模型学习到的最优的半长轴*控制策略,即初始时刻第一卫星与第二卫星的状态为s的情况下经过策略π的半长轴控制行为a下产生最大的回报。
[0152] 根据本发明的第四个具体实施方式,本发明提供一种电子设备,如图2所示,图2是根据一示例性实施例示出的一种电子设备的框图。
[0153] 下面参照图2来描述根据本申请的这种实施方式的电子设备200。图2显示的电子设备200仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
[0154] 如图2所示,电子设备200以通用计算设备的形式表现。电子设备200的组件可以包括但不限于:至少一个处理单元210、至少一个存储单元220、连接不同系统组件(包括存储单元220和处理单元210)的总线230、显示单元240等。
[0155] 其中,所述存储单元存储有程序代码,所述程序代码可以被所述处理单元210执行,使得所述处理单元210执行本说明书中描述的根据本申请各种示例性实施方式的步骤。例如,所述处理单元210可以执行如图1中所示的步骤。
[0156] 所述存储单元220可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)2201和/或高速缓存存储单元2202,还可以进一步包括只读存储单元(ROM)2203。
[0157] 所述存储单元220还可以包括具有一组(至少一个)程序模块2205的程序/实用工具2204,这样的程序模块2205包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
[0158] 总线230可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
[0159] 电子设备200也可以与一个或多个外部设备200’(例如键盘、指向设备、蓝牙设备等)通信,使得用户能与该电子设备200交互的设备通信,和/或该电子设备200能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口250进行。并且,电子设备200还可以通过网络适配器260与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。网络适配器260可以通过总线230与电子设备200的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备200使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
[0160] 通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。
[0161] 因此,根据本发明的第五个具体实施方式,本发明提供一种计算机可读介质。如图3所示,根据本发明实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD‑ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、或者网络设备等)执行根据本发明实施方式的上述方法。
[0162] 所述软件产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD‑ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
[0163] 所述计算机可读存储介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读存储介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
[0164] 可以以一种或多种程序设计语言的任意组合来编写用于执行本发明操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
[0165] 上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被一个该设备执行时,使得该计算机可读介质实现第一个实施方式的功能。
[0166] 本领域技术人员可以理解上述各模块可以按照实施例的描述分布于装置中,也可以进行相应变化唯一不同于本实施例的一个或多个装置中。上述实施例的模块可以合并为一个模块,也可以进一步拆分成多个子模块。
[0167] 通过以上的实施例的描述,本领域的技术人员易于理解,这里描述的示例实施例可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本发明实施例的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD‑ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、移动终端、或者网络设备等)执行根据本发明实施例的方法。
[0168] 以上仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。