一种ROV推力分配与基于强化学习的运动控制方法转让专利
申请号 : CN202010820394.0
文献号 : CN111966118B
文献日 : 2021-07-20
发明人 : 孙玉山 , 吴新雨 , 张国成 , 李岳明 , 王元庆 , 祁彧 , 柴璞鑫
申请人 : 哈尔滨工程大学
摘要 :
权利要求 :
1.一种ROV推力分配与基于强化学习的运动控制方法,其特征在于,所述方法包括以下步骤:
步骤一、进行ROV动力学建模,确定ROV推进器空间布置及推进系统模型,提出ROV推力分配方法;
步骤二、在所述ROV推力分配方法的基础上,加入DDPG控制器;
步骤三、在所述DDPG控制器的基础上,加入抗扰控制器,在步骤一中,具体的,建立有利于描述水下机器人运动状态的坐标系,惯性坐标系以空间任意一点为原点,Eζ轴正向指向地心,Eξ轴指向北向、Eη指向东向,随体坐标系O‑xyz固连于ROV艇体上,原点取在ROV的对称轴中点或在重心上,取纵轴Ox指向艇首,横轴Oy与Ox轴正交于同一平面并以右舷为正方向,垂轴Oz指向机器人的腹部,机器人的位置和方向由惯性坐标系表示,速度和角速度在随体坐标系中表示,在惯性坐标系中,ROV位置和姿态表示为:其中:R为ROV的位姿项,r为ROV的位置项,Λ为ROV的姿态项,ξ为大地坐标系纵向,η为大地坐标系横向,ζ为大地坐标系垂向, 为横倾角,θ为纵倾角,ψ为艏向角,在随体坐标系中,水下机器人的动力学模型输入为所受环境和控制力的力和力矩,输出为水下机器人的线性加速度和姿态角加速度,在随体坐标系中,载体的速度和加速度为:T T T T T
V=[U ,Ω],U=[u,v,w],Ω=[p,q,r] (2)其中:V为ROV的速度项,U为ROV的线性速度项,Ω为ROV的角速度项,u为纵向速度,v为横向速度,w为垂向速度,p为横滚角速度,q为纵倾角速度,r为转艏角速度,水下机器人在惯性系下的位置项与其随体的速度量的动态关系可以由以下转换方程来描述:
式中J1,J2是坐标转换矩阵:
通过有限元计算或船模实验可以对动力学方程中涉及的水动力参数进行测算;
推进系统是由多个处于不同方位的独立推进器所组成,对单个推进器进行数学建模,对于ROV上所使用的螺旋桨,其敞水推力的计算方法如下式所示:
2 4
T=KTρnD (6)3
式中:KT为螺旋桨推力系数,ρ为海水的密度kg/m ,D为螺旋桨直径m,n为螺旋桨的转速r/s,
为了获得相应的推力,必须驱动螺旋桨转动推出水体,螺旋桨的转矩的计算公式为:
2 5
Q=KqρnD (7)式中:Q为螺旋桨扭矩Nm,Kq为螺旋桨转矩系数,水下机器人配置有6台矢量布置的螺旋桨推进器,在水平面有四个斜向布置的水平面推进器,垂直面沿艇体纵轴关于质心对称布置有两个垂向推进器,在水平方向上,4台推进器平行于水平面O‑xy布置,按照左上、右上、左下、右下依次编号为:第一推进器、第二推进器、第三推进器和第四推进器,且与随体坐标系纵轴O‑x的夹角为45°,水平方向上的4台推进器安装位置关于纵轴左右对称,因此水平面的推进器为冗余布置,对于控制器计算的控制量通过各推进器的组合实现,第一推进器的螺旋浆在随体坐标系xOy中的位置为:(237mm,‑305mm),第二推进器与第一推进器关于O‑xz面对称;第三推进器的坐标为(‑300mm,‑195mm),第四推进器与第三推进器关于O‑xz面对称,垂直面有两个推进器,其布置在O‑xz平面上,依照前后方向编号为第五推进器和第六推进器,其中第五推进器在xOz坐标系中位置为(284mm,113mm),第六推进器与第五推进器其关于O‑yz面对称布置,
遥控水下机器人具有六个推进器,其中要控制的量为纵向横移垂向方向的运动和转艏,其中垂直方向的控制器有两个均匀布置,推力分配时只需将控制力平均分配即可,水平方向有四个推进器,分布在四个角,与随体坐标系成45°排布,在分配水平方向的力时,推进器数目大于目标力和力矩的数量,推进器冗余布置,因此在满足推力分配时,可以有无数种分配方式,这要求在进行推力分配的同时,应当兼顾各推进器输出幅值的偏差以及推力分配系统的能耗,
建立水下机器人推力分配的数学模型:τ=B(α)T (8)
式(8)为推力分配问题的等式约束,B表示推力分配的空间位置约束,τ={τx,τy,τr}为控制器输出的三个自由度上的力和力矩,T={T1 T2 T3 T4}为推进器的推力,α={α1 α2 α3 α4}为推进器转角,
其中lxi、lyi分别为第i个推进器在x、y方向上距离机器人重心的距离;
遗传算法借鉴生物进化理论的机理,以保留更适应环境的生物体为筛选原则的一种随机算法,先使用随机选取的一组解作为初始种群,该种群中的每个解决方案被称为个体或染色体,种群大小是其中个体数目,遗传算法对变量进行编码,遗传算法中每个染色体的适应值,具有评估新产生的种群与上一代种群关系的能力,为了得到每个染色体的适应值,计算同一染色体的优化函数的值,所述优化函数叫做目标函数,通过遗传算法中主要的选择、交叉和变异这种处理使种群个体进行更新,得到下一次迭代的解群,新产生的种群叫子代,上一代种群叫父代,遗传算法的这个迭代过程直到满足停止条件才会终止,在最后一代中具有最佳适应值的染色体被称为最优解,根据推进器系统模型,建立遗传算法的优化目标方程:其中P为推进系统的能耗方程,ki为第i个推进器占总能耗的占比权值,在本目标机器人中,总功率为各个推进器功率之和,根据电机功率公式,其中n为转速,Q为扭矩:P=nQ (10)将上式与螺旋桨的敞水推力的计算公式(11)、螺旋桨的转矩公式(12)结合:
2 4
T=KTρnD (6)式中,KT为螺旋桨推力系数,ρ为海水的密度kg/m3,D为螺旋桨直径m,n为螺旋桨的转速r/s,
为了获得相应的推力,必须驱动螺旋桨转动推出水体,其转矩的计算公式为:
2 5
Q=KqρnD (7)式中,Q为螺旋桨扭矩Nm,Kq为螺旋桨转矩系数,计算每个推进器的推力和功率量化公式:单个推进器功率与推进器推力的3/2次方成正比,将控制分配任务抽象成最优化问题进行描述:开始遗传算法计算,确定遗传算法中优化变量为四项,即推进器的推力大小u,生成初始种群,设计种群中个体数目为50,进行500次迭代,自变量数目4,交叉概率0.8,变异概率
0.15,公差为1e‑8,对于个体的变量上下限为[‑20,20],初始种群的个体随机产生,随机范围即为变量上下限,
在优化目标函数fun的基础上设计遗传算法的适度函数V并计算:上式中Bu‑τ表示当前个体关于等式约束的偏差值,W为惩罚矩阵,当个体越接近等式约束的解时,W的适应度也越大,同样当个体越满足优化条件时,它的适应度越大,这样便可以求出种群中更加满足约束条件且适应优化方程的个体,根据适应度选择当前种群中个体,根据适应程度对最佳个体进行分类,记录最佳个体,并以如下公式选择计算群体中个体的选择概率:式中Pi为第i个个体的选择概率,fi为其适应度,拥有较大适应度的解有更大的概率被选择继承到下一次迭代,在获取下一次迭代种群时对选中个体进行交叉变异提高在优值周围的探索,
对遗传算法的终止条件进行判断,如果当前最佳个体的适应度与上代最佳个体适应度之差小于容忍度,则认为达到最优条件,遗传算法结束;若不满足,判断是否达到繁殖代数,若达到则停止计算,
对有交叉权的个体进行染色体交叉,采用浮点数交叉法,即交换父母中某一段浮点位,对有交叉权但不满足交叉概率的保留父代,对于产生的子代,依照编译概率对其某浮点位进行随机数变异,在产生的子代中,如果它的变量值超过了变量上下限,则将其值修改为上下限的值,同时为了保证种群的优选性,将上代最优个体进行保留,将交叉、变异后的产生的新种群回到计算适度函数V的步骤,进行下一轮的计算,结束计算后,获得的最优个体u即为本次推力分配问题中能耗最小的优化推力;
在步骤二中,针对的水下机器人在水平面操纵上具有纵轴和艏向上的执行机构,通过调整前后方向的推力和转向使机器人趋近目标点,控制原理为获得目标值和实际值的差值,将偏差作为强化学习的状态值,使用策略网络选择所需执行的动作,其中动作空间为归一化以后的x方向推力和绕z轴旋转的力矩,在控制器设计时,建立Actor网络作为策略网络μ,某一时刻的惯性坐标系位置和随体坐标系速度R、V作为状态空间的输入 通过神经网络输出控制指令,其包括纵向、横向和转艏方向上归一化的力和力矩,动作空间为:a={τx,τy,τr}将选择的动作交由推力分配系统生成实际的推力分配和推进器转速控制方案,通过调节机器人纵向和横向的速度和艏向角使机器人向目标点靠拢,控制器状态选择随体坐标系下的误差s={exr,eyr,eψ,u,v,r},exr为随体坐标系下纵向误差:exr=xTarget‑xr,eyr为横向误差,eψ为大地坐标系下目标艏向和当前艏向的差值,目标艏向:ψTarget=arctan(dy/dx),因此艏向误差可表示为:eψ=ψTarget‑ψ (17)以点镇定为目标,设置初始目标艏向角为0,偏差为目标点在机器人艇体坐标系纵向距离,将目标速度和角速度设置为0,则设置强化学习的奖励函数为:当智能体越靠近智能体,且智能体的速度越慢时,奖励值就越大,以累积折扣奖励值最大为目标,通过DDPG方法使策略网络选择最优策略,当某一时刻输入智能体状态时,它能输出最佳动作,进而完成机器人点镇定的控制问题,当传感器获得水下机器人状态信息s后,根据状态s,策略网络会选择一个动作控制水下机器人运动,在下一采样时刻获得状态信息s’,同时根据奖励函数计算当前状态的奖励值r,将作为一个采样点储存在记忆库中,在参数训练的过程中,从记忆库小批量采样,使用策略网络进行决策,并用目标评价计算采样动作的目标Q值,通过现实评价估计Q值与目标Q值的均方误差调整评价网络参数更新,同时使用目标Q函数计算更新策略网络,采用软更新的方式,异步的调整目标神经网络的参数,使目标神经网络向接近现实神经网络的方向缓慢更新,在训练过程中使用策略网络以状态信息s为输入,输出3个自由度上的力和力矩a,并加入高斯噪声以实现对环境的探索,将策略网络选择的动作a发送给推力分配模块,进而驱动ROV推进器运转,实现动作控制;
在步骤三中,具体的,抗扰控制器以状态观测器为基础,依据观测器估计的状态和测量状态误差为输入量调整控制器,水下机器人在控制力的作用下由状态st转移至st+1,而由于外部扰动和系统不确定性的存在使状态转移至s't+1,将干扰后的状态量与估计状态量的误差作为输入,加入控制力作为线性补偿以改善控制器的抗扰性能,以随体坐标系下位置量为被控状态量s={x,y,ψ},根据2个采样时刻状态量{sk‑1,sk}和控制量{τk‑1,τk}使用SVR方法状态估计水下机器人状态sk+1,在无干扰情况下采集运动状态数据作为数据集训练SVR收敛,并以此来估计理想状态下被控状态,则状态误差为测量的状态与估计状态的差值:
根据反馈控制的思想,使用非线性反馈控制器对系统误差进行补偿,对于非线性系统加入非线性补偿控制量:
其中,x为非线性系统状态量,w为时域干扰项,τ为控制量,g(e)为以估计误差为输入的补偿控制量,通过调整控制量来调整期望状态与系统输出的误差,对于一阶误差输入,取g(·)为fal函数[110],
其中,β为比例参数,其反映了补偿控制力在总控制力中的比重,δ为反馈函数线性段的范围,当|es|<δ时,反馈函数处于线性区间,避免了误差在0点附近时的高频振荡,减小稳态误差,取α在0~1之间,反映了系统的阶次,在|es|>δ的区间中,当误差增幅大时,减小系统增益防止发散,δ取值较小但其值过小会导致线性段缩短,使系统出现高频抖震,取值过大会导致线性段延长,使非线性段克服系统稳态误差的特性降低。
说明书 :
一种ROV推力分配与基于强化学习的运动控制方法
技术领域
背景技术
中由于遥控水下机器人(ROV)通常用于水下作业任务,需要ROV在复杂水体环境中长时间稳
定工作,因此如何使ROV控制更加精准可靠受到很多研究人员的青睐。
阶非线性的,同时多自由度交叉耦合现象加大了水下机器人的运动控制的难度,并且水体
环境复杂多变,使水下机器人运动学模型难以用于对实际工程的指导。
欠缺等问题,并且以该方法不能考虑能耗函数或其他优化目标,此方法不能执行在分配的
同时进行优化的任务,导致机器人能量浪费等损失。数学规划法求解最优问题较为繁复,计
算速度较慢,可能有实时性不足的问题,使用该方法有在局部极值点处进行迭代不能收敛
到全局最优的问题,而且在求解时由于放宽了限制条件,可能造成分配后推力无法达到预
期效果等限制。
运动的精确控制。
发明内容
节能优化方案,和使用强化学习对ROV进行运动控制。
系O‑xyz固连于ROV艇体上,原点取在ROV的对称轴中点或在重心上,取纵轴Ox指向艇首,横
轴Oy与Ox轴正交于同一平面并以右舷为正方向,垂轴Oz指向机器人的腹部,机器人的位置
和方向由惯性坐标系表示,速度和角速度在随体坐标系中表示,
度为:
夹角为45°,水平方向上的4台推进器安装位置关于纵轴左右对称,因此水平面的推进器为
冗余布置,对于控制器计算的控制量通过各推进器的组合实现,第一推进器的螺旋浆在随
体坐标系xOy中的位置为:(237mm,‑305mm),第二推进器与第一推进器关于O‑xz面对称;第
三推进器的坐标为(‑300mm,‑195mm),第四推进器与第三推进器关于O‑xz面对称,
进器关于O‑yz面对称布置,
平方向有四个推进器,分布在四个角,与随体坐标系成45°排布,在分配水平方向的力时,推
进器数目大于目标力和力矩的数量,推进器冗余布置,因此在满足推力分配时,可以有无数
种分配方式,这要求在进行推力分配的同时,应当兼顾各推进器输出幅值的偏差以及推力
分配系统的能耗,
α3α4}为推进器转角,
体或染色体,种群大小是其中个体数目,遗传算法对变量进行编码,遗传算法中每个染色体
的适应值,具有评估新产生的种群与上一代种群关系的能力,为了得到每个染色体的适应
值,计算同一染色体的优化函数的值,所述优化函数叫做目标函数,通过遗传算法中主要的
选择、交叉和变异这种处理使种群个体进行更新,得到下一次迭代的解群,新产生的种群叫
子代,上一代种群叫父代,遗传算法的这个迭代过程直到满足停止条件才会终止,在最后一
代中具有最佳适应值的染色体被称为最优解,
0.8,变异概率0.15,公差为1e‑8,对于个体的变量上下限为[‑20,20]kN,初始种群的个体随
机产生,随机范围即为变量上下限,
可以求出种群中更加满足约束条件且适应优化方程的个体,
值周围的探索,
代数,若达到则停止计算,
对其某浮点位进行随机数变异,在产生的子代中,如果它的变量值超过了变量上下限,则将
其值修改为上下限的值,同时为了保证种群的优选性,将上代最优个体进行保留,将交叉、
变异后的产生的新种群回到计算适度函数V的步骤,进行下一轮的计算,
实际值的差值,将偏差作为强化学习的状态值,使用策略网络选择所需执行的动作,其中动
作空间为归一化以后的x方向推力和绕z轴旋转的力矩,
其包括纵向、横向和转艏方向上归一化的力和力矩,动作空间为:a=[Tx,Ty,Tr]将选择的动
作交由推力分配系统生成实际的推力分配和推进器转速控制方案,通过调节机器人纵向和
横向的速度和艏向角使机器人向目标点靠拢,
标艏向: 因此艏向误差可表示为:
能输出最佳动作,进而完成机器人点镇定的控制问题,
奖励值r,将
小批量采样,使用策略网络进行决策,并用目标评价计算采样动作的目标Q值,通过现实评
价估计Q值与目标Q值的均方误差调整评价网络参数更新,同时使用目标Q函数计算更新策
略网络,采用软更新的方式,异步的调整目标神经网络的参数,使目标神经网络向接近现实
神经网络的方向缓慢更新,在训练过程中使用策略网络以状态信息s为输入,输出3个自由
度上的力和力矩a,并加入高斯噪声以实现对环境的探索,将策略网络选择的动作a发送给
推力分配模块,进而驱动ROV推进器运转,实现动作控制。
st+1,而由于外部扰动和系统不确定性的存在使状态转移至s't+1,将干扰后的状态量与估计
状态量的误差作为输入,加入控制力作为线性补偿以改善控制器的抗扰性能,
集运动状态数据作为数据集训练SVR收敛,并以此来估计理想状态下被控状态,则状态误差
为测量的状态与估计状态的差值:
取g(·)为fal函数[110],
小稳态误差,通常取α在0~1之间,反映了系统的阶次,在|es|>δ的区间中,当误差增幅大
时,减小系统增益防止发散,δ通常取值较小但其值过小会导致线性段缩短,使系统出现高
频抖震,取值过大会导致线性段延长,使非线性段克服系统稳态误差的特性降低。
耗。DDPG算法能够在动作输出幅度能进行连续值输出,相较于只能离散输出的强化学习控
制更适用水下机器人控制问题,同时DDPG控制器能够在连续决策问题中进行学习,可以一
边在线进行控制,一边以在线离线相结合的方式更新神经网络参数,加快了学习进程。采用
抗扰控制器可以提高该运动控制方法对ROV未建模水动力、外界扰动及其他不确定因素的
抗扰能力。该方法实现了ROV的推力分配,完成了对ROV运动的精确控制,使ROV具备更好完
成各种作业任务的基础。
附图说明
具体实施方式
明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施
例,都属于本发明保护的范围。
取下一时刻机器人状态。
了九轴罗经和声呐等设备用于测量载体的角速度、加速度信息。ROV的深度信息由深度计进
行测量,本发明主要研究控制算法和推力分配算法,认为传感器所测数据真实有效。
艇体上,原点取在ROV的对称轴中点或在重心上,取纵轴Ox指向艇首,横轴Oy与Ox轴正交于
同一平面并以右舷为正方向,垂轴Oz指向机器人的腹部,机器人的位置和方向由惯性坐标
系表示,速度和角速度在随体坐标系中表示,
度为:
的水动力参数进行研究和仿真:
行机构执行数目的关系区分。在水下机器人进行精度较高的运动操纵时,使用完全驱动或
冗余驱动的载体更能满足任务要求。由于搭载有多余执行器的艇体在接受到控制指令时,
有足够的执行能力以满足其控制要求,并且在出现故障或单一推进器能力不足时可以使用
额外推进器辅助推进。本文以搭载有6个推进器的遥控水下机器人为研究对象,其推进器能
够满足水平面三自由度运动和升沉运动的控制要求,在水平定位控制中为冗余驱动类型。
在满足推进器空间约束的前提下可以执行控制器任意自由度控制指令,因此有必要对其冗
余推进器特点进行控制分配,实现控制目标的同时对其推进系统进行优化。控制器在设计
时不考虑水下机器人对其指令的执行能力,依据目标位置和当前状态决策出当前机器人应
当执行的力或力矩,采用推力分配模块对上述力或力矩进行解析分配给对应的各个推进
器,使机器人按照控制指令运动。因此,设计推力分配模块是实现水下机器人运动控制的基
础和前提。
优化。
进器、垂直的两台推进器型号分别相同,
器。其中水平的四台推进器、垂直的两台推进器型号分别相同。
系纵轴O‑x的夹角为45°,水平方向上的4台推进器安装位置关于纵轴左右对称,因此水平面
的推进器为冗余布置,对于控制器计算的控制量通过各推进器的组合实现,第一推进器的
螺旋浆在随体坐标系xOy中的位置为:(237mm,‑305mm),第二推进器与第一推进器关于O‑xz
面对称;第三推进器的坐标为(‑300mm,‑195mm),第四推进器与第三推进器关于O‑xz面对
称,
进器关于O‑yz面对称布置,
平方向有四个推进器,分布在四个角,与随体坐标系成45°排布,在分配水平方向的力时,推
进器数目大于目标力和力矩的数量,推进器冗余布置,因此在满足推力分配时,可以有无数
种分配方式,这要求在进行推力分配的同时,应当兼顾各推进器输出幅值的偏差以及推力
分配系统的能耗,
α3α4}为推进器转角,
化。结合水下机器人空间运动的特点,实现了推力分配优化。
的一组解作为初始种群,该种群中的每个解决方案被称为个体或染色体,种群大小是其中
个体数目,遗传算法对变量进行编码,遗传算法中每个染色体的适应值,具有评估新产生的
种群与上一代种群关系的能力,为了得到每个染色体的适应值,计算同一染色体的优化函
数的值,所述优化函数叫做目标函数,通过遗传算法中主要的选择、交叉和变异这种处理使
种群个体进行更新,得到下一次迭代的解群,新产生的种群叫子代,上一代种群叫父代,遗
传算法的这个迭代过程直到满足停止条件才会终止,在最后一代中具有最佳适应值的染色
体被称为最优解,
0.8,变异概率0.15,公差为1e‑8,对于个体的变量上下限为[‑20,20]kN,初始种群的个体随
机产生,随机范围即为变量上下限,
可以求出种群中更加满足约束条件且适应优化方程的个体,
值周围的探索,
代数,若达到则停止计算,
对其某浮点位进行随机数变异,在产生的子代中,如果它的变量值超过了变量上下限,则将
其值修改为上下限的值,同时为了保证种群的优选性,将上代最优个体进行保留,将交叉、
变异后的产生的新种群回到计算适度函数V的步骤,进行下一轮的计算,
状态。姿态镇定是在扰动条件下维持期望的稳定平衡姿态,它涉及到位置与姿态的稳定性
控制,属于定点控制范畴。
力,控制力交由推力分配系统实现水下机器人运动控制。
息,本发明不讨论传感器信息处理的问题。
作为强化学习的状态值,使用策略网络选择所需执行的动作,其中动作空间为归一化以后
的x方向推力和绕z轴旋转的力矩,
其包括纵向、横向和转艏方向上归一化的力和力矩,动作空间为:a=[Tx,Ty,Tr]将选择的动
作交由推力分配系统生成实际的推力分配和推进器转速控制方案,通过调节机器人纵向和
横向的速度和艏向角使机器人向目标点靠拢,
标艏向: 因此艏向误差可表示为:
能输出最佳动作,进而完成机器人点镇定的控制问题,
奖励值r,将
小批量采样,使用策略网络进行决策,并用目标评价计算采样动作的目标Q值,通过现实评
价估计Q值与目标Q值的均方误差调整评价网络参数更新,同时使用目标Q函数计算更新策
略网络,采用软更新的方式,异步的调整目标神经网络的参数,使目标神经网络向接近现实
神经网络的方向缓慢更新,在训练过程中使用策略网络以状态信息s为输入,输出3个自由
度上的力和力矩a,并加入高斯噪声以实现对环境的探索,将策略网络选择的动作a发送给
推力分配模块,进而驱动ROV推进器运转,实现动作控制。
模型与其受力的真实情况有所差异,所以在训练时使用的仿真环境与实际环境有所差异,
并且在运动过程中存在水流、波浪及其他未知干扰因素等不确定因素,并且推进器的推力
曲线会出现测不准或由于供电电压变化使推力与预期不符,使控制器的控制效果不如预
期,因此需要根据控制效果反馈调整控制律以增强控制系统的抗扰性能。通常抗扰控制器
以状态观测器为基础,依据观测器估计的状态和测量状态误差为输入量调整控制器,水下
机器人在控制力的作用下由状态st转移至st+1,而由于外部扰动和系统不确定性的存在使
状态转移至s't+1,将干扰后的状态量与估计状态量的误差作为输入,加入控制力作为线性
补偿以改善控制器的抗扰性能,
集运动状态数据作为数据集训练SVR收敛,并以此来估计理想状态下被控状态,则状态误差
为测量的状态与估计状态的差值:
取g(·)为fal函数[110],
小稳态误差,通常取α在0~1之间,反映了系统的阶次,在|es|>δ的区间中,当误差增幅大
时,减小系统增益防止发散,δ通常取值较小但其值过小会导致线性段缩短,使系统出现高
频抖震,取值过大会导致线性段延长,使非线性段克服系统稳态误差的特性降低。
器,强化学习算法可以在状态误差作用下调整输出以弥补系统扰动。
统误差进行补偿,则扰动情况下串联控制器的输出为:
示范的数据中调节控制策略,因此加入的非线性误差反馈控制器将作为监督信号引导DDPG
控制器的控制律调整。
方式使控制策略向有反馈补偿的示范控制器转移。
运动系统是多自由度耦合的。而基于状态估计误差的补偿控制器是解耦设计的,其在抗扰
能力上有所缺陷,由于其水动力特性比较复杂,模型参数也难以确定。而强化学习为多输入
多输出(MIMO)控制器,并且其采用无模型方法,控制量由输入状态经过高度非线性的耦合
神经网络输出,强化学习方法能作为隐含量处耦合状态,使用强化学习控制器能更好的弥
补扰动条件下系统误差。
整Critic网络。随着训练的进行降低反馈控制器所占比重,最终调整神经网络参数以适应
有环境变量的控制环境。
结合监督控制,强化学习控制器的输出动作aθ、监督控制器的输出动作aE以及外部噪声δ,
即:
馈DDPG控制器。