基于视场感知的共识自主性追捕与逃逸方法和装置转让专利

申请号 : CN202110854660.6

文献号 : CN113298847B

文献日 :

基本信息:

PDF:

法律信息:

相似专利:

发明人 : 肖延东齐景涛白亮

申请人 : 中国人民解放军国防科技大学

摘要 :

本申请涉及一种基于视场感知的共识自主性追捕与逃逸方法和装置。所述方法包括:获取种群中当前个体视域范围内其他个体的视觉图像信息,设置个体坐标系中距离感知区域,并确定该区域中其他个体相对于当前个体的相对角度区间;根据视觉图像信息和相对角度区间,确定当前个体的自推进校准项、排斥项以及逃逸项或追逐项,并构建运动决策方程;采用视觉感知函数降维方式,进行参数优化,并根据优化后的方程对当前个体运动状态进行更新。该方法根据视觉图像信息进行建模,开拓了视觉集群算法在实际无人集群中的应用;采用视觉感知函数降维方式进行参数优化,解决了捕食者群体的动态分布式优化问题,可实现捕食者对猎物的共识自主性围捕。

权利要求 :

1.一种基于视场感知的共识自主性追捕与逃逸方法,其特征在于,所述方法包括:获取种群中当前个体视域范围内其他个体的视觉图像信息;所述种群包括:追逐个体与逃逸个体;所述视觉图像信息为个体参考坐标系下的信息;所述个体参考坐标系是以当前个体的绝对速度为X轴,根据右手法则构建的;

以当前个体为中心,根据所述视觉图像信息设置个体坐标系中距离感知区域;所述距离感知区域为预设半径的圆形区域;

根据所述视觉图像信息,确定所述距离感知区域中其他个体相对于当前个体水平方向视野遮挡的相对角度区间;

根据所述视觉图像信息和所述相对角度区间,确定当前个体的自推进和校准项、排斥项以及逃逸项或追逐项;其中,当前个体为追逐个体时为追逐项,当前个体为逃逸个体时为逃逸项;

根据所述自推进和校准项、所述排斥项以及所述逃逸项或追逐项,确定当前个体的运动决策方程;所述运动决策方程包括:运动校准系数、排斥系数以及逃逸或追逐系数;

对预设追逐事件遍历三个参数组合进行多次随机仿真,记录下捕获时间最短的参数组合以及每个捕食者的视觉感知函数,并对视觉感知函数进行PCA降维,从而得到多个降维后的视觉感知函数以及对应的所需捕获时间最短参数,将此作为经验知识,在多个捕食者追捕多个猎物的情况下对捕食者的所述运动校准系数、排斥系数以及追逐系数进行优化,当追逐个体判断选择最优三个参数的情况时,逃逸个体固定三个参数,得到优化运动决策方程;所述预设追逐事件中包括3个追逐个体和1个逃逸个体;

根据所述优化运动决策方程,对当前个体的运动状态进行更新,得到当前个体下一时刻的位置信息和速度信息;

其中:对预设追逐事件遍历三个参数组合进行多次随机仿真,记录下捕获时间最短的参数组合以及每个捕食者的视觉感知函数,并对视觉感知函数进行PCA降维,从而得到多个降维后的视觉感知函数以及对应的所需捕获时间最短参数,将此作为经验知识,在多个捕食者追捕多个猎物的情况下对捕食者的所述运动校准系数、排斥系数以及追逐系数进行优化,当追逐个体判断选择最优三个参数的情况时,逃逸个体固定三个参数,得到优化运动决策方程,步骤包括:

将3个追逐个体和1个逃逸个体随机放置于周期性场景之中,建立参数训练集,并设定仿真时间上限,遍历满足方程 的所有三个参数组合,并记录时间上限内完成捕获所需时间最小的三个参数组合,重复该过程 次,从而得到 种3个追逐个体和1个逃逸个体的位置分布情况及其相对应的最优三个参数组合,并将 种最优三个参数组合作为经验知识;

根据经验知识,将相应方向只存在捕食者记为1、只存在猎物记为2、同时存在捕食者和猎物记为3、其余记为0,计算 种3个追逐个体和1个逃逸个体的位置分布情况下各捕食者的视觉感知信息,得到 个视觉感知函数;

根据所述视觉感知函数,计算每两个视觉感知函数之间的距离,得到 维对称距离矩阵;

根据 维对称距离矩阵,采用PCA方式将视觉感知函数降维到2维空间,得到参数训练集的降维空间;

在任意一个预设追逐事件中,将每个个体的视觉感知信息投影到参数训练集的降维空间中,在 个视觉感知函数中查找最近的视觉感知信息,并将所述最近的视觉感知信息的参数作为最优的所述运动校准系数、排斥系数以及追逐系数;

根据当前个体的运动决策方程和最优的所述运动校准系数、排斥系数以及追逐系数,得到优化运动决策方程;

所述方法还包括:

当多个追逐个体追捕多个逃逸个体的追捕场景时,将所述追捕场景转变为多个预设追逐事件,在追捕过程中每个捕食者选取2个最近的捕食者和1个最近的猎物计算其视觉感知函数,得到每个捕食者角度下的预设追逐事件;

采用上述参数优化步骤,给每个捕食者选取最优的三个参数,以实现捕食者的共识自主性围捕。

2.根据权利要求1所述的方法,其特征在于,根据所述视觉图像信息,确定所述距离感知区域中其他个体相对于当前个体水平方向视野遮挡的相对角度区间,包括:采用目标检测工具对当前个体的所述视觉图像信息进行分析处理,得到所述距离感知区域中其他个体对当前个体水平方向视野遮挡的相对区间。

3.根据权利要求1所述的方法,其特征在于,根据所述视觉图像信息和所述相对角度区间,确定当前个体的自推进和校准项、排斥项以及逃逸项或追逐项,包括:获取激光雷达测量的360°周边距离,并根据所述距离和所述相对角度区间,得到其他个体在当前个体视域中的视觉向量;

根据所述视觉向量,得到在当前个体的个体坐标系中同类其他个体的位置;

根据所述其他同类个体的位置和当前个体的速度信息,得到在当前个体的个体坐标系中同类其他个体的速度;

根据所述其他同类个体的速度,确定当前个体的自推进和校准项;所述自推进和校准项的表达式为:

其中, 表示自推进和校准项,表示所述距离感知区域中的其他同类个体,表示其他同类个体的速度, 和 分别表示在个体 根据速度 和速度构建的个体参考坐标系中个体 的位置, 表示由 构建的参考坐标系转化为由 构建的参考坐标系的转换矩阵;

根据所述相对角度区间和所述视觉图像信息,确定其他个体在当前个体视野范围内的视野遮挡情况,并根据视野遮挡为1否则为0,得到当前个体的同类个体间排斥交互感知函数和不同类个体间追捕或逃逸交互感知函数;

根据同类个体间排斥交互感知函数,确定当前个体的排斥项,所述排斥项的表达式为:其中, 表示排斥项, 表示同类个体间的相对角度区间左边界值, 表示同类个体间的相对角度区间右边界值, 表示同类个体间的相对角度区间的数目,表示同类个体间排斥交互感知函数, 表示当前个体的视觉角度,其取值范围为 ;

根据不同类个体间追捕或逃逸交互感知函数,确定当前个体的逃逸项或追逐项,所述当前个体的逃逸项或追逐项的表达式为:其中, 表示追逐项或逃逸项, 表示不同类个体间的相对角度区间的数目,表示不同类个体间相对角度区间左边界值, 表示不同类个体间相对角度区间右边界值, 表示不同类个体间追捕或逃逸交互感知函数, 表示当前个体的视觉角度,其取值范围为 。

4.根据权利要求1所述的方法,其特征在于,根据所述自推进和校准项、所述排斥项以及所述逃逸项或追逐项,确定当前个体的运动决策方程,包括:根据所述自推进和校准项、所述排斥项以及所述逃逸项或追逐项,得到自推进和校准项单位向量,排斥项单位向量以及逃逸项或追逐项单位向量;

在个体坐标系中,将自推进和校准项单位向量、排斥项单位向量以及逃逸项或追逐项单位向量分别乘以运动校准系数、排斥系数以及追逐或逃逸系数之后求和,得到个体坐标系中当前个体的速度方程;

将个体坐标系中当前个体的速度方程进行坐标转换,得到当前个体的运动决策方程;

所述当前个体的运动决策方程表达式为:其中, 为当前个体的绝对速度, 表示由 构建的参考坐标系转化为绝对坐标系的转换矩阵, 表示个体 的自推进和校准项单位向量, 表示个体 的排斥项单位向量, 表示个体 的逃逸项或追逐项单位向量, 表示运动校准系数、 表示排斥系数, 表示追逐或逃逸系数, 表示不同类个体间追捕或逃逸交互感知函数, 表示同类个体间排斥交互感知函数。

5.一种基于视场感知的共识自主性追捕与逃逸装置,其特征在于,所述装置包括:视觉图像信息获取模块,用于获取种群中当前个体视域范围内其他个体的视觉图像信息;所述种群包括:追逐个体与逃逸个体;所述视觉图像信息为个体参考坐标系下的信息;

所述个体参考坐标系是以当前个体的绝对速度为X轴,根据右手法则构建的;

视觉图像信息处理模块,用于以当前个体为中心,根据所述视觉图像信息设置个体坐标系中距离感知区域;所述距离感知区域为预设半径的圆形区域; 根据所述视觉图像信息,确定所述距离感知区域中其他个体相对于当前个体水平方向视野遮挡的相对角度区间;

运动决策方程构建模块,用于根据所述视觉图像信息、所述距离感知区域以及所述相对角度区间,确定当前个体的自推进和校准项、排斥项以及逃逸项或追逐项;其中,当前个体为追逐个体时为追逐项,当前个体为逃逸个体时为逃逸项;根据所述自推进和校准项、排斥项以及逃逸项或追逐项,确定当前个体的运动决策方程;所述运动决策方程包括:运动校准系数、排斥系数以及逃逸或追逐系数;

运动决策方程参数优化模块,用于对预设追逐事件遍历三个参数组合进行多次随机仿真,记录下捕获时间最短的参数组合以及每个捕食者的视觉感知函数,并对视觉感知函数进行PCA降维,从而得到多个降维后的视觉感知函数以及对应的所需捕获时间最短参数,将此作为经验知识,在多个捕食者追捕多个猎物的情况下对捕食者的运动校准系数、排斥系数以及追逐系数进行优化,当追逐个体判断选择最优三个参数的情况时,逃逸个体固定三个参数,得到优化运动决策方程;所述预设追逐事件中包括3个追逐个体和1个逃逸个体;

驱动模块,用于根据所述优化运动决策方程,对当前个体的运动状态进行更新,得到当前个体下一时刻的位置信息和速度信息;

其中:运动决策方程参数优化模块,还用于将3个追逐个体和1个逃逸个体随机放置于周期性场景之中,建立参数训练集,并设定仿真时间上限,遍历满足方程的所有三个参数组合,并记录时间上限内完成捕获所需时间最小的三个参数组合,重复该过程 次,从而得到 种3个追逐个体和1个逃逸个体的位置分布情况及其相对应的最优三个参数组合,并将 种最优三个参数组合作为经验知识;根据经验知识,将相应方向只存在捕食者记为1、只存在猎物记为2、同时存在捕食者和猎物记为3、其余记为0,计算 种3个追逐个体和1个逃逸个体的位置分布情况下各捕食者的视觉感知信息,得到 个视觉感知函数;根据所述视觉感知函数,计算每两个视觉感知函数之间的距离,得到 维对称距离矩阵;根据 维对称距离矩阵,采用PCA方式将视觉感知函数降维到2维空间,得到参数训练集的降维空间;在任意一个预设追逐事件中,将每个个体的视觉感知信息投影到参数训练集的降维空间中,在 个视觉感知函数中查找最近的视觉感知信息,并将所述最近的视觉感知信息的参数作为最优的所述运动校准系数、排斥系数以及追逐系数;

根据当前个体的运动决策方程和最优的所述运动校准系数、排斥系数以及追逐系数,得到优化运动决策方程;

所述装置还包括:共识自主性围捕模块,用于当多个追逐个体追捕多个逃逸个体的追捕场景时,将所述追捕场景转变为多个预设追逐事件,在追捕过程中每个捕食者选取2个最近的捕食者和1个最近的猎物计算其视觉感知函数,得到每个捕食者角度下的预设追逐事件;采用上述参数优化步骤,给每个捕食者选取最优的三个参数,以实现捕食者的共识自主性围捕。

说明书 :

基于视场感知的共识自主性追捕与逃逸方法和装置

技术领域

[0001] 本申请涉及图像视觉技术领域,特别是涉及一种基于视场感知的共识自主性追捕与逃逸方法和装置。

背景技术

[0002] 真实的生物群体围捕过程需要多个捕食者根据围捕目标运动状态自发地进行逼近、补位、压缩逃逸空间等相互配合,这在生物群体行为学中称为共识自主性。群体追捕行
为以具有凝聚力和高度连贯的群体被观察到,该领域的研究目的是从个体和群体层面上解
释与上述模式相似的复杂行为,进一步将生物群体所展现的这些智能特性赋予人工集群系
统。因此,作为交叉学科,群体行为建模和机制探索是一个充满挑战的重点领域。
[0003] 计算机视觉就是用计算机模拟人眼的视觉功能,对“目标图像”进行数字化,从图像或图像序列中提取信息,对客观世界的三维景物和物体进行形态和运动识别,并通过计
算机处理进行判断,最终用于实际检测、测量和控制。
[0004] 传统的建模方法是从现象学角度出发构建的,在模型中个体根据获取到的邻居的位置和速度信息基于三个简单的行为规则进行交互,这种方法仅关注到了实际生物群体的
决策和驱动机制,从而导致拓展大群体机器人技术的协调控制时效果不佳。

发明内容

[0005] 基于此,有必要针对上述技术问题,提供一种基于视场感知的共识自主性追捕与逃逸方法和装置。
[0006] 一种基于视场感知的共识自主性追捕与逃逸方法,所述方法包括:
[0007] 获取种群中当前个体视域范围内其他个体的视觉图像信息;所述种群包括:追逐个体与逃逸个体;所述视觉图像信息为个体参考坐标系下的信息;所述个体参考坐标系是
以当前个体的绝对速度为X轴,根据右手法则构建的。
[0008] 以当前个体为中心,根据所述视觉图像信息设置个体坐标系中距离感知区域;所述距离感知区域为预设半径的圆形区域。
[0009] 根据所述视觉图像信息,确定所述距离感知区域中其他个体相对于当前个体水平方向视野遮挡的相对角度区间。
[0010] 根据所述视觉图像信息和所述相对角度区间,确定当前个体的自推进和校准项、排斥项以及逃逸项或追逐项;其中,当前个体为追逐个体时为追逐项,当前个体为逃逸个体
时为逃逸项。
[0011] 根据所述自推进和校准项、所述排斥项以及所述逃逸项或追逐项,确定当前个体的运动决策方程;所述运动决策方程包括:运动校准系数、排斥系数以及逃逸或追逐系数。
[0012] 对预设追逐事件遍历三个参数组合进行多次随机仿真,记录下捕获时间最短的参数组合以及每个捕食者的视觉感知函数,并对视觉感知函数进行PCA降维,从而得到多个降
维后的视觉感知函数以及对应的所需捕获时间最短参数,将此作为经验知识,在多个捕食
者追捕多个猎物的情况下对捕食者的所述运动校准系数、排斥系数以及追逐系数进行优
化,当追逐个体判断选择最优三个参数的情况时,逃逸个体固定三个参数,得到优化运动决
策方程;所述预设追逐事件中包括3个追逐个体和1个逃逸个体。
[0013] 根据所述优化运动决策方程,对当前个体的运动状态进行更新,得到当前个体下一时刻的位置信息和速度信息。
[0014] 一种基于视场感知的共识自主性追捕与逃逸装置,所述装置包括:
[0015] 视觉图像信息获取模块,用于获取种群中当前个体视域范围内其他个体的视觉图像信息;所述种群包括:追逐个体与逃逸个体;所述视觉图像信息为个体参考坐标系下的信
息;所述个体参考坐标系是以当前个体的绝对速度为X轴,根据右手法则构建的。
[0016] 视觉图像信息处理模块,用于以当前个体为中心,根据所述视觉图像信息设置个体坐标系中距离感知区域;所述距离感知区域为预设半径的圆形区域; 根据所述视觉图像
信息,确定所述距离感知区域中其他个体相对于当前个体水平方向视野遮挡的相对角度区
间。
[0017] 运动决策方程构建模块,用于根据所述视觉图像信息和所述相对角度区间,确定当前个体的自推进和校准项、排斥项以及逃逸项或追逐项;其中,当前个体为追逐个体时为
追逐项,当前个体为逃逸个体时为逃逸项;根据所述自推进和校准项、所述排斥项以及所述
逃逸项或追逐项,确定当前个体的运动决策方程;所述运动决策方程包括:运动校准系数、
排斥系数以及逃逸或追逐系数。
[0018] 运动决策方程参数优化模块,用于对预设追逐事件遍历三个参数组合进行多次随机仿真,记录下捕获时间最短的参数组合以及每个捕食者的视觉感知函数,并对视觉感知
函数进行PCA降维,从而得到多个降维后的视觉感知函数以及对应的所需捕获时间最短参
数,将此作为经验知识,在多个捕食者追捕多个猎物的情况下对捕食者的所述运动校准系
数、排斥系数以及追逐系数进行优化,当追逐个体判断选择最优三个参数的情况时,逃逸个
体固定三个参数,得到优化运动决策方程;所述预设追逐事件中包括3个追逐个体和1个逃
逸个体。
[0019] 驱动模块,用于根据所述优化运动决策方程,对当前个体的运动状态进行更新,得到当前个体下一时刻的位置信息和速度信息。
[0020] 上述基于视场感知的共识自主性追捕与逃逸方法和装置,该方法通过获取种群中当前个体视域范围内其他个体的视觉图像信息,以当前个体为中心,根据视觉图像信息设
置个体坐标系中距离感知区域;距离感知区域为预设半径的圆形区域;根据视觉图像信息,
确定距离感知区域中其他个体相对于当前个体水平方向视野遮挡的相对角度区间;根据视
觉图像信息和相对角度区间,确定当前个体的自推进和校准项、排斥项以及逃逸项或追逐
项;根据自推进和校准项、排斥项以及逃逸项或追逐项,确定当前个体的运动决策方程;对
预设追逐事件遍历三个参数组合进行多次随机仿真,记录下捕获时间最短的参数组合以及
每个捕食者的视觉感知函数,并对视觉感知函数进行PCA降维,从而得到多个降维后的视觉
感知函数以及对应的所需捕获时间最短参数,将此作为经验知识,在多个捕食者追捕多个
猎物的情况下对捕食者的所述运动校准系数、排斥系数以及追逐系数进行优化,当追逐个
体判断选择最优三个参数的情况时,逃逸个体固定三个参数,得到优化运动决策方程;所述
预设追逐事件中包括3个追逐个体和1个逃逸个体;根据优化运动决策方程,对当前个体的
运动状态进行更新,得到当前个体下一时刻的位置信息和速度信息。该方法以视觉图像信
息作为输入,根据视觉图像信息进行建模,开拓了视觉集群算法在实际无人集群中的应用;
采用视觉感知函数降维方式进行参数优化,解决了捕食者群体的动态分布式优化问题,可
实现捕食者对猎物的共识自主性围捕;本方法中个体间无需信息交互,仅根据各自所获取
的视觉图像信息进行判断决策,更高效的完成对猎物的捕获。

附图说明

[0021] 图1为一个实施例中基于视场感知的共识自主性追捕与逃逸方法的流程示意图;
[0022] 图2为一个实施例中个体 参考坐标系;
[0023] 图3为一个实施例中追逐者 通过摄像头获取视域内画面;
[0024] 图4为另一个实施例中3个追逐个体和1个逃逸个体的位置分布情况;
[0025] 图5‑图7为另一个实施例中3个追逐个体和1个逃逸个体的位置分布情况下各捕食者的视觉感知信息;
[0026] 图8为一个实施例中基于视场感知的共识自主性追捕与逃逸方法装置的结构框图。

具体实施方式

[0027] 为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不
用于限定本申请。
[0028] 在一个实施例中,如图1所示,提供了一种基于视场感知的共识自主性追捕与逃逸方法,该方法包括以下步骤:
[0029] 步骤100:获取种群中当前个体视域范围内其他个体的视觉图像信息。
[0030] 种群包括:追逐个体与逃逸个体;视觉图像信息为个体参考坐标系下的信息。
[0031] 个体参考坐标系是以当前个体的绝对速度为X轴,根据右手法则构建的。
[0032] 种群可以是多个任务机器人组成的种群,也可以是多个无人机组成的种群,在此不做具体限制,以四足机器人种群为例,四足机器人包括捕食机器人和逃逸机器人,多个捕
食机器人对逃逸机器人进行捕获,在行进过程中也需要确保个体之间不发生碰撞。四足机
器人上可以设置摄像头,用来获取视域范围内其他个体的视觉图像信息,摄像头可以在各
个自由度上旋转,从而可以获取到视域范围内其他个体的视觉图像信息,另外,摄像头可以
是多个,分别负责确定视域范围内其他个体的视觉图像信息,从而通过拼接得到360度的视
觉图像信息,因此,存在多种获取视觉图像信息的方式,本实施例对视觉图像信息获取的步
骤不做具体限制。
[0033] 具体在得到视觉图像之后,对视觉图像信息进行处理,确定出视觉图像中的障碍物以及其他个体的位置信息和速度信息,并进行标记,得到视觉图像信息。
[0034] 步骤102:以当前个体为中心,根据视觉图像信息设置个体坐标系中距离感知区域。
[0035] 距离感知区域为预设半径的圆形区域。
[0036] 步骤104:根据视觉图像信息,确定距离感知区域中其他个体相对于当前个体水平方向视野遮挡的相对角度区间。
[0037] 步骤106:根据视觉图像信息和相对角度区间,确定当前个体的自推进和校准项、排斥项以及逃逸项或追逐项;其中,当前个体为追逐个体时为追逐项,当前个体为逃逸个体
时为逃逸项。
[0038] 步骤108:根据自推进和校准项、排斥项以及逃逸项或追逐项,确定当前个体的运动决策方程;运动决策方程包括:运动校准系数、排斥系数以及逃逸或追逐系数。
[0039] 步骤110:对预设追逐事件遍历三个参数组合进行多次随机仿真,记录下捕获时间最短的参数组合以及每个捕食者的视觉感知函数,并对视觉感知函数进行PCA降维,从而得
到多个降维后的视觉感知函数以及对应的所需捕获时间最短参数,将此作为经验知识,在
多个捕食者追捕多个猎物的情况下对捕食者的运动校准系数、排斥系数以及追逐系数进行
优化,当追逐个体判断选择最优三个参数的情况时,逃逸个体固定三个参数,得到优化运动
决策方程。
[0040] 预设追逐事件中包括3个追逐个体和1个逃逸个体。
[0041] 三个参数组合是指:运动校准系数、排斥系数以及追逐系数三个参数的组合。
[0042] 步骤112:根据优化运动决策方程,对当前个体的运动状态进行更新,得到当前个体下一时刻的位置信息和速度信息。
[0043] 上述基于视场感知的共识自主性追捕与逃逸方法中,该方法通过获取种群中当前个体视域范围内其他个体的视觉图像信息,以当前个体为中心,根据视觉图像信息设置个
体坐标系中距离感知区域;距离感知区域为预设半径的圆形区域;根据视觉图像信息,确定
距离感知区域中其他个体相对于当前个体水平方向视野遮挡的相对角度区间;根据视觉图
像信息和相对角度区间,确定当前个体的自推进和校准项、排斥项以及逃逸项或追逐项;根
据自推进和校准项、排斥项以及逃逸项或追逐项,确定当前个体的运动决策方程;对预设追
逐事件遍历三个参数组合进行多次随机仿真,记录下捕获时间最短的参数组合以及每个捕
食者的视觉感知函数,并对视觉感知函数进行PCA降维,从而得到多个降维后的视觉感知函
数以及对应的所需捕获时间最短参数,将此作为经验知识,在多个捕食者追捕多个猎物的
情况下对捕食者的运动校准系数、排斥系数以及追逐系数进行优化,当追逐个体判断选择
最优三个参数的情况时,逃逸个体固定三个参数,得到优化运动决策方程;预设追逐事件中
包括3个追逐个体和1个逃逸个体;根据优化运动决策方程,对当前个体的运动状态进行更
新,得到当前个体下一时刻的位置信息和速度信息。该方法以视觉图像信息作为输入,根据
视觉图像信息进行建模,开拓了视觉集群算法在实际无人集群中的应用;采用视觉感知函
数降维方式进行参数优化,解决了捕食者群体的动态分布式优化问题,可实现捕食者对猎
物的共识自主性围捕;本方法中个体间无需信息交互,仅根据各自所获取的视觉图像信息
进行判断决策,更高效的完成对猎物的捕获。该方法可以应用于卫星拒止环境。
[0044] 在其中一个实施例中,步骤104还包括:采用目标检测工具对当前个体的视觉图像信息进行分析处理,得到距离感知区域中其他个体对当前个体水平方向视野遮挡的相对区
间。
[0045] 具体的,考虑由捕食者(或追逐者C)和猎物(或目标T)两类生物构成的异构系统。假设每个个体为半径 的圆形个体,并用二维位置 和速度 向量来描述。过程中,捕食者
数量 恒定,而目标数量 会因捕获事件的发生而减少。过程开始时,将
个体放置于具有边界条件且边长为 的正方形场景中,该边长由密度
决定,即 ,其中 是初始目标数量。
[0046] 在四足机器人集群实现过程中,个体以摄像头获取视域内其他个体的视觉图像信息,该视觉图像信息均为个体参考坐标系下的信息,如图2所示,个体参考坐标系所示,以其
速度方向 为x轴正方向,逆时针方向为角度增加方向。图3所示为个体  的摄像头截取到的
实时视域信息,此时有2个四足机器人在视域内,四足机器人侧面不同的形状标记用来区分
个体,图3中有五角形标记的四足机器人是猎物,代表是个体 ;图3中有椭圆形标记的四足
机器人是捕食者,代表个体。
[0047] 图3中实线方框和虚线方框是使用开源目标检测工具YOLO对捕食者的视觉信息进行识别得到,基于该方法可以获取到其他个体 对个体 水平方向视野遮挡的相对区间
,根据视野遮挡为1否则为0,假设个体为捕食者,我们可以获取同类个体间排
斥交互感知函数和不同类个体间追捕或逃逸交互感知函数。此外结合激光雷达获取到的距
离信息,对其 内的值进行平均可以得到个体 与个体 的距离 ,进而得到个
体 在个体 视域中的视觉向量 ,其中 ,
,且逆时针方向为 增加方向。基于该视觉向量可以推算出在图2中个体 在当前个体的
个体参考坐标系中的位置是: 。
[0048] 需要注意的是,文中提及的 均表示在绝对坐标系中的绝对向量,而其他向量均定义在如图2所示的参考坐标系之中。
[0049] 在其中一个实施例中,步骤106还包括:获取激光雷达测量的360°周边距离,并根据其他个体距离和其他个体相对角度区间,得到其他个体在当前个体视域中的视觉向量;
根据其他个体视觉向量,得到在当前个体的个体坐标系中同类其他个体的位置;根据其他
个体其他同类个体的位置和当前个体的速度信息,得到在当前个体的个体坐标系中同类其
他个体的速度;根据其他个体其他同类个体的速度,确定当前个体的自推进和校准项;自推
进和校准项的表达式为:
[0050] (1)
[0051] 其中, 表示自推进和校准项,表示其他个体距离感知区域中的其他同类个体, 表示其他同类个体的速度, 和 分别表示在个体 根据速度
和速度 构建的个体参考坐标系中个体j的位置, 表示由
构建的参考坐标系转化为由 构建的参考坐标系的转换矩阵。
[0052] 根据所述相对角度区间和所述视觉图像信息,确定其他个体在当前个体视野范围内的视野遮挡情况,并根据视野遮挡为1否则为0,得到当前个体的同类个体间排斥交互感
知函数和不同类个体间追捕或逃逸交互感知函数。
[0053] 根据同类个体间排斥交互感知函数,确定当前个体的排斥项,排斥项的表达式为:
[0054] (2)
[0055] 其中, 表示排斥项, 表示同类个体间的相对角度区间左边界值,表示同类个体间的相对角度区间右边界值, 表示同类个体间的相对角度区间
的数目,  表示同类个体间排斥交互感知函数, 表示当前个体的视觉
角度,其取值范围为 。
[0056] 根据不同类个体间追捕或逃逸交互感知函数,确定当前个体的逃逸项或追逐项,逃逸项或追逐项的表达式为:
[0057] (3)
[0058] 其中, 表示追逐项或逃逸项, 表示不同类个体间的其他个体相对角度区间的数目, 表示不同类个体间其他个体相对角度区间左边界值, 表示不同
类个体间其他个体相对角度区间右边界值, 表示不同类个体间追捕或逃逸
交互感知函数, 表示当前个体的视觉角度,其取值范围为 。
[0059] 具体的,自推进和校准项、排斥项以及逃逸项或追逐项的具体计算,如下:
[0060] (1)自推进和校准项
[0061] 自推进和校准项以感知过程中获取的同类个体的位置 为输入,考虑了个体的惯性以及同类个体间的交互实现生物群体的一致性特点,其定义如式(1)所示。
[0062] 计算 时,需要将 由根据速度 构建的个体参考坐标系转化到根据速度 构建的个体参考坐标系中。因此, 的计算步骤如下:
[0063] 1)确定 算子
[0064] 表示由 构建的参考坐标系转化为由 构建的参考坐标系的转换矩阵。记 , ,则
[0065] (4)
[0066] 其中,
[0067]              (5)
[0068] 2)根据式(1)计算,得到 。
[0069] (2)排斥项
[0070] 排斥项以感知过程中获取的排斥交互感知函数 作为输入考虑了同类个体间交互以避免局部邻居间拥挤,其定义如式(2)所示。
[0071] (3)逃逸(或追逐)项
[0072] 逃逸(或追逐)项以感知过程中获取的不同类个体间追捕或逃逸交互感知函数作为输入考虑了不同类个体间交互,其定义如式(3)所示。
[0073] 在其中一个实施例中,步骤108还包括:根据所述自推进和校准项、所述排斥项以及所述逃逸项或追逐项,得到自推进和校准项单位向量,排斥项单位向量以及逃逸项或追
逐项单位向量;在个体坐标系中,将自推进和校准项单位向量、排斥项单位向量以及逃逸项
或追逐项单位向量分别乘以运动校准系数、排斥系数以及追逐或逃逸系数之后求和,得到
个体坐标系中当前个体的速度方程。
[0074] 将个体坐标系中当前个体的速度方程进行坐标转换,得到当前个体的运动决策方程;所述当前个体的运动决策方程表达式为:
[0075] (6)
[0076] 其中, 表示在绝对坐标系中个体 的绝对速度, 表示由构建的参考坐标系转化为绝对坐标系的转换矩阵, 表示个体的自推进和校
准项单位向量, 表示个体的排斥项单位向量, 表示个体的逃逸项或追逐项单位向
量, 表示运动校准系数、 表示排斥系数, 表示追逐或逃逸系数, 表示不同类
个体间追捕或逃逸交互感知函数, 表示同类个体间排斥交互感知函数。
[0077] 值得注意的是:文中 和 均表示不同类个体间追捕或逃逸交互感知函数; 和 均表示同类个体间排斥交互感知函数。
[0078] 具体的,表达式(6)中最后两项以遮挡视野区域中心单位向量的投影(和 )来表征方向于速度的影响。个体间距离越近,视野遮挡区域
角度越大,视野遮挡区域角度反映了个体间的距离。因此,我们对遮挡区域角度进行加权平
均以表征距离的影响。
[0079] 在得到三种交互项过后,根据表达式(6),通过 将自推进和校准项单位向量,排斥项单位向量( ),逃逸(或追逐)项单位向量( )三项乘以各自权重之和从
由 构建的个体参考坐标系转化到绝对坐标系中,从而得到个体的绝对速度方向
,其转化公式为:
[0080] (7)
[0081] 在其中一个实施例中,步骤110还包括:将3个追逐个体和1个逃逸个体随机放置于周期性场景之中,建立参数训练集,并设定仿真时间上限,遍历满足方程
的所有三个参数组合,并记录时间上限内完成捕获所需时间最小的三
个参数组合,重复该过程 次,从而得到 种3个追逐个体和1个逃逸个体的位置分布情况
及其相对应的最优三个参数组合,并将 种最优三个参数组合作为经验知识;根据经验知
识,将相应方向只存在捕食者记为1、只存在猎物记为2、同时存在捕食者和猎物记为3、其余
记为0,计算 种3个追逐个体和1个逃逸个体的位置分布情况下各捕食者的视觉感知信息,
得到 个视觉感知函数;根据视觉感知函数,计算每两个视觉感知函数之间的距离,得到
维对称距离矩阵;根据 维对称距离矩阵,采用PCA方式将视觉感知函
数降维到2维空间,得到参数训练集的降维空间;在任意一个预设追逐事件中,将每个个体
的视觉感知信息投影到参数训练集的降维空间中,在 个视觉感知函数中查找最近的视
觉感知信息,并将所述最近的视觉感知信息的参数作为最优的运动校准系数、排斥系数以
及追逐系数;根据当前个体的运动决策方程和最优的运动校准系数、排斥系数以及追逐系
数,得到优化运动决策方程。
[0082] 具体的,如图4所示为3个追逐个体和1个逃逸个体的位置分布情况,图中的标记:④表示猎物,③、②以及①表示捕食者;图4所示的3个追逐个体和1个逃逸个体的位置分布
情况下各捕食者的视觉感知信息 如图5‑图7所示。
[0083] 计算每两个视觉感知函数之间的距离的方法可以采用欧氏距离计算方法、汉明距离计算方法或相关距离计算方法。以欧式距离为例,其中对应位置:
[0084]    (8)
[0085] 其中, 为 维对称距离矩阵中第 行第 列的元素,具体含义是 个视觉感知函数中第 个与第 个之间的欧式距离; 表示  个视觉感知函数中的第个,
表示  个视觉感知函数中的第 个。
[0086] 具体的,假设个体的速度大小不变并着重考虑速度方向的变化。捕食者和猎物速度分别为 和 。基于以上描述,个体速度和位置基于以下驱动方程更新,
[0087]  (9)
[0088] 在其中一个实施例中,方法还包括步骤:当多个追逐个体追捕多个逃逸个体的追捕场景时,将追捕场景转变为多个预设追逐事件,在追捕过程中每个捕食者选取2个最近的
捕食者和1个最近的猎物计算其视觉感知函数,得到每个捕食者角度下的预设追逐事件;采
用上述参数优化步骤,给每个捕食者选取最优的三个参数,以实现捕食者的共识自主性围
捕。
[0089] 本方法以计算机视觉中的目标检测算法为切入点,实现了根据实际无人集群过程中的视觉图像信息推算得到集群算法所需输入信息,解决了集群算法大多只停留在仿真阶
段的问题,尤其是以视觉图像信息为基础的算法更加难以向无人集群应用迁移。此外,仅从
捕食者的局部视觉感知信息出发,根据预先训练并通过PCA降维好的经验知识,解决了捕食
者群体的动态分布式优化问题,实现了捕食者群体对猎物的共识自主性围捕。
[0090] 本方法考虑了实际无人集群应用过程中的视觉信息获取及处理以便作为集群算法的输入,开拓了视觉集群算法在实际无人集群中的应用。且本方法中,个体间无需信息交
互仅凭各自所获取的视觉感知信息进行判断决策,可实现捕食者对猎物的共识自主性围
捕,更高效的完成对猎物的捕获。因其无需信息交互,该方法可以应用于卫星拒止环境。
[0091] 应该理解的是,虽然图1的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的
执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图1中的至少一部分
步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行
完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,
而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
[0092] 在一个实施例中,如图8所示,提供了一种基于视场感知的共识自主性追捕与逃逸装置,包括:视觉图像信息获取模块、视觉图像信息处理模块、运动决策方程构建模块、运动
决策方程参数优化模块以及驱动模块,其中:
[0093] 视觉图像信息获取模块,用于获取种群中当前个体视域范围内其他个体的视觉图像信息;种群包括:追逐个体与逃逸个体;视觉图像信息为个体参考坐标系下的信息;个体
参考坐标系是以当前个体的绝对速度为X轴,根据右手法则构建的。
[0094] 视觉图像信息处理模块,用于以当前个体为中心,根据视觉图像信息设置个体坐标系中距离感知区域;距离感知区域为预设半径的圆形区域; 根据视觉图像信息,确定距
离感知区域中其他个体相对于当前个体水平方向视野遮挡的相对角度区间。
[0095] 运动决策方程构建模块,用于根据视觉图像信息和相对角度区间,确定当前个体的自推进和校准项、排斥项以及逃逸项或追逐项;其中,当前个体为追逐个体时为追逐项,
当前个体为逃逸个体时为逃逸项;根据自推进和校准项、排斥项以及逃逸项或追逐项,确定
当前个体的运动决策方程;运动决策方程包括:运动校准系数、排斥系数以及追逐或逃逸系
数。
[0096] 运动决策方程参数优化模块,用于对预设追逐事件遍历三个参数组合进行多次随机仿真,记录下捕获时间最短的参数组合以及每个捕食者的视觉感知函数,并对视觉感知
函数进行PCA降维,从而得到多个降维后的视觉感知函数以及对应的所需捕获时间最短参
数,将此作为经验知识,在多个捕食者追捕多个猎物的情况下对捕食者的运动校准系数、排
斥系数以及追逐系数进行优化,当追逐个体判断选择最优三个参数的情况时,逃逸个体固
定三个参数,得到优化运动决策方程;预设追逐事件中包括3个追逐个体和1个逃逸个体。
[0097] 驱动模块,用于根据优化运动决策方程,对当前个体的运动状态进行更新,得到当前个体下一时刻的位置信息和速度信息。
[0098] 在其中一个实施例中,视觉图像信息处理模块,还用于采用目标检测工具对当前个体的视觉图像信息进行分析处理,得到距离感知区域中其他个体对当前个体水平方向视
野遮挡的相对区间。
[0099] 在其中一个实施例中,运动决策方程构建模块,还用于获取激光雷达测量的360°周边距离,并根据其他个体距离和其他个体相对角度区间,得到其他个体在当前个体视域
中的视觉向量;根据其他个体视觉向量,得到在当前个体的个体坐标系中同类其他个体的
位置;根据其他个体其他同类个体的位置和当前个体的速度信息,得到在当前个体的个体
坐标系中同类其他个体的速度;根据其他个体其他同类个体的速度,确定当前个体的自推
进和校准项;自推进和校准项的表达式如式(1)所示。
[0100] 根据相对角度区间和视觉图像信息,确定其他个体在当前个体视野范围内的视野遮挡情况,并根据视野遮挡为1否则为0,得到当前个体的同类个体间排斥交互感知函数和
不同类个体间追捕或逃逸交互感知函数。
[0101] 根据同类个体间排斥交互感知函数,确定当前个体的排斥项,排斥项的表达式如式(2)所示。
[0102] 根据不同类个体间追捕或逃逸交互感知函数,确定当前个体的逃逸项或追逐项,逃逸项或追逐项的表达式如式(3)所示。
[0103] 在其中一个实施例中,运动决策方程构建模块,还用于根据自推进和校准项、排斥项以及逃逸项或追逐项,得到自推进和校准项单位向量,排斥项单位向量以及逃逸项或追
逐项单位向量;在个体坐标系中,将自推进和校准项单位向量、排斥项单位向量以及逃逸项
或追逐项单位向量分别乘以运动校准系数、排斥系数以及追逐或逃逸系数之后求和,得到
个体坐标系中当前个体的速度方程;将个体坐标系中当前个体的速度方程进行坐标转换,
得到当前个体的运动决策方程;当前个体的运动决策方程表达式为如式(6)所示。
[0104] 在其中一个实施例中,运动决策方程参数优化模块,还用于将3个追逐个体和1个逃逸个体随机放置于周期性场景之中,建立参数训练集,并设定仿真时间上限,遍历满足方
程 的所有三个参数组合,并记录时间上限内完成捕获所需时间最小的
三个参数组合,重复该过程 次,从而得到 种3个追逐个体和1个逃逸个体的位置分布情况
及其相对应的最优三个参数组合,并将 种最优三个参数组合作为经验知识;根据经验知
识,将相应方向只存在捕食者记为1、只存在猎物记为2、同时存在捕食者和猎物记为3、其余
记为0,计算 种3个追逐个体和1个逃逸个体的位置分布情况下各捕食者的视觉感知信息,
得到 个视觉感知函数;根据视觉感知函数,计算每两个视觉感知函数之间的距离,得到
维对称距离矩阵;根据 维对称距离矩阵,采用PCA方式将视觉感知函数
降维到2维空间,得到参数训练集的降维空间;在任意一个预设追逐事件中,将每个个体的
视觉感知信息投影到参数训练集的降维空间中,在 个视觉感知函数中查找最近的视觉
感知信息,并将所述最近的视觉感知信息的参数作为最优的运动校准系数、排斥系数以及
追逐系数;根据当前个体的运动决策方程和最优的运动校准系数、排斥系数以及追逐系数,
得到优化运动决策方程。
[0105] 在其中一个实施例中,该装置还包括:共识自主性围捕模块,用于当多个追逐个体追捕多个逃逸个体的追捕场景时,将追捕场景转变为多个预设追逐事件中,在追捕过程中
每个捕食者选取2个最近的捕食者和1个最近的猎物计算其视觉感知函数,得到每个捕食者
角度下的预设追逐事件中;采用上述参数优化步骤,给每个捕食者选取最优的三个参数,以
实现捕食者的共识自主性围捕。
[0106] 关于基于视场感知的共识自主性追捕与逃逸装置的具体限定可以参见上文中对于基于视场感知的共识自主性追捕与逃逸方法的限定,在此不再赘述。上述基于视场感知
的共识自主性追捕与逃逸装置中的各个模块可全部或部分通过软件、硬件及其组合来实
现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形
式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
[0107] 以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛
盾,都应当认为是本说明书记载的范围。
[0108] 以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来
说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护
范围。因此,本申请专利的保护范围应以所附权利要求为准。