一种竞速无人机的数据智能交互方法、装置及设备转让专利

申请号 : CN202111316782.6

文献号 : CN113759984B

文献日 :

基本信息:

PDF:

法律信息:

相似专利:

发明人 : 赵伟

申请人 : 山东天亚达新材料科技有限公司

摘要 :

本发明涉及一种竞速无人机的数据智能交互方法、装置及设备,包括以下步骤:获取失控无人机周围区域的实时视频帧信息;计算所述实时视频帧信息在预设时间内的两个视频帧之间的场景变化量;基于所述场景变化量确定失控无人机的着陆区域;获取所述失控无人机的着陆区域的位置信息,基于所述失控无人机的着陆区域的位置信息为失控无人机规划着陆导航路线;从所述着陆导航路线中确定失控无人机的着陆路线。本发明能够实现失控无人机根据实时的视频帧以及无人机失控前的地理位置对应的AR场景进行选择着陆区域,解决了民用无人机在失控时无法自行控制的着陆的技术问题,而且能够从实时的视频帧选择空旷的着陆区域,使得失控无人机着陆路线更加合理。

权利要求 :

1.一种竞速无人机的数据智能交互方法,其特征在于,包括以下步骤:获取失控无人机周围区域的实时视频帧信息;

计算所述实时视频帧信息在预设时间内的两个视频帧之间的场景变化量;

基于所述场景变化量确定失控无人机的着陆区域;

获取所述失控无人机的着陆区域的位置信息,基于所述失控无人机的着陆区域的位置信息为失控无人机规划着陆导航路线;

从所述着陆导航路线中确定失控无人机的着陆路线;

还包括以下步骤:

获取失控无人机失控时的地理位置;

基于所述失控无人机失控时的地理位置得到该地理位置的AR场景信息;

从所述AR场景信息中得到在预设场景范围内的空旷区域场景,并判断所述场景变化量是否在所述空旷区域场景中;

若在,并将所述场景变化量整合到所述空旷区域场景中,得到区域场景分布图;

从所述区域场景分布图中确定出失控无人机的着陆区域;

获取所述失控无人机的着陆区域的位置信息,基于所述失控无人机的着陆区域的位置信息为失控无人机规划着陆导航路线,具体包括:将失控无人机失控时的地理位置作为第一起点,失控无人机的着陆区域作为终点位置,连接所述第一起点以及终点位置以得到第一导航路线;

从AR场景信息中判断所述第一导航路线中是否存在障碍物,若存在,则调整第一起点位置,得到第二起点;

连接第二起点以及终点位置得到第二导航路线,连接第一起点以及第二起点得到第三导航路线,并将所述第二导航路线以及第三导航路线组合作为失控无人机的着陆导航路线。

2.根据权利要求1所述的一种竞速无人机的数据智能交互方法,其特征在于,从所述着陆导航路线中确定失控无人机的着陆路线,具体包括:获取每一条着陆导航路线路程长度值;

基于所述路程长度值的大小进行从小到大排序,得到优先级着陆导航路线序列表,选取最高优先级的路程长度值作为失控无人机的着陆路线;

获取每一架最终失控无人机的着陆路线的终点位置,并判断是否存在终点位置重合的情况

若存在,则调整其中一架或者多架失控无人机的着陆路线。

3.根据权利要求2所述的一种竞速无人机的数据智能交互方法,其特征在于,若存在,则调整其中一架或者多架失控无人机的着陆路线,具体为:选取最高优先级的路程长度值之外的下一优先级的路程长度值作为最终失控无人机的着陆路线。

4.根据权利要求1所述的一种竞速无人机的数据智能交互方法,其特征在于,基于所述场景变化量确定失控无人机的着陆区域,具体为:将所述场景变化量小于预设场景变化量阈值的视频帧作为参考视频帧,并将所述参考视频帧所在的地理位置区域作为失控无人机的着陆区域。

5.根据权利要求1所述的一种竞速无人机的数据智能交互方法,其特征在于,计算所述实时视频帧信息在预设时间内的两个视频帧之间的场景变化量,具体为:从所述实时视频帧信息中识别特征信息;

将所述特征信息与预设特征信息对比,得到偏差率;

判断所述偏差率是否大于预设偏差率阈值;

若大于,则在预设时间内追踪轮廓特征点的移动轨迹,并计算出移动速度值,将所述移动速度值作为场景变化量。

6.一种竞速无人机的数据智能交互装置,其特征在于,所述装置包括存储器与处理器,所述存储器中包括竞速无人机的轨道智能交互方法程序,所述竞速无人机的轨道智能交互方法程序被所述处理器执行时,实现如下步骤:获取失控无人机周围区域的实时视频帧信息;

计算所述实时视频帧信息在预设时间内的两个视频帧之间的场景变化量;

基于所述场景变化量确定失控无人机的着陆区域;

获取所述失控无人机的着陆区域的位置信息,基于所述失控无人机的着陆区域的位置信息为失控无人机规划着陆导航路线;

从所述着陆导航路线中确定失控无人机的着陆路线;

还包括以下步骤:

获取失控无人机失控时的地理位置;

基于所述失控无人机失控时的地理位置得到该地理位置的AR场景信息;

从所述AR场景信息中得到在预设场景范围内的空旷区域场景,并判断所述场景变化量是否在所述空旷区域场景中;

若在,并将所述场景变化量整合到所述空旷区域场景中,得到区域场景分布图;

从所述区域场景分布图中确定出失控无人机的着陆区域;

获取所述失控无人机的着陆区域的位置信息,基于所述失控无人机的着陆区域的位置信息为失控无人机规划着陆导航路线,具体包括:将失控无人机失控时的地理位置作为第一起点,失控无人机的着陆区域作为终点位置,连接所述第一起点以及终点位置以得到第一导航路线;

从AR场景信息中判断所述第一导航路线中是否存在障碍物,若存在,则调整第一起点位置,得到第二起点;

连接第二起点以及终点位置得到第二导航路线,连接第一起点以及第二起点得到第三导航路线,并将所述第二导航路线以及第三导航路线组合作为失控无人机的着陆导航路线。

说明书 :

一种竞速无人机的数据智能交互方法、装置及设备

技术领域

[0001] 本发明涉及无人机技术领域,尤其涉及一种竞速无人机的数据智能交互方法、装置及设备。

背景技术

[0002] 无人机是现代创新科技研究应用热点,应用领域越来越广泛,民用无人机以小巧、灵活、性价比高、方便二次开发等特点,受到市场青睐,发展快速。民用无人机可广泛应用于
娱乐、农业、测绘、应急救灾、公共安全、巡查监管、影视等领域。民用人机系统综合了传感
器、电子、控制、材料、能源、通信和安全管理等技术。
[0003] 但是民用无人机还是有许多问题尚未解决,如民用无人机容易被人为磁电波恶意干扰,导致民用无人机在表演失控时,此时民用无人机无法通过无人机远程控制终端继续
控制,导致民用无人机形成高空抛物,由于表演时大都在城市的繁华地带,形成高空抛物后
容易伤及无辜以及损害他人利益。另一方面,现有技术中,无法在选择着陆区域时根据实时
状况来进行选择着陆区域,在行人知情的情况下还可以进行躲避,在行人不知情的情况下,
容易伤及无辜。

发明内容

[0004] 本发明克服了现有技术的不足,提供了一种竞速无人机的数据智能交互方法、装置及设备。
[0005] 为了达到上述目的,本发明采用的技术方案为:
[0006] 本发明第一方面提供了一种竞速无人机的数据智能交互方法,包括以下步骤:
[0007] 获取失控无人机周围区域的实时视频帧信息;
[0008] 计算所述实时视频帧信息在预设时间内的两个视频帧之间的场景变化量;
[0009] 基于所述场景变化量确定失控无人机的着陆区域;
[0010] 获取所述失控无人机的着陆区域的位置信息,基于所述失控无人机的着陆区域的位置信息为失控无人机规划着陆导航路线;
[0011] 从所述着陆导航路线中确定失控无人机的着陆路线。
[0012] 进一步地,本发明的一个较佳实施例中,还包括以下步骤:
[0013] 获取失控无人机失控时的地理位置;
[0014] 基于所述失控无人机失控时的地理位置得到该地理位置的AR场景信息;
[0015] 从所述AR场景信息中得到在预设场景范围内的空旷区域场景,并判断所述场景变化量是否在所述空旷区域场景中;
[0016] 若在,并将所述参考视频帧的场景变化量整合到所述空旷区域场景中,得到区域场景分布图;
[0017] 从所述区域场景分布图中确定出失控无人机的着陆区域。
[0018] 进一步地,本发明的一个较佳实施例中,获取所述失控无人机的着陆区域的位置信息,基于所述失控无人机的着陆区域的位置信息为失控无人机规划着陆导航路线,具体
包括:
[0019] 将失控无人机失控时的地理位置作为第一起点,失控无人机的着陆区域作为终点位置,连接所述第一起点以及终点位置以得到第一导航路线;
[0020] 从AR场景信息中判断所述第一导航路线中是否存在障碍物,若存在,则调整第一起点位置,得到第二起点;
[0021] 连接第二起点以及终点位置得到第二导航路线,连接第一起点以及第二起点得到第三导航路线,并将所述第二导航路线以及第三导航路线组合作为失控无人机的着陆导航
路线。
[0022] 进一步地,本发明的一个较佳实施例中,从所述着陆导航路线中确定失控无人机的着陆路线,具体包括:
[0023] 获取每一条着陆导航路线路程长度值;
[0024] 基于所述路程长度值的大小进行从小到大排序,得到优先级着陆导航路线序列表,选取最高优先级的路程长度值作为失控无人机的着陆路线;
[0025] 获取每一架最终失控无人机的着陆路线的终点位置,并判断是否存在终点位置重合的情况
[0026] 若存在,则调整其中一架或者多架失控无人机的着陆路线。
[0027] 进一步地,本发明的一个较佳实施例中,若存在,则调整其中一架或者多架失控无人机的着陆路线,具体为:
[0028] 选取最高优先级的路程长度值之外的下一优先级的路程长度值作为最终失控无人机的着陆路线。
[0029] 进一步地,本发明的一个较佳实施例中,基于所述场景变化量确定失控无人机的着陆区域,具体为:
[0030] 将所述场景变化量小于预设场景变化量阈值的视频帧作为参考视频帧,并将所述参考视频帧所在的地理位置区域作为失控无人机的着陆区域。
[0031] 进一步地,本发明的一个较佳实施例中,计算所述实时视频帧信息在预设时间内的两个视频帧之间的场景变化量,具体为:
[0032] 从所述实时视频帧信息中识别特征信息;
[0033] 将所述特征信息与预设特征信息对比,得到偏差率;
[0034] 判断所述偏差率是否大于预设偏差率阈值;
[0035] 若大于,则在预设时间内追踪轮廓特征点的移动轨迹,并计算出移动速度值,将所述移动速度值作为场景变化量。
[0036] 本发明第二方面提供了一种竞速无人机的数据智能交互装置,所述装置包括存储器与处理器,所述存储器中包括竞速无人机的轨道智能交互方法程序,所述竞速无人机的
轨道智能交互方法程序被所述处理器执行时,实现如下步骤:
[0037] 获取失控无人机周围区域的实时视频帧信息;
[0038] 计算所述实时视频帧信息在预设时间内的两个视频帧之间的场景变化量;
[0039] 基于所述场景变化量确定失控无人机的着陆区域;
[0040] 获取所述失控无人机的着陆区域的位置信息,基于所述失控无人机的着陆区域的位置信息为失控无人机规划着陆导航路线;
[0041] 从所述着陆导航路线中确定失控无人机的着陆路线。
[0042] 进一步地,本发明的一个较佳实施例中,还包括以下步骤:
[0043] 获取失控无人机失控时的地理位置;
[0044] 基于所述失控无人机失控时的地理位置得到该地理位置的AR场景信息;
[0045] 从所述AR场景信息中得到在预设场景范围内的空旷区域场景,并判断所述场景变化量是否在所述空旷区域场景中;
[0046] 若在,并将所述参考视频帧的场景变化量整合到所述空旷区域场景中,得到区域场景分布图;
[0047] 从所述区域场景分布图中确定出失控无人机的着陆区域。
[0048] 本发明第三方面提供了一种竞速无人机的数据智能交互设备,所述竞速无人机的轨道智能定位设备包括:
[0049] 获取模块,获取失控无人机周围区域的实时视频帧信息;
[0050] 计算模块,计算所述实时视频帧信息在预设时间内的两个视频帧之间的场景变化量;
[0051] 确定模块,基于所述场景变化量确定失控无人机的着陆区域;
[0052] 导航模块,获取所述失控无人机的着陆区域的位置信息,基于所述失控无人机的着陆区域的位置信息为失控无人机规划着陆导航路线;
[0053] 规划模块,从所述着陆导航路线中确定失控无人机的着陆路线。
[0054] 本发明解决了背景技术中存在的缺陷,能够达到如下的技术效果:无人机通过设置该方法,能够实现失控无人机根据实时的视频帧以及无人机失控前的地理位置对应的AR
场景进行选择着陆区域,解决了民用无人机在失控时无法自行控制的着陆的技术问题,而
且能够从实时的视频帧中选择空旷的着陆区域,使得失控无人机着陆路线更加合理,避免
了失控无人机形成高空抛物砸伤行人的事件发生;另一方面,能够在失控无人机的地理位
置对应的AR地图中检索出最近的着陆区域,而且本方法从另一个层面来说实现了无人机的
管理、监管更加合理以及高效。

附图说明

[0055] 为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本
发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以
根据这些附图获得其他实施例的附图。
[0056] 图1示出了一种竞速无人机的数据智能交互方法的方法流程图;
[0057] 图2示出了确定着陆区域的方法流程图;
[0058] 图3示出了失控无人机着陆导航路线规划的方法流程图;
[0059] 图4示出了调整失控无人机着陆导航路线规划的方法流程图;
[0060] 图5示出了提取特征信息的方法流程图;
[0061] 图6示出了一种竞速无人机的数据智能交互装置的装置框图;
[0062] 图7示出了一种竞速无人机的数据智能交互设备的模块示意图。

具体实施方式

[0063] 为了能够更清楚地理解本发明的上述目的、特征和优点,下面结合附图和具体实施方式对本发明进行进一步的详细描述。需要说明的是,在不冲突的情况下,本申请的实施
例及实施例中的特征可以相互组合。
[0064] 在下面的描述中阐述了很多具体细节以便于充分理解本发明,但是,本发明还可以采用其他不同于在此描述的其他方式来实施,因此,本发明的保护范围并不受下面公开
的具体实施例的限制。
[0065] 图1示出了一种竞速无人机的数据智能交互方法的方法流程图;
[0066] 本发明第一方面提供了一种竞速无人机的数据智能交互方法,包括以下步骤:
[0067] S102:获取失控无人机周围区域的实时视频帧信息;
[0068] S104:计算所述实时视频帧信息在预设时间内的两个视频帧之间的场景变化量;
[0069] S106:基于所述场景变化量确定失控无人机的着陆区域;
[0070] S108:获取所述失控无人机的着陆区域的位置信息,基于所述失控无人机的着陆区域的位置信息为失控无人机规划着陆导航路线;
[0071] S110:从所述着陆导航路线中确定失控无人机的着陆路线。
[0072] 需要使用的是,可以在失控无人机上设置视频采集设备,如摄像头、红外成像仪等,以获取在无人机失控时的周围区域的视频帧,进而对获取的视频帧来进行场景变化量
的计算,利用高斯模型获得视频帧的运动目标的速度值,其中从视频帧中获得运动目标的
特征像素点,如汽车的轮廓、人体轮廓,对轮廓中的其中一个特征像素点在一定的时间内进
行追踪,从而得到该运动目标的运动速度值,其中运动速度值(即场景变化量)满足高斯模
型:
[0073]
[0074] 其中,t为运动的时间; 为像素点 在运动时间t内的运动距离;V为在t时刻的运动速度值, 为像素点 的初始速度,S为在运动距离 过程中运动速度值的方
差值。
[0075] 而在运动距离 过程中运动速度值的方差值满足:
[0076]
[0077] 其中,k为方差系数,一般取值为1; 为将运动时间t分为等量的时间间隔值; 、、…、 为等量间隔时间 内的运动距离, 、 、…、 之和与运动距离相等。
[0078] 计算出在t时刻的运动速度值V后,对该速度值进行频率值计算,如汽车的轮廓、行人,通过该运动速度值以及汽车的轮廓、行人外形特征进一步,确定是否为汽车、行人的概
率,并根据该频率值作为无人机能否着陆的区域评价标准,其中该频率值满足:
[0079]
[0080] 其中P为目标物的经过该区域的频率值,V为该目标物的运动速度值, 为目标物的初始速度值,S为目标物在一定运动距离过程中运动速度的方差值。
[0081] 需要说明的是,当该频率值接近于1时,说明为目标物的行动区域(如汽车的行驶区域、行人的活动区域等)的概率值大,当该频率值接近于0时,说明该区域可作为失控无人
机的着陆区域。并且从AR场景地图中获取该区域的位置坐标以及该区域的空间面积。在计
算的过程中,可选取一段目标物的运动距离,从而得到该目标物的运动速度,而初始速度值
可为0,初始速度值不为0时通过常规的速度公式即可获得,从而选取出频率值接近于0的区
域场景的场景变化量作为最终的场景变化量。
[0082] 图2示出了确定着陆区域的方法流程图;
[0083] 进一步地,本发明的一个较佳实施例中,还包括以下步骤:
[0084] S202:获取失控无人机失控时的地理位置;
[0085] S204:基于所述失控无人机失控时的地理位置得到该地理位置的AR场景信息;
[0086] S206:从所述AR场景信息中得到在预设场景范围内的空旷区域场景,并判断所述场景变化量是否在所述空旷区域场景中;
[0087] S208:若在,并将所述参考视频帧的场景变化量整合到所述空旷区域场景中,得到区域场景分布图;
[0088] S210:从所述区域场景分布图中确定出失控无人机的着陆区域。
[0089] 需要说明的是,在无人机失控前,无人机模块上可设置有定位仪,在无人机失控时,该地理位置可被无人机人身识别,其中地理位置具体为经度、纬度、海拔高度所形成的
坐标值,该地理坐标值有对应特定的AR场景图,无人机中设置有定位仪中设置数据库,该数
据中存储有对应地理位置的AR场景图,在无人机执行任务失控时,失控无人机在所在的地
理位置搜索AR场景中的空旷区域,并将该空旷区域作为目标降落区域,将参考视频帧中的
场景变化量整合到空旷场景中,形成实时的场景化,如空旷的场景中增加了汽车行驶的场
景、人行道场景中增加了行人的场景等。其中区域场景分布图可为:如汽车的行驶区域、行
人的活动区域、无行人的活动区域、停车区域等区域的划分,为无人机的着陆选择一个合理
的降落区域,不会降落在正在有行人的活动区域场景、汽车的行驶区域场景、狭窄的区域场
景等,使得失控无人机降落在空旷的区域场景中,这样能够避免伤及无辜、损害他人利益,
以及将失控无人机都着陆在空旷的区域之中,有利于失控无人机的管理。其中空旷的区域
场景为:能够容纳无人机最大占用面积的场景区域。
[0090] 图3示出了失控无人机着陆导航路线规划的方法流程图;
[0091] 进一步地,本发明的一个较佳实施例中,获取所述失控无人机的着陆区域的位置信息,基于所述失控无人机的着陆区域的位置信息为失控无人机规划着陆导航路线,具体
包括:
[0092] S302:将失控无人机失控时的地理位置作为第一起点,失控无人机的着陆区域作为终点位置,连接所述第一起点以及终点位置以得到第一导航路线;
[0093] S304:从AR场景信息中判断所述第一导航路线中是否存在障碍物,若存在,则调整第一起点位置,得到第二起点;
[0094] S306:连接第二起点以及终点位置得到第二导航路线,连接第一起点以及第二起点得到第三导航路线,并将所述第二导航路线以及第三导航路线组合作为失控无人机的着
陆导航路线。
[0095] 需要说明的是,AR场景相当于一个三维模型场景数据库,如包含各个地理位置对应的高楼的3D模型、路灯的3D模型等,此类都可作为障碍物,此类3D模型的轮廓点在AR场景
中均可用坐标来表示,通过利用AR场景中的此类3D模型对失控无人机的着陆导航路线进行
规划,当发现起点以及终点之间导航线存在障碍物时,改变起点的位置,实现无障碍降落,
避免了失控无人机在着陆过程中损坏,通过坐标与坐标之间的常规计算,即可得到着陆导
航路线的路程。
[0096] 图4示出了调整失控无人机着陆导航路线规划的方法流程图;
[0097] 进一步地,本发明的一个较佳实施例中,从所述着陆导航路线中确定失控无人机的着陆路线,具体包括:
[0098] S402:获取每一条着陆导航路线路程长度值;
[0099] S404:基于所述路程长度值的大小进行从小到大排序,得到优先级着陆导航路线序列表,选取最高优先级的路程长度值作为失控无人机的着陆路线;
[0100] S406:获取每一架最终失控无人机的着陆路线的终点位置,并判断是否存在终点位置重合的情况
[0101] S408:若存在,则调整其中一架或者多架失控无人机的着陆路线。
[0102] 需要说明的是,由于从AR地图中筛选出了多个着陆区域,此时有一个或者多个着陆区域。因此,失控无人机的着陆路线就形成了多条,从多条着陆路线中选取出飞行路程更
短的着陆路线,使得失控无人机能够在最短的时间内安全着陆在着陆区域之内,保证了无
人机能够及时以及安全地着陆在指定的着陆区域之中。
[0103] 需要说明的是,在着陆路线中可能存在失控无人机着陆区域的终点位置重合的情况,当出现该情况时,调整其中一架或者多架的失控无人机的着陆路线,从而改变其中一架
或者多架失控无人机着陆的终点位置,其中调整路线时,按照优先级着陆导航路线序列表
中原着陆路线的路程长度值之外的下一优先级的路程长度值作为着陆路线,其中虽然无人
机远程控制终端失控了,但是由于多架民用无人机之间进行活动时,离得较近,依然可以进
行通讯,如可通过通信器件进行通讯。
[0104] 进一步地,本发明的一个较佳实施例中,若存在,则调整其中一架或者多架失控无人机的着陆路线,具体为:
[0105] 选取最高优先级的路程长度值之外的下一优先级的路程长度值作为最终失控无人机的着陆路线。
[0106] 进一步地,本发明的一个较佳实施例中,基于所述场景变化量确定失控无人机的着陆区域,具体为:
[0107] 将所述场景变化量小于预设场景变化量阈值的视频帧作为参考视频帧,并将所述参考视频帧所在的地理位置区域作为失控无人机的着陆区域。
[0108] 需要说明的是,其中,预设场景变化量为上述无目标物的经过该区域的频率值,该频率值取值为0或1,当接近0时,说明该区域没有目标物经过,该区域能够选作为失控无人
机着陆的区域,当接近于1,说明该区域为有物体经过,该区域不能选为失控无人机的着陆
区域。
[0109] 图5示出了提取特征信息的方法流程图;
[0110] 进一步地,本发明的一个较佳实施例中,计算所述实时视频帧信息在预设时间内的两个视频帧之间的场景变化量,具体为:
[0111] S502:从所述实时视频帧信息中识别特征信息;
[0112] S504:将所述特征信息与预设特征信息对比,得到偏差率;
[0113] S506:判断所述偏差率是否大于预设偏差率阈值;
[0114] S508:若大于,则在预设时间内追踪轮廓特征点的移动轨迹,并计算出移动速度值,将所述移动速度值作为场景变化量。
[0115] 需要说明的是,利用中值滤波法对采集的视频帧中的图像对特征信息进行识别,其中特征信息为人物的外形特征、汽车的外形特征、动物的外形特征、建筑物的外形特征、
室外停车场外形特征等,通过与数据库中的外形特征对比,从而能够得到该特征信息为何
种物体的特征,从而能够根据视频帧中的场景变化量有效地筛选出有效的失控无人机的着
陆区域。
[0116] 综上所述,发明通过设置该方法,能够实现失控无人机根据实时的视频帧以及无人机失控前的地理位置对应的AR场景进行选择着陆区域,解决了民用无人机在失控时无法
自行控制的着陆的技术问题,而且能够从实时的视频帧中选择空旷的着陆区域,使得失控
无人机着陆路线更加合理,避免了失控无人机形成高空抛物砸伤行人的事件发生;另一方
面,能够在失控无人机的地理位置对应的AR地图中检索出最近的着陆区域,而且本方法从
另一个层面来说实现了无人机的管理、监管更加合理以及高效。
[0117] 此外,本方法还可以包括以下步骤:
[0118] 获取失控无人机着陆时的最大占用面积值;
[0119] 从AR场景信息中获得着陆区域的面积值,并基于所述失控无人机着陆时的最大占用面积值以及所述着陆区域的面积值计算得到着陆区域可容纳的无人机数量;
[0120] 获取当前失控无人机的数量,判断所述着陆区域可容纳的无人机数量是否不小于所述失控无人机的数量;
[0121] 若小于,则生成第一失控无人机着陆区域图,并得到所述无人机着陆区域图的地理位置,并从所述区域场景分布图中寻找出距离所述第一失控无人机着陆区域图最近的着
陆区域,生成第二失控无人机着陆区域图,并得到所述第二失控无人机着陆区域图的地理
位置;
[0122] 若不小于,则生成第一失控无人机着陆区域图,并得到所述无人机着陆区域图的地理位置。
[0123] 需要说明的是,在民用无人机使用时(无人机之间的距离都间隔不远),由于表演过程中失控了,此时有多架无人机失控,而失控无人机内部的数据库存储有无人机本身着
陆时占用的最大面积,而此时,着陆区域可能选取出多个,由于着陆区域的使用面积有限,
着陆区域所能容纳的无人机数量也是一定的。因此,着陆路线中的最短路程的着陆区域存
在不能容纳全部失控无人机的数量的可能性,从所述区域场景分布图中寻找出距离所述第
一无人机着陆区域图最近的着陆区域,生成第二失控无人机着陆区域图。按照此方式可以
生成第n个失控无人机着陆区域图。因此,本方法可设置在远程控制终端对无人机失控时进
行模拟,在失控无人机着陆时,即可获得到失控无人机的着陆区域,进而对失控无人机进行
回收。
[0124] 此外,还可以包括以下步骤:
[0125] 获取无人机反馈的通讯信号;
[0126] 判断所述无人机远程控制终端在预设时间内能否接收到所述无人机反馈的通讯信号;
[0127] 若否,则说明无人机的控制状态为失控状态;
[0128] 若能,则进一步判断无人机远程控制终端在预设时间内所接收到的所述无人机反馈的通讯信号是否存在间断的情况;
[0129] 若存在,则得到在预设时间内通讯信号间断的次数,并判断间断的次数是否大于预设间断的次数;
[0130] 若大于,则说明无人机的控制状态为失控状态。
[0131] 需要说明的是,其中,无人机远程控制终端可为遥控器、计算机、计算机程序等,无人机远程控制终端在远程控制无人机时,通过远程控制终端接收无人机反馈的通讯信号,
进而判定无人机是否为失控状态,使得无人机在使用的过程中更具备安全性能。
[0132] 此外,还可以包括以下步骤:
[0133] 获取失控无人机失控时的剩余燃料值;
[0134] 根据所述失控无人机的着陆导航路线得到每一条着陆导航路线的燃料损耗值;
[0135] 比较所述每一条着陆导航路线的燃料损耗值,以得到着陆导航路线中的最小燃料损耗值,并判断所述着陆导航路线中的最小燃料损耗值是否小于无人机失控时的剩余燃料
值;
[0136] 若小于,则从AR场景中检索出距离失控无人机的地理位置最近的楼顶平台,并将楼顶平台作为着陆区域;
[0137] 若不小于,将该最小燃料损耗值的着陆导航路线作为最终的着陆导航路线。
[0138] 需要说明的是,失控无人机本身设置有数据库,该数据库能够实时获得无人机的剩余燃料值。其中,每一条着陆导航路线都有着一定的燃料损耗值,其中燃料损耗值满足:
[0139]
[0140] 其中Q为着陆导航路线的燃料损耗值,F为无人机飞行时在飞行方向上自身的牵引力; 为第二导航路线的线性长度值, 为第三导航路线的线性长度值。
[0141] 需要说明的是,在无人机着陆导航的过程中选择的为匀速降落的过程,无人机的控制人员可设置一个匀速降落的速度值,以应对该无人机失控时进行降落的速度值。而利
用坐标与坐标之间的计算,从而得到第二导航路线的线性长度值以及第三导航路线的线性
长度值。当着陆导航路线中的最小燃料损耗值小于无人机失控时的剩余燃料值,从AR场景
中选择出距离失控无人机的地理位置最近的楼顶平台作为着陆区域,进一步考虑该情况,
能够进一步避免伤及无辜以及损害他人利益的情况发生。
[0142] 图6示出了一种竞速无人机的数据智能交互装置的装置框图;
[0143] 本发明第二方面提供了一种竞速无人机的数据智能交互装置,所述装置包括存储器41与处理器62,所述存储器41中包括竞速无人机的轨道智能交互方法程序,所述竞速无
人机的轨道智能交互方法程序被所述处理器62执行时,实现如下步骤:
[0144] 获取失控无人机周围区域的实时视频帧信息;
[0145] 计算所述实时视频帧信息在预设时间内的两个视频帧之间的场景变化量;
[0146] 基于所述场景变化量确定失控无人机的着陆区域;
[0147] 获取所述失控无人机的着陆区域的位置信息,基于所述失控无人机的着陆区域的位置信息为失控无人机规划着陆导航路线;
[0148] 从所述着陆导航路线中确定失控无人机的着陆路线。
[0149] 对于本实施例而言,可以在失控无人机上设置视频采集设备,如摄像头、红外成像仪等,以获取在无人机失控时的周围区域的视频帧,进而对获取的视频帧来进行场景变化
量的计算,利用高斯模型获得视频帧的运动目标的速度值,其中从视频帧中获得运动目标
的特征像素点,如汽车的轮廓、人体轮廓,对轮廓中的其中一个特征像素点在一定的时间内
进行追踪,从而得到该运动目标的运动速度值,其中运动速度值(即场景变化量)满足高斯
模型:
[0150]
[0151] 其中,t为运动的时间; 为像素点 在运动时间t内的运动距离;V为在t时刻的运动速度值, 为像素点 的初始速度,S为在运动距离 过程中运动速度值的方
差值。
[0152] 而在运动距离 过程中运动速度值的方差值满足:
[0153]
[0154] 其中,k为方差系数,一般取值为1; 为将运动时间t分为等量的时间间隔值; 、、…、 为等量间隔时间 内的运动距离, 、 、…、 之和与运动距离相等。
[0155] 计算出在t时刻的运动速度值V后,对该速度值进行频率值计算,如汽车的轮廓、行人,通过该运动速度值以及汽车的轮廓、行人外形特征进一步,确定是否为汽车、行人的概
率,并根据该频率值作为无人机能否着陆的区域评价标准,其中该频率值满足:
[0156]
[0157] 其中P为目标物的经过该区域的频率值,V为该目标物的运动速度值, 为目标物的初始速度值,S为目标物在一定运动距离过程中运动速度的方差值。
[0158] 在本实施例中,当该频率值接近于1时,说明为目标物的行动区域(如汽车的行驶区域、行人的活动区域等)的概率值大,当该频率值接近于0时,说明该区域可作为失控无人
机的着陆区域。并且从AR场景地图中获取该区域的位置坐标以及该区域的空间面积。在计
算的过程中,可选取一段目标物的运动距离,从而得到该目标物的运动速度,而初始速度值
可为0,初始速度值不为0时通过常规的速度公式即可获得。
[0159] 进一步地,本发明的一个较佳实施例中,还包括以下步骤:
[0160] 获取失控无人机失控时的地理位置;
[0161] 基于所述失控无人机失控时的地理位置得到该地理位置的AR场景信息;
[0162] 从所述AR场景信息中得到在预设场景范围内的空旷区域场景,并判断所述场景变化量是否在所述空旷区域场景中;
[0163] 若在,并将所述参考视频帧的场景变化量整合到所述空旷区域场景中,得到区域场景分布图;
[0164] 从所述区域场景分布图中确定出失控无人机的着陆区域。
[0165] 其中,在无人机失控前,无人机模块上可设置有定位仪,在无人机失控时,该地理位置可被无人机人身识别,其中地理位置具体为经度、纬度、海拔高度所形成的坐标值,该
地理坐标值有对应特定的AR场景图,无人机中设置有定位仪中设置数据库,该数据中存储
有对应地理位置的AR场景图,在无人机执行任务失控时,失控无人机在所在的地理位置搜
索AR场景中的空旷区域,并将该空旷区域作为目标降落区域,将参考视频帧中的场景变化
量整合到空旷场景中,形成实时的场景化。其中区域场景分布图可为:如汽车的行驶区域、
行人的活动区域、无行人的活动区域、停车区域等区域的划分,为无人机的着陆选择一个合
理的降落区域,不会降落在正在有行人的活动区域场景、汽车的行驶区域场景、狭窄的区域
场景等,使得失控无人机降落在空旷的区域场景中,这样能够避免伤及无辜、损害他人利
益,以及将失控无人机都着陆在空旷的区域之中,有利于失控无人机的管理。
[0166] 其中,获取所述失控无人机的着陆区域的位置信息,基于所述失控无人机的着陆区域的位置信息为失控无人机规划着陆导航路线,具体包括:
[0167] 将失控无人机失控时的地理位置作为第一起点,失控无人机的着陆区域作为终点位置,连接所述第一起点以及终点位置以得到第一导航路线;
[0168] 从AR场景信息中判断所述第一导航路线中是否存在障碍物,若存在,则调整第一起点位置,得到第二起点;
[0169] 连接第二起点以及终点位置得到第二导航路线,连接第一起点以及第二起点得到第三导航路线,并将所述第二导航路线以及第三导航路线组合作为失控无人机的着陆导航
路线。
[0170] 在本实施例中,AR场景相当于一个三维模型数据库,如包含高楼的3D模型、路灯的3D模型等,此类都可作为障碍物,此类3D模型的轮廓在AR场景中均可用坐标来表示,通过利
用AR场景中的此类3D模型对失控无人机的着陆导航路线进行规划,当发现起点以及终点之
间导航线存在障碍物时,改变起点的位置,实现无障碍降落,避免了失控无人机在着陆过程
中损坏。
[0171] 其中,从所述着陆导航路线中确定失控无人机的着陆路线,具体包括:
[0172] 获取每一条着陆导航路线路程长度值;
[0173] 基于所述路程长度值的大小进行从小到大排序,得到优先级着陆导航路线序列表,选取最高优先级的路程长度值作为失控无人机的着陆路线;
[0174] 获取每一架最终失控无人机的着陆路线的终点位置,并判断是否存在终点位置重合的情况
[0175] 若存在,则调整其中一架或者多架失控无人机的着陆路线。
[0176] 在本实施例中,由于从AR地图中筛选出了多个着陆区域,此时有一个或者多个着陆区域。因此,失控无人机的着陆路线就形成了多条,从多条着陆路线中选取出飞行路程更
短的着陆路线,使得失控无人机能够在最短的时间内安全着陆在着陆区域之内,保证了无
人机能够及时以及安全地着陆在指定的着陆区域之中。
[0177] 在本实施例中,在着陆路线中可能存在失控无人机着陆区域的终点位置重合的情况,当出现该情况时,调整其中一架或者多架的失控无人机的着陆路线,从而改变其中一架
或者多架失控无人机着陆的终点位置,其中调整路线时,按照优先级着陆导航路线序列表
中原着陆路线的路程长度值之外的下一优先级的路程长度值作为着陆路线。
[0178] 其中,若存在,则调整其中一架或者多架失控无人机的着陆路线,具体为:
[0179] 选取最高优先级的路程长度值之外的下一优先级的路程长度值作为最终失控无人机的着陆路线。
[0180] 其中,基于所述场景变化量确定失控无人机的着陆区域,具体为:
[0181] 将所述场景变化量小于预设场景变化量阈值的视频帧作为参考视频帧,并将所述参考视频帧所在的地理位置区域作为失控无人机的着陆区域。
[0182] 在本实施例中,其中,预设场景变化量为上述无目标物的经过该区域的频率值,该频率值取值为0或1,当接近0时,说明该区域没有目标物经过,该区域能够选作为失控无人
机着陆的区域,当接近于1,说明该区域为有物体经过,该区域不能选为失控无人机的着陆
区域。
[0183] 其中,计算所述实时视频帧信息在预设时间内的两个视频帧之间的场景变化量,具体为:
[0184] 从所述实时视频帧信息中识别特征信息;
[0185] 将所述特征信息与预设特征信息对比,得到偏差率;
[0186] 判断所述偏差率是否大于预设偏差率阈值;
[0187] 若大于,则在预设时间内追踪轮廓特征点的移动轨迹,并计算出移动速度值,将所述移动速度值作为场景变化量。
[0188] 在本实施例中,其中特征信息为人物的外形特征、汽车的外形特征、动物的外形特征、建筑物的外形特征、室外停车场外形特征等,通过与数据库中的外形特征对比,从而能
够得到该特征信息为何种物体的特征,从而能够根据视频帧中的场景变化量有效地筛选出
有效的失控无人机的着陆区域。
[0189] 图7示出了一种竞速无人机的数据智能交互设备的模块示意图。
[0190] 本发明第三方面提供了一种竞速无人机的数据智能交互设备,所述竞速无人机的轨道智能定位设备包括:
[0191] 获取模块10,获取失控无人机周围区域的实时视频帧信息;
[0192] 计算模块20,计算所述实时视频帧信息在预设时间内的两个视频帧之间的场景变化量;
[0193] 确定模块30,基于所述场景变化量确定失控无人机的着陆区域;
[0194] 导航模块40,获取所述失控无人机的着陆区域的位置信息,基于所述失控无人机的着陆区域的位置信息为失控无人机规划着陆导航路线;
[0195] 规划模块50,从所述着陆导航路线中确定失控无人机的着陆路线。
[0196] 在本申请所提供的几个实施例中,应该理解到,所揭露的设备和方法,可以通过其它的方式实现。以上所描述的设备实施例仅仅是示意性的,例如,所述单元的划分,仅仅为
一种逻辑功能划分,实际实现时可以有另外的划分方式,如:多个单元或组件可以结合,或
可以集成到另一个系统,或一些特征可以忽略,或不执行。另外,所显示或讨论的各组成部
分相互之间的耦合、或直接耦合、或通信连接可以是通过一些接口,设备或单元的间接耦合
或通信连接,可以是电性的、机械的或其它形式的。