基于视觉非完整机器人在极坐标下的无模型目标跟踪方法转让专利

申请号 : CN201710266847.8

文献号 : CN107097256B

文献日 :

基本信息:

PDF:

法律信息:

相似专利:

发明人 : 陈华陈晖

申请人 : 河海大学常州校区

摘要 :

本发明公开了一种基于视觉的非完整机器人在极坐标下的无模型目标跟踪方法,非完整机器人通过RGB‑D摄像机实时采集机器人前方的视觉信息,利用RGB‑D摄像机可同时采集深度图像和RGB图像的特点,根据采集的RGB图像来判断目标物体的水平横向位移;根据采集的深度图像来判断目标物体的水平纵向位移。通过部分坐标的选取可以把不同坐标系中的RGB图像数据和深度数据映射到同一个极坐标中;根据极坐标设计跟踪算法,从而实现对目标物体的跟踪。本发明实现了非完整机器人的目标跟踪,充分利用了RGB‑D摄像机的特点,通过分别利用深度图和RGB图的优点得到精度更高的目标位置解决了单独使用一种图像跟踪的误差较大的问题。

权利要求 :

1.一种基于视觉非完整机器人在极坐标下的无模型目标跟踪方法,其特征在于,具体步骤如下:(1)机器人通过摄像机获取环境信息图像并对RGB图像先进行高斯平滑滤波、图像灰度化处理,然后利用Sobel算子进行边缘检测,通过自适应二值化处理获得二值化图像,对二值化图像进行图像形态学处理,之后通过对连通区域进行判断,根据颜色和形状特征提取出目标区域;

(2)根据RGB图像中与深度图像的坐标关系,确定深度图像中的目标区域;

(3)当目标运动时,根据迭代最近点算法计算出相邻两帧图像间的位移关系,设两帧图获取间隔为t,得到目标的水平方向的位移x,同时根据深度图像得出垂直方向的位移值y;

(4)根据步骤(3)中得出的位移值,在极坐标系中建立机器人与目标间的坐标图;

(5)根据步骤(4)中的机器人与目标间的关系得出机器人的线速度和角速度。

2.根据权利要求1所述的目标跟踪方法,其特征在于,在所述步骤(1)中的边缘检测是根据目标特征选取检测方法。

3.根据权利要求1所述的目标跟踪方法,其特征在于,在所述步骤(2)中,首先对RGB-D摄像机的深度图和RGB图的坐标进行校准,使深度数据和RGB数据相对应。

4.根据权利要求1所述的目标跟踪方法,其特征在于,在所述步骤(3)中,通过对相邻两帧图像提取SIFT关键点进行匹配,得出图像间的转移关系,通过PCL的迭代最近点算法求解出位移x和y。

5.根据权利要求1所述的目标跟踪方法,其特征在于,在所述步骤(4)中,以机器人中心为极坐标的原点得到目标的位置为(ρ,θ),其中x,y为所求出的位移量:

6.根据权利要求5所述的目标跟踪方法,其特征在于,在所述步骤(5)中,机器人的线速度v和角速度ω分别为:

说明书 :

基于视觉非完整机器人在极坐标下的无模型目标跟踪方法

技术领域

[0001] 本发明属于非完整机器人的视觉控制领域,基于视觉的非完整机器人快速目标跟踪方法。

背景技术

[0002] 非完整机器人作为轮式移动机器人中一种最常见的机器人,无论是在工业、农业、医疗服务还是城市安全、国防和太空探索等领域都得到广泛应用。它是一个集环境感知,运动规划,运动控制等多功能于一体的综合系统,包括了传感器技术、信息处理、计算机工程以及人工智能等多个学科的研究成果,是目前科学技术发展最活跃的领域之一。近年来,随着机器视觉的发展,机器人越来越朝着智能化,自主化的方向发展。
[0003] 视觉跟踪问题是当前计算机视觉领域中的热点问题,所谓视觉跟踪是可靠性非常高的一种跟踪方式,同时也是存在很多问题的一种方法。本发明提出了一种快速跟踪技术具有重要的理论价值和实际意义。

发明内容

[0004] 本发明的目的在于,提出一种基于视觉的非完整机器人在极坐标下的无模型/目标跟踪方法,实现机器人自主跟踪的目标,解决机器人自主识别目标、自主运动控制、自主定位的技术问题。
[0005] 本发明采用如下技术方案:一种基于视觉的非完整机器人在极坐标下的目标跟踪方法,其特征在于,具体步骤如下:
[0006] (1)机器人通过摄像机获取环境信息图像并对RGB图像先进行高斯平滑滤波、图像灰度化处理,来提高处理速度,然后利用Sobel算子进行边缘检测,通过自适应二值化处理获得二值化图像,对二值化图像进行图像形态学处理,需要根据实际需要进行调整腐蚀和膨胀算子达到更优的效果,然后通过对连通区域进行判断,提取出目标区域。
[0007] (2)根据RGB图像中与深度图像的坐标关系,确定深度图像中的目标区域。
[0008] (3)当目标运动时,根据ICP(迭代最近点)算法计算出相邻两帧图像间的位移关系,两帧图获取间隔为t,得到目标的水平方向的位移x。同时根据深度图得出垂直方向的位移y。
[0009] (4)根据步骤(3)中得出的位移值,在极坐标系中建立机器人的目标间的坐标图。
[0010] (5)根据(4)中的机器人与目标间的关系得出机器人的线速度和角速度。
[0011] 优选地,在所述步骤1中,提前根据目标特征选取检测方法。
[0012] 优选地,在所述步骤2中,事先要对RGB-D摄像机的深度图和RGB图的坐标进行校准,使深度数据和RGB数据能对应起来。
[0013] 优选地,所述机器人是360度范围的旋转。
[0014] 优选地,在所述步骤3中,通过对相邻两帧图像提取尺度不变特征变换 (Scale-invariant feature transform,SIFT)关键点进行匹配,得出图像间的转移关系。通过PCL的ICP算法求解出位移x和y。
[0015] 优选地,在所述步骤4中,以机器人中心为极坐标的原点得到目标的位置为 (ρ,θ),其中x,y为所求出的位移量:
[0016]
[0017] 优选地,在所述步骤5中,机器人的线速度v和角速度ω分别为:
[0018]
[0019] 本发明所达到的有益效果:(1)本发明的一种基于视觉的非完整机器人在极坐标下的无模型目标跟踪方法,实现机器人自主跟踪的目标,解决机器人自主识别目标、自主运动控制、自主定位的技术问题。(2)本发明通过RGB-D 摄像机获取图像,并通过分别从RGB图像和深度图像中读取位移数据,提高了位置精度;(3)本发明的采用极坐标的建立机器人和跟踪目标的关系,提高跟踪速度;(4)本发明通过采用差动轮可以实现360度跟踪。

附图说明

[0020] 图1是本发明的完整机器人的控制原理图。
[0021] 图2是本发明的非完整机器人运动控制算法流程图。

具体实施方式

[0022] 下面结合附图对本发明的实施案例作进一步描述。
[0023] 本发明可以用于带有RGB-D摄像头的非完整机器人控制系统,包括图像获取、图像处理、坐标变换、机器人运动控制,如图1所示,为机器人的控制原理。图2为控制机器人跟踪目标的算法。
[0024] 图1是本发明的本发明的一种基于视觉的非完整机器人在极坐标下的无模型目标跟踪方法的流程图。基于视觉跟踪流程的步骤如下:
[0025] (1)机器人通过摄像机获取环境信息图像并对RGB图像先进行高斯平滑滤波、图像灰度化处理,来提高处理速度,然后利用Sobel算子进行边缘检测,通过自适应二值化处理获得二值化图像,对二值化图像进行图像形态学处理,需要根据实际需要进行调整腐蚀和膨胀算子达到更优的效果,然后通过对连通区域进行判断,提取出目标区域。
[0026] (2)根据RGB图像中与深度图像的坐标关系,确定深度图像中的目标区域。
[0027] (3)当目标运动时,根据ICP(迭代最近点)算法计算(是PCL库中一种常规算法,根据特征点求解机器人的位姿变换)出相邻两帧图像间的位移关系,两帧图获取间隔为t,得到目标的水平方向的位移x。同时根据深度图得出垂直方向的位移值y。
[0028] (4)根据步骤(3)中得出的位移值,在极坐标系中建立机器人的目标间的坐标图。
[0029]
[0030] (5).根据步骤(4)中的机器人与目标间的关系得出机器人的线速度和角速度。
[0031]
[0032] 本发明的通过上述实施例实现机器人自主跟踪的目标,解决机器人自主识别目标、自主运动控制、自主定位的技术问题,并通过RGB-D摄像机获取图像,并通过分别从RGB图像和深度图像中读取位移数据,提高了位置精度;此外采用极坐标的建立机器人和跟踪目标的关系,提高跟踪速度;且通过采用差动轮可以实现360度跟踪。
[0033] 基于上述,本发明非完整机器人通过RGB-D摄像机实时采集机器人前方的视觉信息,利用RGB-D摄像机可同时采集深度图像和RGB图像的特点,根据采集的RGB图像来判断目标物体的水平横向位移;根据采集的深度图像来判断目标物体的水平纵向位移。通过部分坐标的选取可以把不同坐标系中的RGB图像数据和深度数据映射到同一个极坐标中;根据极坐标设计跟踪算法,从而实现对目标物体的跟踪。本发明实现了非完整机器人的目标跟踪,充分利用了 RGB-D摄像机的特点,通过分别利用深度图和RGB图的优点得到精度更高的目标位置解决了单独使用一种图像跟踪的误差较大的问题。
[0034] 以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明技术原理的前提下,还可以做出若干改进和变形,这些改进和变形也应视为本发明的保护范围。