融合RGBD多模态信息的行人轮廓跟踪方法转让专利

申请号 : CN201910389276.6

文献号 : CN110111351A

文献日 :

基本信息:

PDF:

法律信息:

相似专利:

发明人 : 周雪周政邹见效徐红兵

申请人 : 电子科技大学

摘要 :

本发明公开了一种融合RGBD多模态信息的行人轮廓跟踪方法,构建包含RGB目标分割卷积网络模块、Depth目标分割卷积网络模块、特征图叠加模块、卷积模块和置信图融合模块的行人目标置信图获取模型,采用训练样本对行人目标置信图获取模型进行训练,在实际应用时,将RGB图像与Depth图像分别输入行人目标置信图,将得到的融合置信图作为引导主动轮廓进化的外部能量来获取目标轮廓。本发明引入了Depth图像作为输入,可以有效提高在背景光线不足或目标表观与背景表观相似的跟踪场景下的行人轮廓跟踪效果。

权利要求 :

1.一种融合RGBD多模态信息的行人轮廓跟踪方法,其特征在于,包括以下步骤:

S1:构建行人目标置信图获取模型,包括RGB目标分割卷积网络模块,Depth目标分割卷积网络模块、特征图叠加模块、卷积模块和置信图融合模块,其中:RGB目标分割卷积网络模块以RGB图像作为输入,输出为行人目标分割的置信图TRGB,将最后一层特征图FRGB输出至特征图叠加模块,将置信图TRGB输出至融合模块;

Depth目标分割卷积网络模块以RGB图像对应的Depth图像作为输入,输出为行人目标分割的置信图TDepth,将最后一层特征图FDepth输出至特征图叠加模块,将置信图TDepth输出至融合模块;

特征图叠加模块对特征图FRGB和特征图FDepth进行叠加,得到特征图Fsw并输出至卷积模块;

卷积模块用于对特征图FSW进行卷积操作,得到概率转换图SW并输出至融合模块,其中卷积操作表达式如下:SW=h(WSW*FSW+bSW)

其中,WSW和bSW分别为1*1卷积核的权重参数和偏置项权重参数,h(·)表示激活函数;

置信图融合模块根据概率转换图SW,对接收的置信图TRGB、置信图TDepth进行融合,得到融合后的置信图Tfused,其中融合操作表达式如下:Tfused=SW⊙TRGB+(1-SW)⊙TDepth

其中,⊙表示对应元素相乘;

S2:获取若干训练样本,每个训练样本包括包含行人目标的RGB图像、对应Depth图像以及行人目标分割标签,行人目标分割标签用于表征各个像素是属于行人目标还是背景;

S3:对行人目标置信图获取模型采用以下方法进行训练:

S3.1:采用训练样本中的RGB图像作为输入,对RGB目标分割卷积网络模块进行训练,训练过程中对输出的置信图采用阈值法获取行人目标分割结果,与行人目标分割标签进行误差计算;

S3.2:采用训练样本中的Depth图像作为输入,对Depth目标分割卷积网络模块进行训练,训练过程中对输出的置信图采用阈值法获取行人目标分割结果,与行人目标分割标签进行误差计算;

S3.3:将行人目标置信图获取模型中RGB目标分割卷积网络模块按照步骤S3.1的训练结果进行初始化,Depth目标分割卷积网络模块按照步骤S3.2的训练结果进行初始化,采用训练样本中的RGB图像作为RGB目标分割卷积网络模块的输入,对应的Depth图像作为Depth目标分割卷积网络模块的输入,对行人目标置信图获取模型进行训练,训练过程中对输出的融合置信图采用阈值法获取行人目标分割结果,与行人目标分割标签进行误差计算;

S4:获取行人视频序列,手工标定第一帧图像中行人的轮廓,然后对于后续图像,将RGB图像和对应的Depth图像输入行人目标置信图获取模型,得到融合置信图,将融合置信图作为轮廓演化的外部能量输入引导轮廓进行演化,得到当前图像行人轮廓跟踪结果。

2.根据权利要求1所述的行人轮廓跟踪方法,其特征在于,所述RGB目标分割卷积网络模块和Depth目标分割卷积网络模块采用OSVOS网络,当OSVOS网络的输入为Depth图像时,需要将单通道的Depth图像转换成三通道的图像,具体方法为:首先对Depth图像进行空洞填充,然后对空洞填充后的Depth图像进行编码,生成三通道的RGB图像。

3.根据权利要求1所述的行人轮廓跟踪方法,其特征在于,所述步骤S3.2中,构建了一个概率转换图SW的伪标签YSW去引导概率转换图SW的学习,YSW的定义为以下公式所示:YSW=TRGB⊙Y+(1-TRGB)⊙(1-Y)

其中,Y表示训练样本中的行人目标分割标签;

YSW为1则表明RGB图像的置信图所得到的行人目标分割结果与行人目标分割标签一致,此时RGB图像的预测结果是可靠的,YSW将引导概率转换图SW增大对RGB图像置信图的权重,相应地Depth图像置信图的权重将减小;若为0,则表明RGB图像的置信图所得到的行人目标分割结果与行人目标分割标签不一致,此时RGB图像的预测结果不可靠,YSW将引导概率转换图SW减小RGB图像置信图的权重,相应地Depth图像置信图的权重将增大。

4.根据权利要求1所述的行人轮廓跟踪方法,其特征在于,所述步骤S4中采用DRLSE LevelSet模型进行轮廓演化。

5.根据权利要求1至4任一所述的行人轮廓跟踪方法,其特征在于,还包括对行人目标置信图获取模型进行在线更新,具体步骤包括:(1)对上一帧的融合置信图采用阈值法获取行人目标分割结果,判断上一帧行人目标所包含像素数量是否小于预设阈值,如果是,则不对行人目标置信图获取模型进行更新,否则进入步骤(2);

(2)对上一帧的融合置信图采用阈值法获取出行人目标分割结果,计算上一帧中各个背景像素与行人目标区域的最小距离,行人目标区域像素的距离设置为0,从而得到距离矩阵;然后对当前帧的融合置信图采用阈值法获取出行人目标分割结果,对于行人目标中的每个像素,从上一帧的距离矩阵中查询得到距离值,如果小于等于预设阈值,则不作任何操作,如果大于预设阈值,则将该像素设置为背景像素;

(3)根据第一帧图像手工标定的行人轮廓得到行人目标分割标签,将其RGB图像、对应Depth图像和行人目标分割标签作为一个更新样本;根据步骤(2)优化后的当前帧的行人目标分割结果得到行人目标分割标签,将其RGB图像、对应Depth图像和行人目标分割标签作为一个更新样本;在以上两个更新样本中选择一个作为本次行人目标置信图获取模型在线更新所使用的更新样本,对行人目标获取模型进行更新。

6.根据权利要求5所述的行人轮廓跟踪方法,其特征在于,所述更新样本选择时,当前帧更新样本的使用概率高于第一帧更新样本。

说明书 :

融合RGBD多模态信息的行人轮廓跟踪方法

技术领域

[0001] 本发明属于计算机视觉技术领域,更为具体地讲,涉及一种融合RGBD多模态信息的行人轮廓跟踪方法。

背景技术

[0002] 作为计算机视觉研究领域中极具重要意义的视觉任务之一,目标跟踪包含模式识别、图像处理等先进技术。目标跟踪任务的内容为根据给定视频序列指定帧中所感兴趣目标的位置信息,依次在后续连续帧中将目标找出并给出其位置信息。近年来,随着计算机学科技术的不断发展且生活与工作中越来越多的实际应用需求,目标跟踪算法的研究已经成为计算机视觉领域的一个大热点。
[0003] 在目前的目标跟踪算法中,绝大多数成熟的跟踪算法都是基于RGB彩色图像的,一是因为目前的RGB图像成像技术是最成熟的,无论是手机或是相机都可以轻松获取大量质量很好的图像,也正是因为如此基于RGB彩色图像的视觉数据集也是极为丰富的,其次是因为在RGB图像上携带了足够丰富的信息,如可以在RGB图像上提取如彩色直方图、HOG、LBP等多种特征信息,这也是其成为视觉任务主要数据来源的最重要原因之一。然而,尽管其拥有如此多的优点,但在现实场景中也存在仅依赖RGB图像无法解决的问题,如在RGB图像中目标物体与背景表观比较相似或是环境光线较暗等等情况。为了弥补单一的RGB图像信息带来的跟踪效果不足,目前很多的跟踪算法也已经引入了如光流图或Depth(深度)图像来作为RGB图像的补充以提高跟踪效果。
[0004] Depth图像与RGB彩色图像不同,Depth图像从直观上看是一种记录距离数据的图像,其图片每个像素值记录的是成像物体每个位置到摄像头的距离。Depth图像一般为16位单通道图像,其显示效果和常见的单通道灰度图一样,视觉上成像物体离摄像头越近,Depth图像的像素值越小所以灰度显示越暗,离摄像头越远像素值越大灰度显示越亮。由于Depth图像具有不受光照变化影响且只与距离有关等特性,在一些特定的跟踪场景中如环境光线微弱,背景与目标表观相近等场景,融合Depth图像可以帮助解决由于RGB图像表观信息失效而导致跟踪效果变差的问题。
[0005] 在目标的跟踪形式上,主要分为基于boundingbox(目标包围框)的跟踪与基于轮廓的跟踪。所谓的基于boundingbox的跟踪即在跟踪目标上使用矩形框或椭圆形框进行跟踪目标的表达,该种跟踪方式较为简单,但形态固定,对于非刚性目标的表达缺乏灵活性。而对于轮廓的跟踪方式,其是对于目标形体边缘的跟踪,该种跟踪方式需要进行较为复杂的数学计算,但它对于非刚性目标的表达确实十分灵活,能够详细的提供目标形态的信息以及变化,是十分具有意义的跟踪方式。就目前而言,如何将Depth图像融入轮廓跟踪中还是一个有待解决的技术问题。

发明内容

[0006] 本发明的目的在于克服现有技术的不足,提供一种融合RGBD多模态信息的行人轮廓跟踪方法,结合使用RGB图像与Depth图像,提高在背景光线不足或目标表观与背景表观相似的跟踪场景下的行人轮廓跟踪效果。
[0007] 为实现上述发明目的,本发明融合RGBD多模态信息的行人轮廓跟踪方法包括以下步骤:
[0008] S1:构建行人目标置信图获取模型,包括RGB目标分割卷积网络模块,Depth目标分割卷积网络模块,特征图叠加模块,卷积模块和置信图融合模块,其中:
[0009] RGB目标分割卷积网络模块以RGB图像作为输入,输出为行人目标分割的置信图TRGB,将最后一层特征图FRGB输出至特征图叠加模块,将置信图TRGB输出至融合模块;
[0010] Depth目标分割卷积网络模块以RGB图像对应的Depth图像作为输入,输出为行人目标分割的置信图TDepth,将最后一层特征图FDepth输出至特征图叠加模块,将置信图TDepth输出至融合模块;
[0011] 特征图叠加模块对特征图FRGB和特征图FDepth进行叠加,得到特征图FSW并输出至卷积模块;
[0012] 卷积模块用于对特征图FSW进行卷积操作,得到概率转换图SW并输出至融合模块,其中卷积操作表达式如下:
[0013] SW=h(WSW*FSW+bSW)
[0014] 其中,WSW和bSW分别为1*1卷积核的权重参数和偏置项权重参数,h(·)表示激活函数;
[0015] 置信图融合模块根据概率转换图SW,对接收的置信图TRGB、置信图TDepth进行融合,得到融合后的置信图Tfused,其中融合操作表达式如下:
[0016] Tfused=SW⊙TRGB+(1-SW)⊙TDepth
[0017] 其中,⊙表示对应元素相乘;
[0018] S2:获取若干训练样本,每个训练样本包括包含行人目标的RGB图像、对应Depth图像以及行人目标分割标签,行人目标分割标签用于表征各个像素是属于行人目标还是背景;
[0019] S3:对行人目标置信图获取模型采用以下方法进行训练:
[0020] S3.1:采用训练样本中的RGB图像作为输入,对RGB目标分割卷积网络模块进行训练,训练过程中对输出的置信图采用阈值法获取行人目标分割结果,与行人目标分割标签进行误差计算;
[0021] S3.2:采用训练样本中的Depth图像作为输入,对Depth目标分割卷积网络模块进行训练,训练过程中对输出的置信图采用阈值法获取行人目标分割结果,与行人目标分割标签进行误差计算;
[0022] S3.3:将行人目标置信图获取模型中RGB目标分割卷积网络模块按照步骤S3.1的训练结果进行初始化,Depth目标分割卷积网络模块按照步骤S3.2的训练结果进行初始化,采用训练样本中的RGB图像作为RGB目标分割卷积网络模块的输入,对应的Depth图像作为Depth目标分割卷积网络模块的输入,对行人目标置信图获取模型进行训练,训练过程中对输出的融合置信图采用阈值法获取出行人目标分割结果,与行人目标分割标签进行误差计算;
[0023] S4:获取行人视频序列,手工标定第一帧图像中行人的轮廓,然后对于后续图像,将RGB图像和对应的Depth图像输入行人目标置信图获取模型,得到融合置信图,将融合置信图作为轮廓演化的外部能量输入引导轮廓进行演化,得到当前图像行人轮廓跟踪结果。
[0024] 本发明融合RGBD多模态信息的行人轮廓跟踪方法,构建包含RGB目标分割卷积网络模块、Depth目标分割卷积网络模块、特征图叠加模块、卷积模块和置信图融合模块的行人目标置信图获取模型,采用训练样本对行人目标置信图获取模型进行训练,在实际应用时,将RGB图像与Depth图像分别输入行人目标置信图,将得到的融合置信图作为引导主动轮廓进化的外部能量来获取目标轮廓。本发明引入了Depth图像作为输入,可以有效提高在背景光线不足或目标表观与背景表观相似的跟踪场景下的行人轮廓跟踪效果。

附图说明

[0025] 图1是本发明融合RGBD多模态信息的行人轮廓跟踪方法的具体实施方式流程图;
[0026] 图2是本发明中行人目标置信图获取模型的结构图;
[0027] 图3是本实施例中OSVOS网络结构图;
[0028] 图4是本实施例中基于OSVOS网络的行人目标置信图获取模型的结构图;
[0029] 图5是本实施例中Depth图像转换为RGB图像的示例图;
[0030] 图6是本实施例中行人目标置信图获取模型在线更新的流程图;
[0031] 图7是本实施例中本发明与三种对比方法对行人视频序列1的行人轮廓跟踪结果对比图;
[0032] 图8是本实施例中本发明与三种对比方法对行人视频序列1的行人目标与真实行人目标的区域相似度曲线对比图;
[0033] 图9是本实施例中本发明与三种对比方法对行人视频序列1的行人轮廓跟踪结果与真实行人轮廓的精度曲线对比图;
[0034] 图10是本实施例中本发明与三种对比方法对行人视频序列2的行人轮廓跟踪结果对比图;
[0035] 图11是本实施例中本发明与三种对比方法对行人视频序列2的行人目标与真实行人目标的区域相似度曲线对比图;
[0036] 图12是本实施例中本发明与三种对比方法对行人视频序列2的行人轮廓跟踪结果与真实行人轮廓的精度曲线对比图。

具体实施方式

[0037] 下面结合附图对本发明的具体实施方式进行描述,以便本领域的技术人员更好地理解本发明。需要特别提醒注意的是,在以下的描述中,当已知功能和设计的详细描述也许会淡化本发明的主要内容时,这些描述在这里将被忽略。
[0038] 实施例
[0039] 图1是本发明融合RGBD多模态信息的行人轮廓跟踪方法的具体实施方式流程图。如图1所示,本发明融合RGBD多模态信息的行人轮廓跟踪方法的具体步骤包括:
[0040] S101:构建行人目标置信图获取模型:
[0041] 图2是本发明中行人目标置信图获取模型的结构图。如图2所示,本发明中行人目标置信图获取模型包括RGB目标分割卷积网络模块、Depth目标分割卷积网络模块、特征图叠加模块、卷积模块和置信图融合模块,下面分别对各个模块进行详细说明。
[0042] RGB目标分割卷积网络模块以RGB图像作为输入,输出为行人目标分割的置信图TRGB,将最后一层特征图FRGB输出至特征图叠加模块,将置信图TRGB输出至融合模块。
[0043] Depth目标分割卷积网络模块以RGB图像对应的Depth图像作为输入,输出为行人目标分割的置信图TDepth,将最后一层特征图FDepth输出至特征图叠加模块,将置信图TDepth输出至融合模块。
[0044] 特征图叠加模块对特征图FRGB和特征图FDepth进行叠加,得到特征图FSW并输出至卷积模块。
[0045] 卷积模块用于对特征图FSW进行卷积操作,得到概率转换图SW并输出至融合模块,其中卷积操作表达式如下:
[0046] SW=h(WSW*FSW+bSW)
[0047] 其中,WSW和bSW分别为1*1卷积核的权重参数和偏置项权重参数,h(·)表示激活函数,本实施例中采用Sigmoid函数。
[0048] 在本实施例中,概率转换图SW为一个单通道的图像,其像素值在[0,1],其在融合中起到了权衡RGB图像的置信图与Depth图像置信图的决策作用。
[0049] 置信图融合模块根据概率转换图SW,对接收的置信图TRGB、置信图TDepth进行融合,得到融合后的置信图Tfused,其中融合操作表达式如下:
[0050] Tfused=SW⊙TRGB+(1-SW)⊙TDepth
[0051] 其中,⊙表示对应元素相乘。
[0052] 本实施例在根据置信图Tfused获取目标分割结果时采用阈值法,即置信图Tfused的像素值大于预设阈值,则将其作为行人目标,否则不作为行人目标。
[0053] 在本发明中,RGB目标分割卷积网络模块和Depth目标分割卷积网络模块的性能对于本发明的行人轮廓跟踪结果的优劣影响较大,因此在实际应用中,可以根据需要优选目标分割卷积网络。经过多方比较和研究,本实施例中优选OSVOS(One-Shot Video Object Segmentation,单镜头视频对象分割)网络作为目标分割卷积网络。OSVOS网络是一种基于深度学习的目标分割网络,基于FCN(Fully Convolutional Networks,全卷积神经网络)框架,可以将学习到的信息转移到通用语义信息,实现前景分割。图3是本实施例中OSVOS网络结构图。如图3所示,OSVOS网络包括5组用于提取特征的卷积组(conv1~conv5)和一层用于融合所有叠加特征图的融合卷积层(conv final),卷积组conv2~conv5输出的特征图经上采样后进行叠加输入融合卷积层,叠加得到的51通道特征图即为最后一层特征图,以两幅51通道特征图经特征图叠加模块叠加后即可形成102通道的特征图,融合卷积层(conv final)的输出的即为置信图。OSVOS网络的具体结构和工作过程可以参见文献“One-Shot Video Object Segmentation,S.Caelles,K.K.Maninis,J.Pont-Tuset,L.Leal-Taixé,D.Cremers,and L.Van Gool,Computer Vision and Pattern Recognition(CVPR),2017”。
[0054] 图4是本实施例中基于OSVOS网络的行人目标置信图获取模型的结构图。如图4所示,将RGB图像和Depth图像分别输入一个OSVOS网络,将置信图输出至卷积模块Conv-sw得到概率转换图SW,将最后一层特征图输入至置信图融合模块fuse,由置信图融合模块fuse进行融合操作得到融合置信图。
[0055] 由于目前的OSVOS网络主要针对RGB三通道图像,而Depth目标分割卷积网络模块的输入为单通道的Depth图像,因此本实施例中,需要将单通道的Depth图像转换成三通道的图像,具体方法为:
[0056] 首先对Depth图像进行空洞填充。这是因为Kinect等Depth图像采集设备的成像原理原因,导致所获取的Depth图像有的像素值为无效距离值0,从直观的视觉上看是一片黑色的空洞区域,而大面积的空洞区域对于Depth图像的使用是存在严重影响的,因此需要进行空洞的填充。本实施例在Depth图像的空洞填充处理上使用的是NYU Depth分割数据集工具箱中所提供的空洞填充方法,其原理是基于Anat Levin等人提出的着色化方法(Colorization using optimization),其具体过程在此不再赘述。
[0057] 然后对空洞填充后的Depth图像进行编码,生成三通道的RGB图像。本实施例中使用Jet colormap的编码方式来对Depth图像进行编码,将其转换为RGB图像。Colormap(色图)是一个m*3的实数矩阵,每一行定义的是一种颜色的RGB向量,而Jet colormap则表示从蓝到红,中间经过青绿、黄和橙色,故通过将Depth图像中不同深度值对应到Jet colormap中逐渐变化的颜色以表示逐渐变化的深度距离,如蓝代表近处,然后随着深度的增加,相应对应的色图颜色也逐渐增加变化,最终到由红色代表的最远处。这种编码方式同时兼顾了深度信息有效性和计算效率,是一种整体较为均衡的编码方式。
[0058] 图5是本实施例中Depth图像转换为RGB图像的示例图。如图5所示,经过空洞填充和编码,就可以将Depth图像转换为RGB图像,该RGB图像与训练样本中原始的RGB图像不同,该RGB图像仅是采用RGB编码来表示深度信息。
[0059] S102:获取训练样本:
[0060] 获取若干训练样本,每个训练样本包括包含行人目标的RGB图像、对应Depth图像以及行人目标分割标签,行人目标分割标签用于表征各个像素是属于行人目标还是背景,是一幅二值图像。训练样本可以在现有通用样本库中选取,也可以自行获取。
[0061] S103:行人目标置信图获取模型训练:
[0062] 接下来需要对行人目标置信图获取模型进行训练。由于本发明中行人目标置信图获取模型采用了双通道结构模型,为了获取更好的性能,不宜直接进行端到端的训练,而是需要分步进行,即采用“先部分后整体”的训练模式,具体方法如下:
[0063] S3.1:RGB目标分割卷积网络模块训练:
[0064] 采用训练样本中的RGB图像作为输入,对RGB目标分割卷积网络模块进行训练,训练过程中对输出的置信图采用阈值法获取行人目标分割结果,与行人目标分割标签进行误差计算。
[0065] S3.2:Depth目标分割卷积网络模块训练:
[0066] 采用训练样本中的Depth图像作为输入,对Depth目标分割卷积网络模块进行训练,同样地,训练过程中对输出的置信图采用阈值法获取行人目标分割结果,与行人目标分割标签进行误差计算。
[0067] 由于本实施例中两个目标分割卷积网络采用OSVOS网络,由于基础网络参数能够直接获取,所以基础网络的训练阶段则可以省略而直接对两个使用不同输入信息的单通道网络模型分别进行训练,它们卷积层的参数都可以直接从已训练好的基础网络中迁移过来。每个OSVOS需要经过三个阶段,具体参数为:学习策略选择step,即在迭代达到一定次数时将学习率按照给定的gamma值进行降低;基础学习率设为10-8;gamma衰减率为0.1;stepsize为衰减步长,设为10000;weightdecay权值衰减率设为0.0002;itersize为10,即每次迭代同时送入10张图片进行训练。
[0068] S3.3:整体训练:
[0069] 将行人目标置信图获取模型中RGB目标分割卷积网络模块按照步骤S3.1的训练结果进行初始化,Depth目标分割卷积网络模块按照步骤S3.2的训练结果进行初始化,采用训练样本中的RGB图像作为RGB目标分割卷积网络模块的输入,对应的Depth图像作为Depth目标分割卷积网络模块的输入,对行人目标置信图获取模型进行训练,同样地,训练过程中对输出的融合置信图采用阈值法获取行人目标分割结果,与行人目标分割标签进行误差计算。
[0070] 本实施例中行人目标置信图获取模型卷积层参数值初始化为0,练迭代次数为20000次。
[0071] 为了实现对RGB图像的置信图或Depth图像的置信图的自动权衡,本实施例中构建了一个概率转换图SW的伪标签YSW去引导概率转换图SW的学习,YSW的定义为以下公式所示:
[0072] YSW=TRGB⊙Y+(1-TRGB)⊙(1-Y)
[0073] 其中,Y表示训练样本中的行人目标分割标签。
[0074] YSW为1则表明RGB图像的置信图所得到的行人目标分割结果与行人目标分割标签一致,此时RGB图像的预测结果是可靠的,YSW将引导概率转换图SW增大对RGB图像置信图的权重,相应地Depth图像置信图的权重将减小;若为0,则表明RGB图像的置信图所得到的行人目标分割结果与行人目标分割标签不一致,此时RGB图像的预测结果不可靠,YSW将引导概率转换图SW减小RGB图像置信图的权重,相应地Depth图像置信图的权重将增大。
[0075] S104:行人轮廓跟踪:
[0076] 获取行人视频序列,手工标定第一帧图像中行人的轮廓,然后对于后续图像,将RGB图像和对应的Depth图像输入行人目标置信图获取模型,得到融合置信图,将置信图作为轮廓演化的外部能量输入引导轮廓进行演化,得到当前图像行人轮廓跟踪结果。
[0077] 本实施例中采用DRLSE LevelSet模型进行轮廓演化,其演化方程可以表示如下:
[0078]
[0079] 其中,φ表示水平集函数,t表示时刻, 表示水平集函数梯度,其中p()为双势阱函数,p′()表示其一阶导数,δε(φ)表示Dirac函数,div()表示求取散度,该项表示距离正则化项,g表示边缘指示函数,α表示加权区域面积项系数。
[0080] 演化方程首项 为距离正则化项。演化方程第二项偏微分方程是GAC测地主动轮廓模型中所对应的方程,曲率和边缘梯度函数共同引
导曲线演化,曲率演化起到平滑曲线的作用,而曲线能够收敛到图像局部梯度最大值处依靠的是边缘梯度函数。演化方程第三项具有加快水平集演化和决定曲线演化方向的作用。
由于在本发明中是采用融合置信图来引导行人目标轮廓进行不断演化,因此需要将此项改为使用融合置信图,记融合置信图为ConfMap,则改变后的水平集演化方程如以下公式所示:
[0081]
[0082] 由于本发明行人目标置信图获取模型输出为单张的融合置信图,描述的是每个像素点属于前景目标的概率,数值范围p∈[0,1]。而在LevelSet演化方程中,融合置信图ConfMap要很好地引导轮廓进行进化则需要有正负值(即轮廓内外数值符号相异),取数值范围ConfMap∈[-1,1],所以需要将行人目标置信图获取模型输出的融合置信图进行映射,将其数值映射到[-1,1]范围内。本实施例中采用公式ConfMap=2p-1来进行映射,p表示原始输出的融合置信图。当ConfMap>0时,即在轮廓内部,曲线存在向外扩张的趋势;而当ConfMap<0时,即在轮廓外部,曲线存在向内收缩的趋势,若ConfMap=0时,此时一般处于轮廓边缘,此时则只由曲率和边缘梯度函数引导轮廓曲线演化使得其在边缘上变得平滑。ConfMap除了决定轮廓演化方向外,还决定着轮廓演化速度,其绝对值越大,轮廓演化速度越快。
[0083] 为了使本发明中的行人目标置信图获取模型更能够适应实际行人目标视频序列的变化,本实施例中还提出了一种在线跟踪更新策略,在完成行人轮廓跟踪后对行人目标置信图获取模型进行在线更新。图6是本实施例中行人目标置信图获取模型在线更新的流程图。如图6所示,本实施例中行人目标置信图获取模型在线更新的具体步骤包括:
[0084] S601:对上一帧的融合置信图采用阈值法获取行人目标分割结果,判断上一帧行人目标所包含像素数量是否小于预设阈值,如果是,则不对行人目标置信图获取模型进行更新,否则进入步骤S602。这是因为行人目标可能会被完全遮挡或走出视野,因此在进行更新之前需要计算当上一帧中行人目标前景像素的个数,若前景像素个数少于一定值则判定目标消失,此时将不会对网络进行在线更新,防止网络只学到背景信息而将目标信息给覆盖。
[0085] S602:当前帧行人目标分割结果优化:
[0086] 在基于判别式且用boundingbox标注目标的跟踪方法中,很多方法为了对判别器进行更新,其需要在先前帧已获取的目标位置附近进行正负样本的采集,再将采集到的正负样本来作为判别器更新训练的数据,而这样的做法是基于一般情况下相邻帧之间目标的位置变化不会过大这样一种已知的先验。而在视频目标分割中,由于输入的是整幅图像,故无法单独仅对目标进行样本采集,但是也同样可以基于这样一种先验来对当前帧的行人目标分割结果进行优化,从而得到更新数据,具体方法如下:
[0087] 对上一帧的融合置信图采用阈值法获取出行人目标分割结果,计算上一帧中各个背景像素与行人目标区域的最小距离,行人目标区域像素的距离设置为0,从而得到距离矩阵。然后对当前帧的融合置信图采用阈值法获取出行人目标分割结果,对于行人目标中的每个像素,从上一帧的距离矩阵中查询得到距离值,如果小于等于预设阈值,则认为其是真实行人目标像素,不作任何操作,如果大于预设阈值,则说明该像素大概率属于背景(基于两帧间目标前景位置变化不会过大的先验),将该像素设置为背景像素。由此便可将当前帧行人目标分割过程中超出范围外误分割的像素进行纠正,这也是为当前帧的分割结果作为下一次更新的数据标签做准确保证,防止网络更新的误差传播累积。
[0088] S603:获取更新样本进行模型更新:
[0089] 根据第一帧图像手工标定的行人轮廓得到行人目标分割标签,将其RGB图像、对应Depth图像和行人目标分割标签作为一个更新样本。根据步骤S602优化后的当前帧的行人目标分割结果得到行人目标分割标签,将其RGB图像、对应Depth图像和行人目标分割标签作为一个更新样本。在以上两个更新样本中选择一个作为本次行人目标置信图获取模型在线更新所使用的更新样本,对行人目标置信图获取模型进行更新。
[0090] 考虑到在得到的当前帧行人目标在可能活动的区域内也会出现误分割的情况,这样将无法通过距离判断来对其进行纠正,所以在进行更新的时候不能仅仅只将当前帧的行人目标分割结果作为更新的数据,否则会造成误差传播累积。由于在整个行人轮廓跟踪过程中,第一帧给定的标注信息始终是最可靠的(其余帧都是将行人目标分割结果来作为已知标注),因此每次进行更新都始终需要将第一帧也作为一个备选更新样本来对网络进行更新,也就说每次更新都有来自两帧的更新数据,一个是第一帧,另一个是当前帧,在二者中选择一个进行更新。通过使用第一帧的可靠信息可以有效抑制目标活动区域内误分割对网络更新产生的误差传播累积。
[0091] 经实验发现,在线更新中将对这两个更新样本进行交叉使用可以得到较好的效果,并且当前帧更新样本的使用概率较高,即次数更多些,而第一帧作为起防止误差传播累积的辅助作用,其使用概率较低,即次数相对要少些,这样可以使行人目标置信图获取模型既可以较好地适应实际需要,也可以保持良好的性能。在实际应用中,可以设置第一帧更新样本的使用周期,使用周期大于视频图像间隔,在未达到第一帧更新样本的使用周期时,采用当前帧更新样本进行在线更新,当达到第一帧更新样本的使用周期时,采用第一帧更新样本进行在线更新。
[0092] 为了更好地说明本发明的技术效果,采用自制的数据集进行行人轮廓跟踪测试验证。本次测试验证中采用仅使用RGB图像作为输入且以MaskTrack方法为置信图提取模块的轮廓跟踪方法(记为MT+LS)、仅使用RGB图像作为输入且以原OSVOS网络为置信图提取模块的轮廓跟踪方法(记为OVS+LS)、仅使用RGB图像作为输入并采用在线更新策略的OSVOS网络为置信图提取模块的轮廓跟踪方法(记为OVS+LS+UPD)作为对方方法,与本发明使用了在线更新策略且使用了Depth信息的行人轮廓跟踪方法的跟踪结果进行比较。
[0093] 图7是本实施例中本发明与三种对比方法对行人视频序列1的行人轮廓跟踪结果对比图。图8是本实施例中本发明与三种对比方法对行人视频序列1的行人目标与真实行人目标的区域相似度曲线对比图。图9是本实施例中本发明与三种对比方法对行人视频序列1的行人轮廓跟踪结果与真实行人轮廓的精度曲线对比图。
[0094] 图10是本实施例中本发明与三种对比方法对行人视频序列2的行人轮廓跟踪结果对比图。图11是本实施例中本发明与三种对比方法对行人视频序列2的行人目标与真实行人目标的区域相似度曲线对比图。图12是本实施例中本发明与三种对比方法对行人视频序列2的行人轮廓跟踪结果与真实行人轮廓的精度曲线对比图。
[0095] 根据图7至图12可知,采用本发明增加了Depth图像信息以及增加了在线更新策略的行人轮廓跟踪方法在光线昏暗以及目标表观与背景表观相似的跟踪场景中有着良好且稳定的跟踪效果。
[0096] 尽管上面对本发明说明性的具体实施方式进行了描述,以便于本技术领域的技术人员理解本发明,但应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。