基于多层次特征提取和上下文模型的目标检测转让专利

申请号 : CN201610056601.3

文献号 : CN105740891B

文献日 :

基本信息:

PDF:

法律信息:

相似专利:

发明人 : 刘波马增妍

申请人 : 北京工业大学

摘要 :

基于多层次特征提取和上下文模型的目标检测,本发明所构造的模型主要是统计了真实图片中图像之间的空间位置关系,从而可以提高目标检测的正确率。无论图像是同类别还是不同类,都会有一些特定的空间位置关系。首先对一副图片进行选择搜索,产生大量region proposals,然后对每一幅图片的所有region proposals进行特征提取,采用的是7层的卷积神经网络,最后用支持向量机进行分类。本发明给出一种新的找到最佳物体检测位置的方法。主要解决的技术问题是提供一种新的上下文模型,代替原有的非极大值抑制方法,用来获得更好的目标检测正确率。

权利要求 :

1.基于多层次特征提取和上下文模型的目标检测方法,其特征在于:本方法所构造的模型主要是统计了真实图片中图像之间的空间位置关系,从而可以提高目标检测的正确率;无论图像是同类别还是不同类,都会有一些特定的空间位置关系;人和自行车这两类图像,它俩之间的空间位置关系就只可能是人在自行车上(above),或者人在自行车的旁边(next-to),很少会出现自行车在人上(above)这种空间位置关系;人和人的空间位置关系一般都是人在人的旁边(next-to),很少有人在人上(above)的空间位置关系;该方法的主要步骤如下,S1构造上下文模型

首先构造一个上下文模型,用于捕获目标检测器之间的关系;用一系列有重合的窗口明确表示一副图片,第i个窗口的位置用其中心和长宽表示,写作Ii=(x,y,s),N表示一副图片有N个窗口,xi表示从第i个窗口提取的图片特征,整幅图片用X={xi:i=1,……N}表示,K代表图像类别个数,本方法所用的是PASCALLVOC数据集,所以K为20,yi∈{0,……,K}代表了第i个窗口的标签,0表示背景,Y={yi:i=1,……N};定义X,Y之间的分数为:其中wyi,yj表示yi类和yj类之间的权重,wyi表示类i的局部模板,dij表示窗口i和窗口j之间的空间位置关系,把位置关系分为,上面(above),下面(below),重叠(overlapping),旁边(next-to),近(near)和远(far),因此,dij是一个稀疏的一维向量,只有满足相互之间的空间位置关系的对应项会赋值为1;人与人之间的空间位置关系总是next-to,而不会是above,所以,above及其他位置的对应项赋值为0,而next-to赋值为1;

因为计算max S(X,Y)是非确定性多项式NP(non-deterministic polynomial)hard,所以本方法采用类似贪心算法(greedy algorithms)来解决NPhard问题;

I代表一系列实例化的窗口-类(window-class)I={pairs(i,c)},记Y(I)代表相关的标签向量,当所有的pairs在集合I中时,yi=c,否则yi=0;通过加窗口-类(window-class)pair(i,c)到集合I里来改变S(X,Y)的值,具体如下表示:(i,c)=S(X,Y(I{(i,C)}))-S(X,Y(I))初始化I={},S=0,(i,c)=wTcxi,迭代

1)(i*,c*)=argmax(i,j)I(i,c)

2)I=I{(i*,c*)}

3)S=S+(i*,c*)

4)

结束条件是(i*,c*)=0或者所有的窗口都实例化了;

S2用切平面最优化进行凸训练

为了描述本方法的学习算法,需要把公式(1)写成如下形式:

等价于S(X,Y)=WTΨ(X,Y)

其中,

即:

凸训练的目的是假设给定一系列训练图片Xi和标签Yi,希望得到一个W的最优模型,使得给定一副新的图片Xi,可以产生一个标签向量Y*=Yi;因此,凸训练的结果是得到W的最优模型,使得Y*和Yi的差值尽可能的小,凸训练得到W最优模型的这一过程既是求下列数学公式极值的过程,其中,ΔΨ(Xi,Yi,Hi)=Ψ(Xi,Yi)-Ψ(Yi,Hi),Hi是自己算出的标签,

为了方便最优化,把公式(3)的约束问题等价于公式(4)的无约束问题:其中

对上述公式(4)进行切平面最优化,即可得到W的最优模型;S3整体实施流程首先通过搜索算法得到图片的候选区域,其次采用Ross Girshick的已经训练好的7层卷积神经网络CNNS进行图像的特征提取,因为本方法的训练集和测试集都采用的PASCALL VOC数据集有20个类别,所以把Ross Girshick的7层CNNS网络结构的最后输出改成21即20个VOC类和1个背景类,最后用线性的支持向量机SVM进行图片分类,分类的过程中为了找到最佳物体检测的位置,用已经训练好的上下文模型进行更准确的定位,最终得到更好的目标检测正确率。

2.根据权利要求1所述的基于多层次特征提取和上下文模型的目标检测方法,其特征在于:算法步骤如下,

(1)对每一个窗口的向量Y初始化为背景类;

(2)贪心的选择不是背景类的单一窗口,最大限度的增加S(X,Y)的值;

(3)当选择任意一个窗口,S(X,Y)的值不增加反而减少时,停止。

说明书 :

基于多层次特征提取和上下文模型的目标检测

技术领域

[0001] 本发明属于计算机机器学习领域,具体是把机器学习算法应用到图像处理中的目标检测上,即定位图片中目标位置的一种算法。

背景技术

[0002] 目标检测是定位图像中目标位置的一种算法,它将目标的分割和识别合二为一。总结2010—2012年间,在标准的视觉检测PASCAL VOC数据集上训练的各种算法的平均查准率后,不难发现,算法进步缓慢,几乎都是集成系统或者在已有算法上的一点点改进。直到
2012年,Alex Krizhevsky应用卷积神经网络(Convolutional Neural Networks)在图像分类上并取得很大的进步,在Alex Krizhevsky的基础上,Ross Girshick提出了在PASCAL VOC数据集上应用卷积神经网络(Convolutional Neural Networks)提取图像的特征,并用线性的支持向量机(Support Vector Machine)进行分类,从而判断图像的所属类别即实现目标检测。
[0003] Ross Girshick的具体内容是首先对一副图片进行选择搜索,产生大量region proposals,然后对每一幅图片的所有region proposals进行特征提取,采用的是7层的卷积神经网络,最后用支持向量机进行分类。
[0004] 传统的目标检测算法一般都采用滑动窗口的方法来解决定位题,但是由于Ross Girshick采用的是7层卷积神经网络,在5层卷积后得到的图像大小已经很小了,不适合滑动窗口,而且滑动窗口耗时长。因此,Ross Girshick采用选择搜索的方法产生大量的region proposals。选择搜索通过分割方法将图分成多个regions,再用最小生成树算法合并像素点,构成一个个region proposals。第一步分割图片,把图像(Image)表示成图结构(Graph),Image中的每一个像素看成Graph中的每一个顶点,像素之间的关系构成Graph的边,边得权值是像素之间的灰度差值,用最小生成树算法合并像素点,构成一个个regions。第二部合并regions,首先计算所有regions之间两两的颜色相似度,纹理相似度,大小相似度,吻合相似度,再把这4种相似度组合起来,得到最终的相似度。根据相似度合并最像的2个regions,再重新计算新产生的region和其它剩下的regions的相似度。重复上述过程直到整张图片都聚合成了一个大的region,随机给每个region打分,并按分数进行排序,选出前K个子集。
[0005] 以Alex Krizhevsky提出的7层卷积神经网络为框架,对每一幅图片的所有region proposals进行特征提取。7层卷积神经网络中前5层是卷基层,后2层是全连接层。因为卷积神经网络的输入是固定格式的227*227,而经过选择搜索后得到的region proposals大小不定,所以,对每一个region proposal先进行长宽调整再输入网络。最后把从网络输出的结果用线性的支持向量机进行分类,从而进行目标检测。为了消除多余的框,找到最佳的物体检测的位置,一般采用非极大值抑制(non-maxima suppression)方法。
[0006] 发明目的
[0007] 本发明给出一种新的找到最佳物体检测位置的方法。主要解决的技术问题是提供一种新的上下文模型,代替原有的非极大值抑制(non-maxima suppression)方法,用来获得更好的目标检测正确率。
[0008] 本发明所构造的模型主要是统计了真实图片中图像之间的空间位置关系,从而可以提高目标检测的正确率。无论图像是同类别还是不同类,都会有一些特定的空间位置关系。比如人和自行车这两类图像,它俩之间的空间位置关系就只可能是人在自行车上(above),或者人在自行车的旁边(next-to),很少会出现自行车在人上(above)这种空间位置关系,再比如人和人的空间位置关系一般都是人在人的旁边(next-to),很少有人在人上(above)的空间位置关系。发明的流程如图1,主要步骤如下:
[0009] S1构造上下文模型
[0010] 首先构造一个上下文模型,用于捕获目标检测器之间的关系。用一系列有重合的窗口明确表示一副图片,第i个窗口的位置用其中心和长宽表示,写作Ii=(x,y,s),N表示一副图片有N个窗口,xi表示从第i个窗口提取的图片特征,整幅图片用X={xi:i=1,……N}表示,K代表图像类别个数(本方法所用的是PASCALL VOC数据集,所以K为20),yi∈{0,……,K}代表了第i个窗口的标签,0表示背景,Y={yi:i=1,……N}。定义X,Y之间的分数为:
[0011]
[0012] 其中wyi,yj表示yi类和yj类之间的权重,wyi表示类i的局部模板,dij表示窗口i和窗口j之间的空间位置关系,把位置关系分为,上面(above),下面(below),重叠(overlapping),旁边(next-to),近(near)和远(far),因此,dij是一个稀疏的一维向量,只有满足相互之间的空间位置关系的对应项会赋值为1。人与人之间的空间位置关系总是next-to,而不会是above,所以,above及其他位置的对应项赋值为0,而next-to赋值为1。
[0013] 因为计算max S(X,Y)是非确定性多项式NP(non-deterministic polynomial)hard,所以本方法采用类似贪心算法(greedy algorithms)来解决NP hard问题。算法步骤如下:
[0014] (1)对每一个窗口的向量Y初始化为背景类;
[0015] (2)贪心的选择不是背景类的单一窗口,最大限度的增加S(X,Y)的值;
[0016] (3)当选择任意一个窗口,S(X,Y)的值不增加反而减少时,停止;
[0017] I代表一系列实例化的窗口-类(window-class)I={pairs(i,c)},记Y(I)代表相关的标签向量,当所有的pairs在集合I中时,yi=c,否则yi=0;通过加窗口-类(window-class)pair(i,c)到集合I里来改变S(X,Y)的值,具体如下表示:
[0018] (i,c)=S(X,Y(I{(i,C)}))-S(X,Y(I))
[0019] 初始化I={},S=0,(i,c)=wTcxi,迭代
[0020] 1)(i*,c*)=argmax(i,j)I(i,c)
[0021] 2)I=I{(i*,c*)}
[0022] 3)S=S+(i*,c*)
[0023] 4)(i,c)=(i,c)+wTc*,cdi*,i+wTc,c*di,i*
[0024] 结束条件是(i*,c*)0或者所有的窗口都实例化了。
[0025] S2用切平面最优化进行凸训练
[0026] 为了描述本发明的学习算法,需要把公式(1)写成如下形式:
[0027]
[0028] 等价于S(X,Y)=WTΨ(X,Y)
[0029] 其中,
[0030] 即:
[0031] 凸训练的目的是假设给定一系列训练图片Xi和标签Yi,希望得到一个W的最优模型,使得给定一副新的图片Xi,可以产生一个标签向量Y*=Yi。因此,凸训练的结果是得到W的最优模型,使得Y*和Yi的差值尽可能的小,凸训练得到W最优模型的这一过程既是求下列数学公式极值的过程,
[0032]
[0033] s.t. ,Hi wTΔΨ(Xi,Yi,Hi)≥l(Yi,Hi)-ξi
[0034] 其中,ΔΨ(Xi,Yi,Hi)=Ψ(Xi,Yi)-Ψ(Yi,Hi),
[0035]
[0036] Hi是自己算出的标签,
[0037]
[0038] 为了方便最优化,把公式(3)的约束问题等价于公式(4)的无约束问题:
[0039]
[0040] 其中
[0041]
[0042] 对上述公式(4)进行切平面最优化,即可得到W的最优模型。
[0043] S3整体实施流程
[0044] 首先通过搜索算法得到图片的region proposals,其次采用Ross Girshick的已经训练好的7层卷积神经网络CNNS进行图像的特征提取,因为本发明的训练集和测试集都采用的PASCALL VOC数据集(有20个类别),所以把Ross Girshick的7层CNNS网络结构的最后输出改成21(20个VOC类和1个背景类),最后用线性的支持向量机SVM进行图片分类,分类的过程中为了找到最佳物体检测的位置,用已经训练好的上下文模型进行更准确的定位,最终得到更好的目标检测正确率。

附图说明

[0045] 图1为本发明方法的流程图。
[0046] 图2空间位置关系说明图。

具体实施方式

[0047] 如图1-2所示,根据上面的方法进行了实验。实验对比是否采用上下文模型目标检测的结果,本实验采用的是PASCALL VOC数据集,有20个类。由于本方法只保存了类别之间(同类或者非同类)7种空间位置关系,所以如果满足7种位置关系中的一种,那么相应的类别的目标检测正确率应该比没有采用上下文模型训练过的方法的目标检测正确率高,反之,如果相互之间没有确定的空间位置关系,则可能学习的上下文模型起到反面的作用,并且由于没有进行非极大值抑制(non-maxima suppression),可能会扰乱检测结果,导致相应的目标检测正确率下降。
[0048] 表1:实验结果对比
[0049]表1:实验结果对比Class 没有采用上下文模型(单位%) 采用了上下文模型(单位%)aero 66.9 70.7
bike 23.7 21.2
bird 58.3 53.7
boat 37.4 39.8
bottle 55.4 50.1
bus 73.3 35.8
car 58.7 34.8
cat 56.5 59.5
chair 9.7 9.6
cow 45.5 53
table 29.5 15.9
dog 49.3 43.6
horse 40.1 34
mbike 57.8 52.8
person 53.9 57.4
plant 33.8 13.3
sheep 60.7 36.9
soft 22.7 23.2
train 47.1 55.9
tv 41.3 41.9