基于改进的模糊颜色聚合向量的视频目标检测方法转让专利

申请号 : CN201610570768.1

文献号 : CN106446764B

文献日 :

基本信息:

PDF:

法律信息:

相似专利:

发明人 : 姬红兵殷鹏飞张文博徐艺萍刘龙

申请人 : 西安电子科技大学

摘要 :

本发明公开了一种基于改进模糊颜色聚合向量的目标检测方法,主要解决现有基于模糊颜色聚合向量方法对复杂场景目标检测准确率不高的问题。其实现步骤是:首先对输入视频集进行预处理,得到预处理之后的量化图像;其次分别对得到的量化图像计算改进的颜色聚合向量,并对得到的向量进行模糊聚类,得到隶属度矩阵;接着对之后的输入图像依据隶属度矩阵计算改进的模糊颜色聚合向量,并构建背景模型;最后通过计算当前帧与背景模型的相似度实现对目标的有效检测。本发明具有对复杂场景适应性更好,检测准确度更高的优点,可用于智能化交通、智能监控、突发事件检测、及医学导航手术中手术器械定位。

权利要求 :

1.一种基于模糊颜色聚合向量的视频目标检测方法,包括:

(1)对输入图像进行预处理:

(1a)读入第k帧彩色图像Ik,并将其转换到HSV颜色空间得到HSV图像Yk,其中,k表示时刻,初始时刻为k=1;

(1b)将HSV图像Yk进行等间隔量化,得到色度饱和度量化图像Yhsk和亮度量化图像Yvk;

(1c)分别将色度饱和度量化图像Yhsk和亮度量化图像Yvk做累加处理,得到色度饱和度累加图像YHS和亮度累加图像YV;

(1d)设p为需要累加的帧数,p=20,判断是否满足k>p,若是,则执行步骤(2)开始进行检测处理,否则,返回步骤(1a)继续读入图像;

(2)分别将色度饱和度累加图像YHS和亮度累加图像YV做平均处理,得到色度饱和度输入图像Ihs和亮度输入图像Iv;

(3)分别计算色度饱和度输入图像Ihs的改进颜色聚合向量 和亮度输入图像Iv的改进颜色聚合向量 其中 和 分别为所述两个输入图像Ihs、Iv的第i个颜色量化等级的聚合区域域像素个数, 和 分别为所述两个输入图像Ihs、Iv的第i个颜色量化等级的非聚合区域像素个数, 和 分别为所述两个输入图像Ihs、Iv的第i个颜色量化等级的最大聚合区域中心位置索引;

(4)计算聚合区域颜色相关子向量 非聚合区域颜色相关子向量 最大聚合区域中心位置相关子向量 其中xm表示第m个聚合区域颜色相关子向量,ym表示第m个非聚合区域颜色相关子向量, zm表示第m个最大聚合区域域中心位置相关子向量, m表示向量中第m个元素,m=1到M;

(5)分别对聚合区域相关子向量 非聚合区域相关子向量 最大聚合区域中心位置相关子向量 进行模糊c-means聚类,得到聚合区域隶属度矩阵Uα、非聚合区域隶属度矩阵Uβ、最大聚合区域中心位置隶属度矩阵Uγ;

(6)根据第g个像素点的聚合区域隶属度矩阵Uα、非聚合区域隶属度矩阵Uβ、最大聚合区域中心位置索引隶属度矩阵Uγ,计算改进的模糊颜色聚合向量 其中为第g个像素点相对于聚合区域的模糊颜色聚合向量, 为第g个像素点相对于非聚合区域的模糊颜色聚合向量, 为第g个像素点相对于最大聚合区域中心位置索引的模糊颜色聚合向量;

(7)根据改进的模糊颜色聚合向量Fg,计算当前帧与背景模型在g点处的相似度:其中,Bg表示第g个像素点的背景模型; 代表当前帧在g点处相对于第h类的聚合区域模糊颜色聚合向量, 代表背景模型在g点处相对于第h类的聚合区域模糊颜色聚合向量,代表当前帧在g点处相对于第h类的非聚合区域模糊颜色聚合向量, 代表背景模型在g点处相对于第h类的非聚合区域模糊颜色聚合向量, 代表当前帧在g点处相对于第h类的最大聚合区域索引向量, 代表背景模型在g点处相对于第h类的最大聚合区域索引向量,e1和e2分别代表0到1之间的不同值;

(8)根据相似度D(Fg,Bg),计算前景图像Ifore并更新背景模型Bg;

(9)判断下一时刻视频信息是否到达,若是,令k=k+1,返回步骤(6)进行迭代,否则,目标检测过程结束,输出前景图像Ifore。

2.根据权利要求1所述的方法,其中所述步骤(1b)中将HSV图像Yk进行等间隔量化,得到k k色度饱和度量化图像Yhs和亮度量化图像Yv,通过如下步骤确定:(1b1)将HSV图像Yk的H和S分量进行等间隔量化,得到色度饱和度量化图像Yhsk:其中,v3O=v1O×8+v2O,H代表HSV图像Yk的色度分量,S代表HSV图像Yk的饱和度分量,O代表像素总数,j代表第j个像素,H分量的量化等级为16级,每一级值为v1,S分量的量化等级为8级,其中每一级为v2,量化图像Yhsk为128级,其中每一级为v3;

(1b2)将HSV图像Yk的V分量进行等间隔量化,得到亮度量化图像Yvk:其中,V代表HSV图像Yk的亮度分量,V分量量化等级为128级,其中每一级为v4。

3.根据权利要求1所述的方法,其中步骤(3)中计算色度饱和度输入图像Ihs的改进颜色聚合向量 通过如下步骤进行:(3a)计算色度饱和度输入图像Ihs第i个颜色量化等级的阈值其中, 为色度饱和度输入图像Ihs中属于第i个量化等级的每个像素点周围3×3邻域范围内量化等级等于i的像素点个数,x=1…ni,ni为色度饱和度输入图像Ihs中属于第i个量化等级的像素点总数;

(3b)计算色度饱和度输入图像Ihs的阈值

其中,M表示总量化等级数;

(3c)计算色度饱和度输入图像Ihs的颜色聚合向量

其中,max(·)函数表示取输入图像中所有属于第i个颜色量化等级的最大连通区域,locate(·)函数表示取输入区域的中心位置坐标,in(·)函数表示将位置坐标转为索引。

4.根据权利要求1所述的方法,其中步骤(3)中计算亮度输入图像Iv的改进颜色聚合向量 通过如下步骤进行:(3d)计算亮度输入图像Iv第i个量化等级的阈值τiv:其中, 为亮度输入图像Iv中属于第i个量化等级的每个像素点周围3×3邻域范围内量化等级等于i的像素点个数,y=1…mi,mi为亮度图像Iv中属于第i个量化等级的像素点总数;

(3e)计算亮度输入图像Iv的阈值

其中,M表示总量化等级数;

(3f)计算亮度输入图像Iv的颜色聚合向量

其中,max(·)函数表示取输入图像中所有属于第i个颜色量化等级的最大连通区域,locate(·)函数表示取输入区域的中心位置坐标,in(·)函数表示将位置坐标转为索引。

5.根据权利要求1所述的方法,其中步骤(8)中根据相似度D(Fg,Bg),计算前景图像Ifore,通过如下公式计算:其中, 表示前景图像的第g个像素点的值,N表示总像素数,τ为分割阈值,τ=0...1。

说明书 :

基于改进的模糊颜色聚合向量的视频目标检测方法

技术领域

[0001] 本发明属于图像处理技术领域,特别涉及一种视频目标检测方法,可用于智能化交通系统、智能监控系统、突发事件检测、及医学导航手术中手术器械定位。

背景技术

[0002] 随着计算机科学与人工智能的发展和应用,各种数字多媒体技术发展迅速,其中包括视频监督、目标跟踪、运动理解、异常检测等。而视频目标检测技术是上述众多应用领域中图像分析的基础。视频目标检测的结果直接影响后续算法的准确性,为目标的跟踪、分类、行为描述及理解等更高层次视频处理提供支持和保障。因此,如何提高目标检测的准确性和鲁棒性,成为视频图像处理研究中的重点问题。
[0003] 目前,针对视频目标的检测方法主要有:减背景法、光流法和帧间差分法等。其中减背景法通过为背景建立多个稳健的背景模型并且不断更新,从而可以适应动态纹理背景下的检测,因此该方法发展迅速,产生了众多改进方法。其中比较有代表性的是基于区域的方法。
[0004] 基于区域的方法是将图像分为众多区域块,提取每一个区域块的相关特征,从而利用特征建立背景模型,进而完成前景目标检测。由于此类方法是基于区域块的特征提取,相对于基于像素的方法可以更好地抑制噪声以及奇异值,因此可以建立更加鲁棒的背景模型。基于颜色直方图的背景建模方法是其中比较有代表性的方法,该方法通过建立区域的颜色直方图特征,从而得到鲁棒的背景模型。但该方法仅利用了区域的颜色统计信息因此对于颜色相似的场景区分准确率不高。基于模糊颜色聚合向量的方法改进了上述方法,通过生成区域的颜色聚合向量,并对其进行模糊聚类从而构建鲁棒的背景模型。但是在某些复杂场景中,即使不同的图像区域仍然会产生相同的颜色聚合向量,导致检测准确率不高。

发明内容

[0005] 本发明的目的在于提出一种基于改进的模糊颜色聚合向量的视频目标检测方法,以解决颜色聚合向量在复杂条件下检测准确率低的问题,提高视频目标检测的精度以及稳定性。
[0006] 实现本发明的技术关键是:在模糊颜色聚合向量方法的基础上,用改进的颜色聚合向量特征取代原有的颜色聚合向量特征,引入像素聚合区域的空间位置信息,从而区分实际不同但颜色聚合向量相同的区域,同时改变图像量化策略,使得不同颜色分量的比重更加合理,从而提升检测精度。其具体实现步骤包括如下:
[0007] (1)预处理:
[0008] (1a)读入第k帧彩色图像Ik,并将其转换到HSV颜色空间得到HSV图像Yk,其中,k表示时刻,初始时刻为k=1;
[0009] (1b)将HSV图像Yk进行等间隔量化,得到色度饱和度量化图像Yhsk和亮度量化图像Yvk;
[0010] (1c)分别将色度饱和度量化图像Yhsk和亮度量化图像Yvk做累加处理,得到色度饱和度累加图像YHS和亮度累加图像YV;
[0011] (1d)设p为需要累加的帧数,p=20,判断是否满足k>p,若是,则执行步骤(2)开始进行检测处理,否则,返回步骤(1a)继续读入图像;
[0012] (2)分别将色度饱和度累加图像YHS和亮度累加图像YV做平均处理,得到色度饱和度输入图像Ihs和亮度输入图像Iv;
[0013] (3)分别计算色度饱和度输入图像Ihs和亮度输入图像Iv的改进颜色聚合向量:
[0014] (3a)分别计算色度饱和度输入图像Ihs和亮度输入图像Iv的阈值 和其中i表示第i个量化等级,i=1…M,M表示总量化等级, 表示Ihs的第i个颜色等级阈值,表示Iv的第i个颜色等级阈值;
[0015] (3b)计算色度饱和度输入图像Ihs的聚合区域像素个数 非聚合区域像素个数 最大聚合区域中心位置索引 以及亮度输入图像Iv的聚合区域像素个数 非聚合区域像素个数 最大聚合区域中心位置索引
[0016] 其中 和 分别为色度饱和度输入图像Ihs和亮度输入图像Iv的第i个颜色量化等级的聚合区域像素个数, 和 分别为色度饱和度输入图像Ihs和亮度输入图像Iv的第i个颜色量化等级的非聚合区域像素个数, 和 分别为色度饱和度输入图像Ihs和亮度输入图像Iv的第i个颜色量化等级的最大聚合区域中心位置索引;
[0017] (4)计算聚合区颜色相关子向量 非聚合区颜色相关子向量 最大聚合区域中心位置相关子向量 其中xm表示第m个聚合区颜色相关子向量,ym表示第m个非聚合区颜色相关子向量, zm表示第m个
最大聚合区域中心位置相关子向量, m表示向量中第m个元素m=1到M;
[0018] (5)分别对聚合区相关子向量 非聚合区相关子向量 最大聚合区域中心位置相关子向量 进行模糊c-means聚类,得到聚合区隶属度矩阵Uα、非聚合区非聚合区Uβ、最大聚合区域中心位置隶属度矩阵Uγ;
[0019] (6)根据第g个像素点的聚合区隶属度矩阵Uα、非聚合区非聚合区隶属度矩阵Uβ、最大聚合区域中心位置隶属度矩阵Uγ,计算改进的模糊颜色聚合向量 其中为第g个像素点相对于聚合区域的模糊颜色聚合向量, 为第g个像素点相对于非聚合区域的模糊颜色聚合向量, 为第g个像素点相对于最大聚合区域索引位置的模糊颜色聚合向量;
[0020] (7)根据改进的模糊颜色聚合向量Fg,计算当前帧与背景模型在g点处的相似度D(Fg,Bg):
[0021]
[0022] 其中,Bg表示第g个像素点的背景模型; 代表当前帧在g点处相对于第h类的聚合区域模糊颜色聚合向量, 代表背景模型在g点处相对于第h类的聚合区域模糊颜色聚合向量, 代表当前帧在g点处相对于第h类的非聚合区域模糊颜色聚合向量, 代表背景模型在g点处相对于第h类的非聚合区域模糊颜色聚合向量, 代表当前帧在g点处相对于第h类的最大聚合区域索引向量, 代表当前帧在g点处相对于第h类的最大聚合区域索引向量,e1和e2分别代表0到1之间的不同值;
[0023] (8)根据相似度D(Fg,Bg),计算前景图像Ifore并更新背景模型Bg;
[0024] (9)判断下一时刻视频信息是否到达,若是,令k=k+1,返回步骤(6)进行迭代,否则,目标检测过程结束,输出前景图像Ifore。
[0025] 本发明具有以下优点:
[0026] 本发明由于在原有的基于模糊颜色聚合向量方法中引入改进的模糊颜色聚合向量特征,加入了聚合区域的位置信息,使得在利用背景建模方法进行目标检测的过程中对复杂场景的检测精确度进一步提高;同时由于改变了图像量化策略,使得对不同颜色分布的场景更加鲁棒。

附图说明

[0027] 图1是本发明的整体流程图;
[0028] 图2是用本发明与现有基于模糊颜色聚合向量方法对waterfall测试集进行目标检测的结果图;
[0029] 图3是用本发明与现有基于模糊颜色聚合向量方法对campus测试集进行目标检测的结果图;
[0030] 图4是用本发明与现有基于模糊颜色聚合向量方法对curtain测试集进行目标检测的结果图;
[0031] 图5是用本发明与现有基于模糊颜色聚合向量方法对watersurface测试集进行目标检测的结果图。

具体实施方式

[0032] 以下参照附图,对本发明的技术方案和效果进行进一步说明:
[0033] 参照图1,本发明的具体实施过程包括以下步骤:
[0034] 步骤1.预处理输入图像。
[0035] 1.1)读入第k帧彩色图像Ik,并将其转换到HSV颜色空间,得到HSV图像Yk:
[0036] Yk=[H,S,V],   <1>
[0037] 其中k表示时刻,初始时刻为k=1,H代表色度分量,S代表饱和度分量,V代表亮度分量;
[0038] 1.2)将HSV图像Yk进行等间隔量化,得到色度饱和度量化图像Yhsk和亮度量化图像Yvk:
[0039] 1.2.1)将HSV图像Yk的H和S分量进行等间隔量化,得到色度饱和度量化图像Yhsk:
[0040]
[0041] 其中,v3j=v1j×8+v2j表示色度饱和度量化图像Yhsk的第j个像素点的量化等级,j=1...O,O代表像素总数,v1j表示第j个像素点H分量的量化等级,v2j表示第j个像素点S分量的量化等级;H分量的量化等级为16级,每一级值为v1,S分量的量化等级为8级,其中每一级为v2,量化图像Yhsk为128级,其中每一级为v3;
[0042] 1.2.2)将HSV图像Yk的V分量进行等间隔量化,得到亮度量化图像Yvk:
[0043]
[0044] 其中v4j表示亮度图像Yk第j个像素点的量化等级;
[0045] 1.3)分别将色度饱和度量化图像Yhsk和亮度量化图像Yvk做累加处理,得到色度饱和度累加图像YHS和亮度累加图像YV:
[0046]
[0047]
[0048] 其中p为需要累加的帧数,p=20;
[0049] 1.4)判断是否满足k>p,若是,则执行步骤(2)开始进行检测处理,否则,返回步骤(1a)继续读入图像;
[0050] 1.5)分别将色度饱和度累加图像YHS和亮度累加图像YV做平均处理,得到色度饱和度输入图像Ihs和亮度输入图像Iv:
[0051] Ihs=YHS/p,   <6>
[0052] Iv=YV/p。   <7>
[0053] 步骤2.分别计算色度饱和度输入图像Ihs和亮度输入图像Iv的颜色聚合向量。
[0054] 2.1)分别计算色度饱和度输入图像Ihs和亮度输入图像Iv的阈值 和[0055] 2.1.1)计算色度饱和度输入图像Ihs的阈值
[0056]
[0057] 其中,M表示总量化等级数, 表示色度饱和度输入图像Ihs中第i个颜色量化等级的阈值:
[0058] 其中 为色度饱和度输入图像Ihs中属于第i个量化等级的每个像素点周围3×3邻域范围内量化等级等于i的像素点个数,x=1…ni,ni为色度饱和度输入图像Ihs中属于第i个量化等级的像素点总数;
[0059] 2.1.2)计算亮度输入图像Iv的阈值
[0060]
[0061] 其中 表示输入图像Iv中每个颜色量化等级的阈值,通过如下公式确定:
[0062]
[0063] 其中 为亮度输入图像Iv中属于第i个量化等级的每个像素点周围3×3邻域范围内量化等级等于i的像素点个数,y=1…mi,mi为亮度图像Iv中属于第i个量化等级的像素点总数;
[0064] 2.2)计算色度饱和度输入图像Ihs的颜色聚合向量
[0065]
[0066] 其中 为输入图像Ihs的第i个颜色量化等级的聚合区域像素个数, 输入图像Ihs的第i个颜色量化等级的非聚合区域像素个数, 为输入图像Ihs的第i个颜色量化等级的最大聚合区域中心位置索引,max(·)函数表示取输入图像中所有属于第i个颜色量化等级的最大连通区域,locate(·)函数表示取输入区域的中心位置坐标,in(·)函数表示将位置坐标转为索引。
[0067] 2.3)计算亮度输入图像Iv的颜色聚合向量
[0068]
[0069] 其中 为输入图像Iv的第i个颜色量化等级的聚合区域像素个数, 为输入图像Iv的第i个颜色量化等级的非聚合区域像素个数, 为输入图像Iv的第i个颜色量化等级的最大聚合区域中心位置索引。
[0070] 步骤3.根据色度饱和度输入图像Ihs和亮度输入图像Iv的颜色聚合向量计算相关子向量。
[0071] 3.1)计算第m个聚合区颜色相关子向量 由此得到聚合区颜色相关子向量为 其中m=1...M,M表示总量化等级数;
[0072] 3.2)计算第m个非聚合区颜色相关子向量 由此得到非聚合区颜色相关子向量
[0073] 3.3)计算第m个最大聚合区域中心位置相关子向量 由此得到最大聚合区域中心位置相关子向量
[0074] 步骤4.对颜色相关子向量进行模糊c-means聚类。
[0075] 4.1)对聚合区颜色相关子向量 进行模糊c-means聚类,得到聚合区隶属度矩阵Uα:
[0076]
[0077] 其中 表示聚合区颜色相关子向量的第M2个元素相对于第H'个聚类中心的相关度值,H'表示聚类中心总数;
[0078] 4.2)对非聚合区颜色相关子向量 进行模糊c-means聚类,得到聚合区隶属度矩阵Uβ:
[0079]
[0080] 其中 表示非聚合区颜色相关子向量的第M2个元素相对于第H'个聚类中心的相关度值;
[0081] 4.3)对最大聚合区域中心位置颜色相关子向量 进行模糊c-means聚类,得到最大聚合区域中心位置隶属度矩阵Uγ:
[0082]
[0083] 其中 表示最大聚合区域中心位置相关子向量的第M2个元素相对于第H'个聚类中心的相关度值。
[0084] 步骤5.根据隶属度矩阵Uα、Uβ、Uγ计算改进的模糊颜色聚合向量Fg。
[0085] 5.1)读入第k帧图像,按照步骤(1b)的方式进行量化得到量化图像Yhsk、Yvk;
[0086] 5.2)对于量化图像Yhsk、Yvk中的每个像素点g,分别在隶属度矩阵Uα、Uβ、Uγ中查找相对于第h个类别的相关度值
[0087] 5.3)计算改进的模糊颜色聚合向量Fg:
[0088]
[0089] 其中 为第g个像素点相对于聚合区域的模糊颜色聚合向量, 为第g个像素点相对于非聚合区域的模糊颜色聚合向量,
为第g个像素点相对于最大聚合区域索引位置的模糊颜色聚合向
量; 为第g个像素点相对于第h个聚类中心的聚合区域模糊颜色聚合向量, 为第g个像素点相对于第h个聚类中心的非聚合区域模糊颜色聚合向量, 为第g个像素点相对于第h个聚类中心的最大聚合区域索引位置模糊颜色聚合向量。
[0090] 步骤6.根据改进颜色聚合向量建立计算前景图像Ifore。
[0091] 6.1)计算当前帧与背景模型在g点处的相似度D(Fg,Bg):
[0092]
[0093] 其中Bg表示第g个像素点的背景模型, 代表背景模型在g点处相对于第h类的聚合区域模糊颜色聚合向量, 代表背景模型在g点处相对于第h类的非聚合区域模糊颜色聚合向量, 代表当前帧在g点处相对于第h类的最大聚合区域索引向量,e1和e2分别代表0到1之间的不同值;
[0094] 6.2)根据相似度D(Fg,Bg),计算前景图像Ifore:
[0095]
[0096] 其中: 表示前景图像的第g个像素点的值,N表示总像素数,τ为分割阈值,τ=0...1;
[0097] 6.3)更新背景模型Bg:
[0098] Bg(k)=(1-λ)Bg(k-1)+Fg(k),   <19>
[0099] 其中Bg(k)为第k帧的背景模型,Bg(k-1)为第k-1帧的背景模型,Fg(k)为第k帧的改进模糊颜色聚合向量,λ为学习率,取值为0到1。
[0100] 步骤7.输出图像:
[0101] 判断下一时刻视频信息是否到达,若是,令k=k+1,转到步骤(6)进行迭代,否则,目标检测过程结束,输出前景图像Ifore。
[0102] 本发明的效果可通过以下实验进一步说明:
[0103] 1.实验条件
[0104] 实验环境:Intel Core I3CPU 3.3Ghz,4GB内存,Matlab2015b实验平台。
[0105] 2.实验内容与结果
[0106] 实验1:用本发明方法与基于模糊颜色聚合向量方法,对waterfall测试集进行目标检测,结果如图2所示,其中:
[0107] 图2(a)为waterfall测试集第1440帧的原始图像;
[0108] 图2(b)为waterfall测试集第1440帧的手动分割的前景结果;
[0109] 图2(c)为用本发明对waterfall测试集的第1440帧检测结果;
[0110] 图2(d)为用基于模糊颜色聚合向量方法对waterfall测试集第1440帧的检测结果;
[0111] 从图2中可以看出,相对于图2(a)的原始图像和图2(b)的手动分割的前景结果,基于模糊颜色聚合向量方法得到的检测图像不完整,腿部残缺不全;而本发明的检测结果虽然有少量噪声,但对人物各个部分的检测效果都比较完整。
[0112] 实验2:用本发明方法与基于模糊颜色聚合向量方法,对campus测试集进行目标检测,结果如图3所示,其中:
[0113] 图3(a)为campus测试集第1698帧的原始图像;
[0114] 图3(b)为campus测试集第1698帧的手动分割的前景结果;
[0115] 图3(c)为用本发明对campus测试集的第1698帧检测结果;
[0116] 图3(d)为用基于模糊颜色聚合向量方法对campus测试集第1698帧的检测结果;
[0117] 从图3中可以看出,相对于图3(a)的原始图像和图3(b)的手动分割的前景结果,基于模糊颜色聚合向量方法的检测结果缺失部分细节,对轮廓的检测也不完整,而本发明可以检测到更丰富的轮廓细节。
[0118] 实验3:用本发明方法与基于模糊颜色聚合向量方法,对curtain测试集进行目标检测,结果如图4所示,其中:
[0119] 图4(a)为curtain测试集第22890帧的原始图像;
[0120] 图4(b)为curtain测试集第22890帧的手动分割的前景结果;
[0121] 图4(c)为用本发明对curtain测试集的第22890帧的检测结果;
[0122] 图4(d)为用基于模糊颜色聚合向量方法对curtain测试集的第22890帧检测结果;
[0123] 从图4中可以看出,相对于图4(a)的原始图像和图4(b)的手动分割的前景结果,本发明误检部分较少,并且可以检测到更完整的人物轮廓。
[0124] 实验4:用本发明方法与基于模糊颜色聚合向量方法,对watersurface测试集进行目标检测,结果如图5所示,其中:
[0125] 图5(a)为watersurface测试集第1440帧的原始图像;
[0126] 图5(b)为watersurface测试集第1440帧的手动分割前景结果;
[0127] 图5(c)为用本发明对watersurface测试集的第1440帧检测结果;
[0128] 图5(d)为用基于模糊颜色聚合向量方法对watersurface测试集第1440帧的检测结果;
[0129] 从图5中可以看出,相对于图5(a)的原始图像和图5(b)的手动分割的前景结果,本发明与基于模糊颜色聚合向量方法相比检测出的人物轮廓更加清晰,细节更加丰富。
[0130] 运用本发明方法与基于模糊颜色聚合向量方法对waterfall测试集、campus测试集和curtain测试集、watersurface测试集分别进行目标检测,统计检测精确度,结果如表1所示。表1检测精确度对比表
[0131]
[0132] 由表1中的统计数据可以看出:在目标检测效果方面,本发明在所有的复杂场景中F-measure值都达到了80%以上的,在watersurface测试集中F-measure值达到了90%以上的,并且在四组实验视频集中,本发明的F-measure值均要高于基于模糊颜色聚合向量方法。
[0133] 综上所述,本发明在目标检测效果及不同场景的适用性均优于基于模糊颜色聚合向量方法。
[0134] 以上描述仅是本发明的一个具体实例,显然对于本领域的专业人员来说,在了解了本发明内容和原理后,都可能在不背离本发明原理、结构的情况下,进行形式和细节上的各种修改和改变,但是这些基于本发明思想的修正和改变仍然在本发明的权利要求保护范围之内。