一种基于位置先验的纹理-颜色特征全局显著性检测方法转让专利

申请号 : CN201610222464.6

文献号 : CN105913463B

文献日 :

基本信息:

PDF:

法律信息:

相似专利:

发明人 : 陈再良魏浩沈海澜寇宏波薛奇彭鹏廖胜辉

申请人 : 中南大学

摘要 :

本发明提供了一种基于位置先验的纹理‑颜色特征全局显著性检测方法,该方法以像素点为基本单位,在位置先验的基础上,分别提取图像的颜色特征和纹理特征,通过使用某一区域与整幅图像的对比度来计算该区域的显著值,基于全局对比度进行显著性检测,分别生成对应的颜色显著图和纹理显著图,最后将三幅显著图归一化,融合生成主显著图。该方法生成的显著图可以辨识出显著物体,更加符合人类观察结果,同时提高了精度与召回率,生成的显著图更加清晰,辨识度高。

权利要求 :

1.一种基于位置先验的纹理-颜色特征全局显著性检测方法,其特征在于,包括以下步骤:步骤1:获取待检测图像;

步骤2:利用基于位置先验方法对待检测图像处理,获取位置显著图A(x)、颜色显著图B(x)以及纹理显著图C(x);

其中,所述位置显著图中每个像素的位置先验分布值p(x)按照以下公式计算获得:p(x)=exp(-d(x,c)/δ2)

x表示待检测图像f(x)中的像素,d(x,c)表示像素x和待检测图像中心点的距离,δ为标准差,取值范围为0.3-0.6;

所述颜色显著图B(x)中每个像素Ik的颜色显著值S(Ik)按下面公式计算获得:D(Ik,Ii)是指像素Ik与图像中任意像素点Ii在Lab空间中的颜色距离;

所述纹理显著图C(x)的获取过程如下:

首先,通过采用局部二值模式LBP提取每个像素点的纹理特征;

其次,根据LBP均匀模式对每个像素点的纹理特征进行降维处理获得LBP纹理直方图,以LBP纹理直方图作为纹理显著图;

步骤3:将位置显著图、颜色显著图以及纹理显著图进行线性融合处理,生成主显著图I(x):I(x)=αA(x)+βB(x)+γC(x),α+β+γ=1;

其中,α、β及γ分别为位置显著图、颜色显著图以及纹理显著图的权重因子。

2.根据权利要求1所述的方法,其特征在于,通过计算LBP纹理直方图中各纹理原子间的差异性和加入中心位置偏移先验知识对纹理直方图进行修正,获得各纹理原子的显著值,更新纹理显著图C(x)。

3.根据权利要求1-2任一项所述的方法,其特征在于,所述位置显著图是利用基于位置先验方法对待检测图像处理后,对处理后的图像计算Harris角点,以Harris角点作为显著点获得。

说明书 :

一种基于位置先验的纹理-颜色特征全局显著性检测方法

技术领域

[0001] 本发明属于图像检索和图像识别技术领域,特别涉及一种基于位置先验的纹理-颜色特征全局显著性检测方法。

背景技术

[0002] 人类的视觉系统在感知外界环境的过程中存在着极强的动态选择性,这同时体现在其视神经系统的生理结构及作用机理上。以眼睛的生理结构为例,在视网膜盘颞侧约3.5mm处,有一个黄色小区,称黄斑(macula lutea),其中央的凹陷叫做中央凹,此处的视神经细胞分布最为密集,感知到的视觉信息最精确。中央凹虽然只占整个视觉面的0.01%,但是视神经里10%的信息是由连接在这里的轴突传递到大脑。当人们观察一个场景的时候,并不是一次性地感知场景中的所有信息,而是基于注意转移机制通过一系列的视点移动来对场景进行逐步采样。观察者能够利用视网膜中央凹的高分辨率感知机构,主动地探索环境中的重要视觉信息。得益于这种动态选择性行为,人类以及大多数的灵长类动物,能够在有限的时间内高效灵动地处理复杂环境中的信息。这种高效感知和选择信息的能力称为视觉注意机制,视觉注意机制帮助人类快速准确地处理海量视觉信息,完成相关视觉任务。
[0003] 人类的大脑具有多种选择注意机制,利用计算机技术模拟人类的视觉选择注意机制,让机器可以像人一样去分析感知自然场景。视觉注意机制是视觉感知系统的一部分,针对视觉注意机制的过程和特点,认知心理学家们提出了若干假设,其中,认知心理学家Triesman等提出的特征融合理论和神经生物学家Koch等提出的神经生物学框架奠定了视觉注意机制的可计算化,在显著性计算中具有重要意义。Koch提出的神经生物学框架给出了一套完整的视觉注意机制框架,奠定了视觉注意机制建模领域重要的理论基础。
[0004] 通过对视觉注意机制的深入研究,神经生理学和认知心理学的研究学者们将视觉注意机制划分为两个阶段:
[0005] 1)快速的、任务无关的、数据驱动的自底向上的显著性提取;
[0006] 2)慢速的、任务相关的、目标驱动的自顶向下的显著性提取;
[0007] 在此基础上,显著性检测也被划分成自底向上的显著性检测和自顶向下的显著性检测两大类。
[0008] a)自底向上的显著性检测
[0009] 自底向上的显著性检测技术主要由刺激信号本身所引起的视觉注意,从而提取出图像中最具有视觉吸引力的区域。此类方法由数据驱动,与目标任务无关,通常较为快速。
[0010] 1998年,Itti等人提出了一种基于生物启发模型和特征整合理论的视觉显著性计算方法。Itti模型是显著性检测技术中的一个重要里程碑,由其所衍生出的视觉显著性模型奠定了后期多特征显著性研究的基础。不过由于现阶段的研究还无法精确地描述视觉系统的运作原理,故在此基础上建立的显著性检测方法,其结果具有较大的不确定性,得到的显著图分辨率较低,精确度不高。
[0011] 2007年,Hou等人提出了一种基于谱残留的方法来检测图像显著性。该方法认为频谱中的统计奇异性是由图像中的不规则区域造成的,而这些地方就是图像显著性存在的地方。该方法基于数理计算,与图像特征无关,因此其结果图中通常只高亮显著性物体的轮廓而非整个物体,且不易提取具有纹理背景图像中的显著性物体。
[0012] Harel等人提出一种基于图的视觉显著性模型,该模型在显著值定义上提出了新的思路,但在特征提取方面计算量较大且多尺度计算造成显著对象的区域模糊。
[0013] 2008年,Zhang等人提出了一种基于贝叶斯理论和自然图像统计特征的方法(SUN)来检测图像的显著性,SUN模型为很多模型提供了基本的显著性计算框架。
[0014] 2009年,研究学者们提出决策理论模型。从决策理论的角度理解,感知系统需要对周围环境做出一个最优的决定,这种决定基于决策理论的角度,如让错误的概率最小等。因此,此类模型的首要问题就是做出一个最优的决策。Gao认为,对目标识别来说,显著性特征就是那些能从其他类中区别出来的视觉特征。
[0015] 2010年,Goferman等人提出了上下文感知的视觉显著性检测方法。该方法利用显著性准则作为先验知识进行显著性检测,显著性思路与中央-周围机制相似,通过融合多尺度修正与上下文感知,使得显著图从目标往四周显著值逐渐降低,使得边缘模糊化,实验效果较为理想。
[0016] 2011年,Cheng等人提出基于直方图对比度的方法HC(Histogram Contrast,直方图对比度)和基于局部对比度的方法RC(Region Contrast,区域对比度)。实验对比可知,HC方法的结果图与RC方法的结果图相比轮廓更加清晰,显著对象突出,然而RC方法的精度和召回率的值要明显高出HC方法。HC和RC方法都是通过分析局部或全局对比度从而获得显著图。局部显著性检测方法利用图像区域相对于一个小的局部邻域的稀缺度来检测显著性区域,此类方法不考虑区域或像素间的全局关系且强调边缘或噪声,因此,此类方法倾向于在对象的边缘区域产生高显著值,而不是均匀地突出整个对象,而且经常高亮图像中的具有复杂纹理的非显著对象。全局方法通常是考虑整幅图像的对比关系,用一个区域和整个图像的对比度来计算显著性值。此类方法具有高计算复杂度,通常应用于低分辨率图片,且该方法复杂度依赖于图像分割的复杂度。
[0017] 2012年,Shen等人出一个整合自顶向下方法中的高层次特征和自底向上方法中的低层次特征的显著性检测模型。该模型采用基于滤波的低层纹理特征中提取的纹理特性进行显著性检测。该模型有着提取特征多,计算量大,低秩矩阵的恢复速度较慢的明显缺点。
[0018] Wei等人提出一种基于背景属性优先的显著性检测方法。该方法精度和召回率较好,但由于其在显著值定义中与图像特征无关,故其生成的显著图呈马赛克形状,只模糊表示显著区域,显著对象的外貌轮廓并不清晰。
[0019] 2013年,Scharfenberger等人提出基于统计的纹理差异性显著性检测方法,该方法提取具有旋转不变性的、基于邻域的纹理表示,较有效利用纹理特征,适用于先验背景信息不全的应用且不依赖于图像分割方法,具有较为精准的实验结果。但其在特征提取阶段所采用的纹理表示方法是对每一个像素计算一个57维向量,因此其计算量高。
[0020] b)自顶向下的显著性检测
[0021] 自顶向下的显著性检测技术是以具体任务为导向,通过使用方位、阈值、特征数目、组合参数等属性特征,对自底向上的检测结果加以调整,从而获得实验结果。自顶向下的视觉注意机制分为高层知识驱动和控制加工两个阶段,由于该机制十分复杂,故基于此机制的显著性检测模型数量较少且计算繁杂。
[0022] 自顶向下的显著性检测通常分为两大类。第一类方法是以检测任务为导向,人工设计用于检测显著性的模型。此类方法要求设计者明确理解且准确把握具体任务中检测目标(如角点和边缘等)的结构与性质,并通过选择映射机制将理解正确反映到模型之中,从而建立高效的显著性检测模型。第二类方法是以任务示例或样本的整体属性或整体统计信息为依据,计算机自动建立显著性检测模型。通过对样本进行数理统计,系统可得到样本中与目标任务相关的大量统计信息。使用统计信息作为判断的依据或计算的前提,使其获得自然图像中的显著性对象或区域。但是,由于目标任务间的差异导致模型在建立前通常需要对大量训练样本中的不同物体特征进行训练统计,而此过程中也通常要采用多种学习方法以保证统计信息的准确率及覆盖率,因此,这类方法具有需求量大、变化性多和计算复杂度高的弊端。
[0023] 受此启发,在图像与视频信息处理过程中引入视觉注意机制,一方面可以将有限的计算资源分配给感兴趣的目标,另一方面也能够产生出符合人的视觉认知要求的结果。在视觉注意机制的研究中,如何确定场景中信息的重要程度,也即显著性程度,是其中最基本的问题。在图像的显著性计算中,图像的显著区域是指引起视觉注意的区域,该区域通常只占整幅图像中的一部分,但却包含了整幅图像的核心信息。显著性检测的核心问题就是如何从一幅图像中提取出有效、精准的显著区域,从而使计算机的图像信息处理可模拟人的视觉主动性和选择性。
[0024] 在实际的处理中,具有纹理背景且显著性对象和背景有着相似特征的图像,其显著性检测结果有时不能在不同显著性检测方法中获得一致认同,而这类图像的显著性通常在人类主观评价中可获得一致认同;同时有多个部分且与背景有着明显不同特征显著性对象的图像检测得到的显著性结果通常在各种模型中能获得一致认同,但在人类主观评价中不能获得一致认同。因此,目前为止的显著性检测方法和模型在具有复杂内容或复杂纹理背景的自然图像上的性能仍具有一定局限性和不足,因此,如何提高显著性检测方法在复杂图像上的性能是本领域急需解决的问题。

发明内容

[0025] 本发明的目的是提出一种基于位置先验的纹理-颜色特征全局显著性检测方法,以像素点为基本单位,在位置先验的基础上,分别提取图像的颜色特征和纹理特征,通过使用某一区域与整幅图像的对比度来计算该区域的显著值,基于全局对比度进行显著性检测,分别生成对应的颜色显著图和纹理显著图,最后将三幅显著图归一化,融合生成主显著图。
[0026] 现有的方法对于具有复杂纹理背景、显著性物体和背景相似的图像进行显著性检测时,其结果间存在较大差异性。对比可知,基于多种图像特征的显著性检测方法得到的显著图中的显著对象,其轮廓更为清晰,更加贴合人类视觉感受,但当提取的特征类型和数量过多时,会造成计算复杂且特征间的相互抑制导致显著图模糊。
[0027] 一种基于位置先验的纹理-颜色特征全局显著性检测方法,包括以下步骤:
[0028] 步骤1:获取待检测图像;
[0029] 步骤2:利用基于位置先验方法对待检测图像处理,获取位置显著图A(x)、颜色显著图B(x)以及纹理显著图C(x);
[0030] 其中,所述位置显著图中每个像素的位置先验分布值p(x)按照以下公式计算获得:
[0031] p(x)=exp(-d(x,c)/δ2)
[0032] x表示待检测图像f(x)中的像素,d(x,c)表示像素x和待检测图像中心点的距离,δ为标准差,取值范围为0.3-0.6;
[0033] 步骤3:将位置显著图、颜色显著图以及纹理显著图进行线性融合处理,生成主显著图I(x):
[0034] I(x)=αA(x)+βB(x)+γC(x),α+β+γ=1;
[0035] 其中,α、β及γ分别为位置显著图、颜色显著图以及纹理显著图的权重因子。
[0036] 所述颜色显著图B(x)中每个像素Ik的颜色显著值S(Ik)按下面公式计算获得:
[0037]
[0038] 其中,cl是像素点Ik的颜色值,n是颜色值总数,fj是颜色值cj在图像I中出现的概率;D(Ik,Ii)是指像素Ik与图像中任意像素点Ii在Lab空间中的颜色距离。
[0039] 每个像素的颜色显著值是指该像素的颜色值与图像中每个像素在Lab空间中的颜色距离度量之和;
[0040] 通过人类视觉注意机制可知,视觉系统对于特征信息的对比度具有高敏感性。对输入图像的颜色特征进行统计,基于统计信息定义像素点的显著值。
[0041] 具体而言,像素点的显著值是用该点处的颜色值和其他像素点的颜色值间的对比度定义的。图像I中像素点Ik的显著值定义为:
[0042] D(Ik,Ii)是像素Ik和Ii在Lab空间中的颜色距离度量。对上述公式扩展成为:
[0043] S(Ik)=D(Ik,I1)+D(Ik,I2)+…+D(Ik,IN)
[0044] 其中,N是图像I中的像素总数。
[0045] 由于此定义忽略了空间关系,因此颜色值相同的像素具有相同的显著值。将具有相同颜色值cj的像素聚集在一起,得到每种颜色的显著值的定义公式。
[0046] 所述纹理显著图C(x)的获取过程如下:
[0047] 首先,通过采用局部二值模式LBP提取每个像素点的纹理特征;
[0048] 其次,根据LBP均匀模式对每个像素点的纹理特征进行降维处理获得LBP纹理直方图,以LBP纹理直方图作为纹理显著图。
[0049] 图像的纹理特征描述图像对应景物的表面性质,具有旋转不变性且对噪声有较强抵抗力。但纹理特征会受到图像分辨率的影响,光照及反射情况也会导致纹理信息发生变化。基于纹理特征的显著性检测方法的首要问题就是选择合适的纹理特征表示法去区分显著区域和非显著区域。
[0050] 具体步骤如下获得:
[0051] 采用Ojala提出的局部二值模式(LBP)的均匀模式,该模式的基本思想是每个像素点映射为一个8位的二进制数组合,该组合是将像素点与其8领域的像素点进行灰度值比[21]较,小于中心像素的灰度值记为0,反之记为1,LBP计算定义为 :
[0052]
[0053] 其中(xc,yc)是中心像素点,ic是中间像素点的灰度值,ip是相邻像素点的灰度值。
[0054] 为减少二进制模式种类数量,Ojala提出了LBP的均匀模式,该模式为:
[0055]
[0056] 其中p表示邻域集内的采样点数。
[0057] 通过计算LBP纹理直方图中各纹理原子间的差异性和加入中心位置偏移先验知识对纹理直方图进行修正,获得各纹理原子的显著值,更新纹理显著图C(x)。
[0058] 生成LBP纹理直方图后,通过计算纹理原子间的差异性和加入中心位置偏移先验知识予以修正,纹理原子ti的显著值αi定义为:
[0059]
[0060] 其中,βi是纹理原子ti与其他纹理原子的差异性, 是图像I(x)中ti出现的概率, 是图像I(x)中属于ti纹理原子的像素总数, 是计算纹理模式为ti的像素点与图像中心点xc的空间近似权值。
[0061] 所述位置显著图是利用基于位置先验方法对待检测图像处理后,对处理后的图像计算Harris角点,以Harris角点作为显著点获得。
[0062] 高斯分布中,上标越接近零,值越大概率越大,而当一个像素与中心的距离越小时,该值越大,越符合人类视觉观点。离中心点越近,显著度相应越高,中心点的获取,是能否成功生成较好的位置先验图的关键,利用Harris角点代替显著点。
[0063] 有益效果
[0064] 本发明提供了一种基于位置先验的纹理-颜色特征全局显著性检测方法。该方法基于位置先验,提取图像的位置特征和纹理特征,分别经过量化和聚类保留高频特征,按照视觉规则定义计算高频特征的显著值,生成相应的位置先验显著图、颜色显著图和纹理显著图,将显著图归一化线性融合,生成主显著图。通过大量的实验结果表明,该方法生成的显著图可以辨识出显著物体,更加符合人类观察结果,同时提高了精度与召回率,生成的显著图更加清晰,辨识度高。

附图说明

[0065] 图1为本发明所述方法的流程示意图;
[0066] 图2为本发明所述方法的运行步骤示意图;
[0067] 图3为不同w权值设置下的P-R对比图,其中,(a)中wHC=0.5,wLBP=0.5,(b)中wHC=0.7,wLBP=0.3;
[0068] 图4为不同方法的精度、召回率和F-measure对比图;
[0069] 图5为不同的显著性检测方法提取的显著图对比示意图,其中,(a)为原始图,(b)为采用FT方法,(c)为采用HC方法,(d)为采用LC方法,(e)为采用RC方法,(f)为采用SR方法,(g)为采用TCH方法。

具体实施方式

[0070] 下面将结合附图和实施例对本发明做进一步的说明。
[0071] 如图1和图2所示,一种基于位置先验的纹理-颜色特征全局显著性检测方法,包括以下步骤:
[0072] 步骤1:获取待检测图像;
[0073] 步骤2:利用基于位置先验方法对待检测图像处理,获取位置显著图A(x)、颜色显著图B(x)以及纹理显著图C(x);
[0074] 其中,所述位置显著图中每个像素的位置先验分布值p(x)按照以下公式计算获得:
[0075] p(x)=exp(-d(x,c)/δ2)
[0076] x表示待检测图像f(x)中的像素,d(x,c)表示像素x和待检测图像中心点的距离,δ为标准差,取值范围为0.3-0.6;
[0077] 步骤3:将位置显著图、颜色显著图以及纹理显著图进行线性融合处理,生成主显著图I(x):
[0078] I(x)=αA(x)+βB(x)+γC(x),α+β+γ=1;
[0079] 其中,α、β及γ分别为位置显著图、颜色显著图以及纹理显著图的权重因子。
[0080] 所述颜色显著图B(x)中每个像素Ik的颜色显著值S(Ik)按下面公式计算获得:
[0081]
[0082] 其中,cl是像素点Ik的颜色值,n是颜色值总数,fj是颜色值cj在图像I中出现的概率;D(Ik,Ii)是指像素Ik与图像中任意像素点Ii在Lab空间中的颜色距离。
[0083] 每个像素的颜色显著值是指该像素的颜色值与图像中每个像素在Lab空间中的颜色距离度量之和;
[0084] 通过人类视觉注意机制可知,视觉系统对于特征信息的对比度具有高敏感性。对输入图像的颜色特征进行统计,基于统计信息定义像素点的显著值。
[0085] 具体而言,像素点的显著值是用该点处的颜色值和其他像素点的颜色值间的对比度定义的。图像I中像素点Ik的显著值定义为:
[0086]
[0087] D(Ik,Ii)是像素Ik和Ii在Lab空间中的颜色距离度量。对上述公式扩展成为:
[0088] S(Ik)=D(Ik,I1)+D(Ik,I2)+…+D(Ik,IN)
[0089] 其中,N是图像I中的像素总数。
[0090] 由于此定义忽略了空间关系,因此颜色值相同的像素具有相同的显著值。将具有相同颜色值cj的像素聚集在一起,得到每种颜色的显著值的定义公式。
[0091] 所述纹理显著图C(x)的获取过程如下:
[0092] 首先,通过采用局部二值模式LBP提取每个像素点的纹理特征;
[0093] 其次,根据LBP均匀模式对每个像素点的纹理特征进行降维处理获得LBP纹理直方图,以LBP纹理直方图作为纹理显著图。
[0094] 图像的纹理特征描述图像对应景物的表面性质,具有旋转不变性且对噪声有较强抵抗力。但纹理特征会受到图像分辨率的影响,光照及反射情况也会导致纹理信息发生变化。基于纹理特征的显著性检测方法的首要问题就是选择合适的纹理特征表示法去区分显著区域和非显著区域。
[0095] 具体步骤如下获得:
[0096] 采用Ojala提出的局部二值模式(LBP)的均匀模式,该模式的基本思想是每个像素点映射为一个8位的二进制数组合,该组合是将像素点与其8领域的像素点进行灰度值比较,小于中心像素的灰度值记为0,反之记为1,LBP计算定义为:
[0097]
[0098] 其中(xc,yc)是中心像素点,ic是中间像素点的灰度值,ip是相邻像素点的灰度值。
[0099] 为减少二进制模式种类数量,Ojala提出了LBP的均匀模式,该模式为:
[0100]
[0101] 其中p表示邻域集内的采样点数。
[0102] 通过计算LBP纹理直方图中各纹理原子间的差异性和加入中心位置偏移先验知识对纹理直方图进行修正,获得各纹理原子的显著值,更新纹理显著图C(x)。
[0103] 生成LBP纹理直方图后,通过计算纹理原子间的差异性和加入中心位置偏移先验知识予以修正,纹理原子ti的显著值αi定义为:
[0104]
[0105] 其中,βi是纹理原子ti与其他纹理原子的差异性, 是图像I(x)中ti出现的概率, 是图像I(x)中属于ti纹理原子的像素总数, 是计算纹理模式为ti的像素点与图像中心点xc的空间近似权值。
[0106] 所述位置显著图是利用基于位置先验方法对待检测图像处理后,对处理后的图像计算Harris角点,以Harris角点作为显著点获得。
[0107] 高斯分布中,上标越接近零,值越大概率越大,而当一个像素与中心的距离越小时,该值越大,越符合人类视觉观点。离中心点越近,显著度相应越高,中心点的获取,是能否成功生成较好的位置先验图的关键,利用Harris角点代替显著点。
[0108] 本发明所提出的显著性检测方法利用Microsoft Visual  Studio2010和OPENCV2.4.7实现,利用MATLAB R2011b对实验数据进行分析,计算精度、召回率、F-measure,生成柱状图和P-R曲线图。
[0109] 为验证本发明提出的方法的性能,从Cheng建立的THUS10000数据集中随机抽取300张形成子数据集THUS300,该数据集包含图像及其所对应的Ground Truth图。显著性检测方法生成输入图像的显著图,将显著图与其对应的GT图比较计算生成精度-召回率曲线。
[0110] 其中,TCHC显著图为HC显著图、LBPT显著图以及位置先验图通过权重w线性融合生成。通过实验对比发现(如图3所示),当增大时,该方法的精度和召回率会有明显提升,但显著图的视觉效果会相应下降,为取得主观评价和客观评价间的平衡,设定wHC=0.7,wLBP=0.3。
[0111] 本发明将提出的计算方法与另外5种显著性检测方法进行比较,生成显著图,计算精度、召回率、F-measure和P-R曲线,这5种方法分别是:SR方法、HC方法、RC方法、FT方法和LC方法,其中,SR表示Spectral Residual Approach,即剩余光谱方法,HC表示Histogram Contrast,即全局对比度显著性检测方法,RC表示Region Contrast,即基于局部对比度方法,FT表示Frequency-tuned,即频率调整,LC表示基于对比度的显著性检测;为了获得精度和召回率,首先用一个固定阈值对显著图进行分割,该阈值固定在一定灰度值范围内。将显著图归一化到[0,255]内,即采用256个阈值对显著图进行分割。
[0112] 假设一张显著图由某个阈值分割得到二值化图B,其中前景像素点的个数为Bn,该图像所对应的GT图中的前景像素点个数为Gn,定义tp为Bn和Gn的交集。则由以下2个公式分别计算本方法在图像i上的精度和召回率。
[0113]
[0114]
[0115] 统计该方法在数据集上的所有精度和召回率。各方法的精度、召回率和F-measure值的对比如图4所示,P-R曲线图如图3所示。从图4可知,TCHC方法的精度和召回率值明显高于FT、LC和SR,相较于HC方法,本发明提出的TCHC方法的召回率有明显提高,但略低于RC方法。
[0116] 图5展示了本发明提出的TCHC方法和其他5种方法所生成的显著图。该图从数据集中选择具有复杂纹理信息或杂乱背景的10张图片进行示例,可以看出与FT、RC和SR的结果图相比,TCHC显著图具有较好的视觉效果,清晰地标识出显著对象或区域;此外,TCHC显著图比HC显著图强调了图像的纹理性。HC显著图中,显著对象内部由于颜色值的差异存在亮度不均问题,而同一对象通常具有同种或近似的纹理特征,故TCHC显著图更好的保持了显著对象内部的一致性。图中虽然TCHC的召回率和精度略低于低于RC,但从图中亦可看出相对来说,RC的显著图质量较低,不能清晰的标识出显著对象,这是由于TCHC方法有效地保证了对象或区域内部显著性的一致性,从而更加清晰地显示显著对象。