一种全参考型图像客观质量评价方法转让专利

申请号 : CN200910100963.8

文献号 : CN101621709B

文献日 :

基本信息:

PDF:

法律信息:

相似专利:

发明人 : 陈耀武张桦田翔

申请人 : 浙江大学

摘要 :

本发明公开了一种基于结构相似度的全参考型图像客观质量评价方法,包括以下步骤:(1)利用空间域视觉特征,获得原始图像的视觉感知图,并求视觉感知特征显著的位置;(2)利用基于结构相似度的评价方法求原始图像和失真图像之间的结构相似度图SSIM(i,j),计算失真图像相对质量,并求失真严重的位置;(3)定义视觉注意焦点转移原则,确定新的视觉注意焦点,并重新生成视觉注意焦点转移后的视觉感知图;(4)用生成的视觉感知图加权结构相似度,获得图像质量的客观评价。本发明方法适用于各种图像编码、处理算法的设计,以及不同算法的效果比较,对图像的评价结果更加符合人类主观评价,有着广泛的应用前景。

权利要求 :

1.一种基于结构相似度的全参考型图像客观质量评价方法,包括以下步骤:(1)利用亮度对比度、纹理复杂度和空间位置获得原始图像的视觉感知图,并求视觉感知特征显著的位置;

(2)利用基于结构相似度的评价方法求原始图像和失真图像之间的结构相似度图SSIM(i,j),其中(i,j)为像素坐标,计算失真图像相对质量,并求失真严重的位置;

(3)将视觉注意焦点由失真图像中央转移至视觉特征显著位置或失真严重位置,确定新的视觉注意焦点,并重新生成视觉注意焦点转移后的视觉感知图;

(4)用(1)和(3)生成的视觉感知图加权结构相似度,将二者加权之后,获得图像质量的客观评价。

2.根据权利要求1所述的全参考型图像客观质量评价方法,其特征在于,步骤(1)包括以下步骤:

1)计算原始图像的亮度标准差,获得亮度对比度感知图;

2)利用边缘检测提取原始图像的纹理信息,获得纹理复杂度感知图;

3)将原始图像的中央作为视觉注意焦点,获得空间位置感知图;

4)综合以上亮度对比度、纹理复杂度和空间位置感知图,获得视觉感知图;

5)将视觉感知图中感知系数最大的位置作为视觉感知特征显著的位置。

3.根据权利要求2所述的全参考型图像客观质量评价方法,其特征在于,步骤(2)的具体过程如下:

1)求原始图像和失真图像之间的结构相似度图SSIM(i,j),并将结构相似度图SSIM(i,j)划分为互不重叠的8×8块,以(m,n)为坐标;计算块内结构相似度的平均值,作为块的结构相似度Sblock(m,n),利用块的结构相似度Sblock(m,n),计算失真图像相对质量Sr(m,n);

2)将相对质量最差的位置作为失真图像失真严重的位置。

4.根据权利要求3所述的全参考型图像客观质量评价方法,其特征 在于,步骤(3)包括以下步骤:

1)定义视觉注意焦点转移原则,视觉注意焦点由失真图像中央转移至视觉特征显著位置或失真严重位置;

2)根据新的视觉注意焦点,获得视觉注意焦点转移后的空间位置感知图;

3)综合亮度对比度、纹理复杂度和视觉注意焦点转移后的空间位置感知图,生成视觉注意焦点转移后的视觉感知图。

5.根据权利要求4所述的全参考型图像客观质量评价方法,其特征在于,步骤(4)所述的视觉感知图加权结构相似度包括利用(1)和(3)分别生成视觉感知图、视觉注意焦点转移后的视觉感知图,并对块的结构相似度Sblock(m,n)加权;

所述的步骤(4)中获得的图像质量的客观评价Qp为:

Qp=β1Q1+β2Q2

其中,P1(m,n)为步骤(1)获得的原始图像的视觉感知图,P2(m,n)为步骤(3)获得的视觉注意焦点转移后的视觉感知图,Sblock(m,n)为块的结构相似度,β1和β2为权值,用于调整两次视觉注意焦点对评价结果的影响。

说明书 :

一种全参考型图像客观质量评价方法

技术领域

[0001] 本发明涉及数字视频技术领域,具体来说是一种基于结构相似度的全参考型图像客观质量评价方法。

背景技术

[0002] 数字图像广泛应用于多媒体产品,在获取、压缩、存储和传输的过程中会造成质量损失。人类在使用这些多媒体产品的同时,成为数字图像的最终接收者。因而人类对数字图像的主观质量评价(DMOS)被认为是最可靠的。然而,主观质量评价的过程费时费力,并且结果不可重复。因而多年来科学家对数字图像客观质量评价方法进行了大量研究。根据对原始图像的参考,客观质量评价方法分为全参考型、部分参考型和无参考型3种。全参考型适用于编码器设计和不同编码器的性能比较;部分参考型和无参考型适用于带宽有限的多媒体应用。由于全参考型可以利用原始图像的全部信息,其对图像的评价结果更加符合人类主观评价。
[0003] 文 献 [1]Wang Z,Bovik A C,Sheikh H R,Simoncelli E P.Image qualityassessment:from error visibility to structural similarity.IEEE Transactions onImage Processing,2004,3(4):600-612根据人眼对结构信息敏感的特性,提出了基于结构相似度的评价方法(SSIM)。文献[1]中通过比较原始图像x与待评价图像y之间的亮度、对比度和结构相似度,量化图像的失真程度,其数学模型如下:
[0004] S(x,y)=l(x,y)·c(x,y)·s(x,y) (1)
[0005]
[0006]
[0007]
[0008] l(x,y)、c(x,y)和s(x,y)分别表示亮度计算因子、对比度计算因子和结构相似度计算因子,其中μx,μy,σx,σy,σxy分别代表原始图像x和待评价图像y的亮度均值、标准差和协方差。文献[1]中以像素坐标(i,j)为中心,由公式(1)计算滑动窗口M×M(M=11)内的结构相似度,滑动窗口从图像左上角至右下角,获得结构相似度图SSIM(i,j),并计算SSIM(i,j)的平均值作为该待评价图像的客观质量评价值。
[0009] 由于文献[1]中评价方法利用了原始图像的信息,是一种典型的全参考性评价方法,该方法计算模型简单,预测的客观评价与主观评价较为一致,因而受到广泛关注。近年来,一些改进的方法不断出现:文献[2]Zhang M,Mou X.A psychovisual image quality metric based on multi-scale structuresimilarity.IEEE International Conference on Image Processing,San Diego,CA,Oct.,2008:381-384对图像进行DWT分解,将不同分辨率下的亮度、对比度、结构相似度和噪声等特征融合进行客观评价;文献[3]Wang B,Wang Z,Liao Y,Lin X.HVS-based structural similarity for image qualityassessment.9th International Conference on Signal Processing,Beijing,Oct.2008:1194-1197等人利用人类视觉系统的特性,直接将纹理和空间位置特征引入SSIM计算模型,代替结构相似度计算因子;文献[4]杨威,赵剡,许东.基于人眼视觉的结构相似度图像质量评价方法.北京航空航天大学学报,2008,34(1):1-4根据亮度、纹理和空间位置特征获得视觉感知图,并对SSIM的计算结果进行加权。文献[5]Niebur E,Koch C.Computationalarchitectures for attention,Parasuraman R.The Attentive Brain,Cambridge,Mass.:MIT Press,1998:163-186中提出了基于视觉特征驱动(stimuli-driven)的自底向上(bottom-up)可计算架构,用于摸拟人类视觉系统分析视觉场景的能力。同时,文献[6]Moorthy A K,Bovik A C.Visualimportance pooling for image quality assessment.IEEE Journal of SelectedTopics in Signal Processing,2009,3(2):193-201中提出在图像质量的评价过程中,视觉注意焦点在不断转移,失真严重的区域往往更能吸引人类的注意。
[0010] 文献[3]和[4]中提出的基于结构相似度的图像质量评价方法基于文献[5]的理论,更为真实反映视觉感知质量,但是,这2种方法均忽略了文献[6]中提出的严重失真对视觉注意焦点选择的影响:人在观察图像的过程中,随着时间的推移,视觉注意焦点由人的主观意志控制而发生转移;决定视觉注意焦点转移的因素可以是显著的视觉特征或严重的视觉失真;也就是说通常图像中视觉特征显著的区域会首先吸引人的注意,随着观察的进行,如果图像中存在失真严重的区域,人的注意往往会从原先视觉特征显著的区域转移到失真严重的区域。
[0011] 全参考型图像客观质量评价方法适用于各种图像编码、处理算法的设计,以及不同算法的效果比较:如文献[7]Brooks A C,Pappas T N.Usingstructural similarity quality metrics to evaluate image compression techniques.IEEE International Conference on Acoustics,Speech and Signal Processing.Honolulu,HI,USA:2007,1:873-876利用基于小波域结构相似度的全参考型图像客观质量评价方法,对经过JPEG、JPEG2000和SPIHT等编码方式的图像,进行客观质量评价,比较不同编码方式的效果;
文献[8]Do Q B,Beghdadi A,Luong M,et al.A perceptual pyramidal watermarking technique.IEEE International Conference on Multimedia and Expo.Hannover,Germany:2008,281-284利用PSNR或基于结构相似度的全参考型图像客观质量评价方法,对嵌入水印的图像进行水印隐藏性评价,判断水印的嵌入是否影响图像质量。

发明内容

[0012] 本发明提供了一种基于结构相似度的全参考型图像客观质量评价方法,能够使对图像的评价结果更加符合人类主观评价。
[0013] 一种基于结构相似度的全参考型图像客观质量评价方法,包括:
[0014] (1)利用亮度对比度、纹理复杂度和空间位置等空间域视觉特征,获得原始图像的视觉感知图,并求视觉感知特征显著的位置;
[0015] (2)利用基于结构相似度的评价方法求原始图像和失真图像之间的结构相似度图SSIM(i,j),其中(i,j)为像素坐标,计算失真图像的相对质量,并求失真严重的位置;
[0016] (3)定义视觉注意焦点转移原则,确定新的视觉注意焦点,并重新生成视觉注意焦点转移后的视觉感知图;
[0017] (4)用(1)和(3)生成的视觉感知图加权结构相似度,获得图像质量的客观评价。
[0018] 所述的利用亮度对比度、纹理复杂度和空间位置等空间域视觉特征,获得原始图像的视觉感知图,并求视觉感知特征显著的位置包括以下步骤:
[0019] 1)计算原始图像的亮度标准差,获得亮度对比度感知图;
[0020] 2)利用边缘检测提取原始图像的纹理信息,获得纹理复杂度感知图;
[0021] 3)将原始图像的中央作为视觉注意焦点,获得空间位置感知图;
[0022] 4)综合以上亮度对比度、纹理复杂度和空间位置感知图,获得视觉感知图;
[0023] 5)将视觉感知图中感知系数最大的位置作为视觉感知特征显著的位置。
[0024] 所述的基于结构相似度的评价方法采用文献[1]所公开的方法进行评价,求得原始图像和失真图像之间的结构相似度图SSIM(i,j),其中(i,j)为像素坐标,计算失真图像的相对质量,并求失真严重的位置,具体过程如下:
[0025] 1)利用基于结构相似度的评价方法,求原始图像和失真图像之间的结构相似度图SSIM(i,j),并将结构相似度图SSIM(i,j)划分为互不重叠的8×8块,计算块内结构相似度的平均值,作为块的结构相似度Sblock(m,n),其中(m,n)为8×8块坐标;
[0026] 2)利用块的结构相似度Sblock(m,n),计算失真图像相对质量Sr(m,n);
[0027] 3)将相对质量最差的的位置作为失真图像失真严重的位置。
[0028] 所述的定义视觉注意焦点转移原则,确定新的视觉注意焦点,并重新生成视觉注意焦点转移后的视觉感知图包括以下步骤:
[0029] 1)定义视觉注意焦点转移原则,视觉注意焦点由失真图像中央转移至视觉特征显著位置或失真严重位置;
[0030] 2)根据新的视觉注意焦点,获得视觉注意焦点转移后的空间位置感知图;
[0031] 3)综合亮度对比度、纹理复杂度和视觉注意焦点转移后的空间位置感知图,生成视觉注意焦点转移后的视觉感知图。
[0032] 所述的用(1)和(3)生成的视觉感知图对结构相似度加权,获得图像质量的客观评价包括以下步骤:
[0033] 1)利用(1)和(3)分别生成视觉感知图、视觉注意焦点转移后的视觉感知图,并对块的结构相似度Sblock(m,n)加权,获得图像质量的客观评价。
[0034] 本发明的有益效果:
[0035] 本发明提供了一种基于结构相似度的全参考型图像客观质量评价方法。该方法适用于各种图像编码、处理算法的设计,以及不同算法的效果比较。由于全参考型评价方法可以利用原始图像的全部信息,因此相对部分参考型和无参考型评价方法,全参考型对图像的评价结果更加符合人类主观评价,有着广泛的应用前景。

附图说明

[0036] 图1为本发明的方法流程图;
[0037] 图2为本发明的互不重叠的8×8块划分示意图,以(m,n)为坐标;
[0038] 图3为本发明的视觉特征感知图;其中:
[0039] (a)失真图像(b)失真区域局部放大图(c)结构相似度图(d)亮度对比度感知图(e)纹理复杂度感知图(f)空间位置感知图(g)视觉感知图(h)注意焦点转移后的空间位置感知图(i)注意焦点转移后的视觉感知图。
[0040] 图4为本发明的客观质量与主观质量的拟合结果图。
[0041] 图5为本发明的客观质量与主观质量的测试结果图。

具体实施方式

[0042] 如图1所示,一种采用本发明基于结构相似度的全参考型图像客观质量评价方法,包括:
[0043] (1)利用亮度对比度、纹理复杂度和空间位置等空间域视觉特征,获得原始图像的视觉感知图,并求视觉感知特征显著的位置;
[0044] (2)求原始图像和失真图像之间的结构相似度图SSIM(i,j),其中(i,j)为像素坐标,计算失真图像相对质量,并求失真严重的位置;
[0045] (3)定义视觉注意焦点转移原则,确定新的视觉注意焦点,并重新生成视觉注意焦点转移后的视觉感知图;
[0046] (4)用(1)和(3)生成的视觉感知图加权结构相似度,获得图像质量的客观评价。
[0047] 利用亮度对比度、纹理复杂度和空间位置等空间域视觉特征,获得原始图像的视觉感知图,并求视觉感知特征显著位置的具体过程包括以下步骤:
[0048] 1)计算原始图像的亮度标准差,获得亮度对比度感知图;
[0049] 将原始图像的亮度分量I(i,j)划分为互不重叠的8×8块,按整幅图像划分为小块,每块的大小8×8像素,块的边缘紧挨,但是互相不重叠,如图2所示。以(m,n)为坐标,那么第(m,n)块的亮度对比度用块内亮度标准差表示,亮度对比度感知图Ic(m,n)为[0050]
[0051]
[0052] Ic(m,n)值越大的区域,亮度对比度越明显。
[0053] 2)利用边缘检测提取原始图像的纹理信息,获得纹理复杂度感知图;
[0054] a)设原始图像的亮度分量为I(i,j),利用边缘检测Canny算子得到相应的边缘轮廓E(i,j)。如果像素点属于边缘轮廓,则E(i,j)为1;如果像素点不属于边缘轮廓,则E(i,j)为0。
[0055] b)将I(i,j)划分为互不重叠的8×8块(如图2所示),计算块内每个像象素点的梯度方向。
[0056]
[0057] Gver(i,j)和Ghor(i,j)分别代表像素点(i,j)的垂直和水平梯度,θ(i,j)为像素点(i,j)的梯度方向,计算后的θ(i,j)分为4种方向:
[0058] θ′(i,j)∈{0°或180°,45°或225°,90°或270°,135°或315°}。
[0059] c)统计每个8×8块内方向的种类数cd和总边缘点数ne(ne为该8×8块内边缘轮* *廓E(i,j)值为1的像素点总个数)。当总边缘点数大于给定阈值ne(ne =16),则置标号ce(ce是一个标志符,用于公式(5)的计算,标志着该8×8块内属于边缘轮廓的像素点比较多)为1,否则为0。那么该块的纹理复杂度感知图Tc(m,n)由下式表示,(m,n)为块索引[0060]
[0061] d)对Tc(m,n)使用[0,1,0;1,2,1;0,1,0]的3×3滤波器滤波,Tc(m,n)的范围为[0,1],数值越低表示该区域纹理越丰富。
[0062] 3)将原始图像的中央作为视觉注意焦点,获得空间位置感知图;
[0063] 选取原始图像的中央作为视觉注意焦点,其空间位置感知图S1(m,n)如下:
[0064]
[0065] 其中e1为第(m,n)块到视觉注意焦点(mc,nc)(即原始图像中央)的距离与最大距离的比值,ec为常量(ec根据文献Umesh R,Ian V D L,Alan C B,et al..Foveated analysis of image features at fixations[J].Vision Research,2007,47(25):3160-3172设定为2.3)。
[0066] 4)综合以上亮度对比度、纹理复杂度和空间位置感知图,获得视觉感知图;
[0067] 综合以上亮度对比度、纹理复杂度和空间位置等感知图对视觉感知的影响,定义视觉感知图P1(m,n)如下公式(7),α1、α2用于调整各感知系数的权重(由实验设定α1=α2=1)。
[0068] P1(m,n)=log(α1+Ic(m,n))(α2+Tc(m,n))2S1(m,n) (7)
[0069] 5)将视觉感知图中感知系数最大的位置作为视觉感知特征显著的位置。
[0070] 视觉感知图P1(m,n)中感知系数越大,代表视觉特征的显著性越高。因而将视觉感知图中感知系数最大的位置(mp,np)作为视觉感知特征显著的位置。
[0071] (mp,np)|P1(mp,np)=max(P1(m,n)) (8)
[0072] 利用文献[1]求原始图像和失真图像之间的结构相似度图SSIM(i,j)其中(i,j)为像素坐标,计算失真图像相对质量,并求失真严重的位置的具体过程如下:
[0073] 1)利用文献[1],求原始图像和失真图像之间的结构相似度图SSIM(i,j),并将结构相似度图SSIM(i,j)划分为互不重叠的8×8块(如图2所示),计算块内结构相似度的平均值,作为块的结构相似度Sblock(m,n)(其中(m,n)为8×8块坐标);
[0074] a)利用文献[1],求原始图像和失真图像之间的结构相似度图SSIM(i,j)。
[0075] b)将结构相似度图SSIM(i,j)划分为互不重叠的8×8块(如图2所示),计算块内结构相似度的平均值Sblock(m,n)。
[0076]
[0077] 2)利用块的结构相似度Sblock(m,n),计算失真图像相对质量Sr(m,n);
[0078] 失真图像的相对质量Sr(m,n)为
[0079]
[0080] 其中S1_mean、S1_max和S1_min分别是以第(m,n)个块为中心,大小为3×3个块的滑动窗口内,块结构相似度Sblock(m,n)的平均值,最大值和最小值;Smean是全部块结构相似度的平均值。对获得的相对质量Sr(m,n)使用3×3均值滤波器滤波。Sr(m,n)的范围为[0,1],数值越大表示该区域相对质量越差,失真越严重。
[0081] 3)将相对质量最差的的位置作为失真图像失真严重的位置。
[0082] 失真图像相对失真Sr(m,n)值越大,代表相对质量越差,失真越严重。因而将相对质量Sr(m,n)最大的位置(ms,ns)作为失真严重的位置。如果Sr(m,n)最大值的位置有多个,则取距离图像中央最近的那个位置。
[0083] (ms,ns)|Sr(ms,ns)=max(Sr(m,n)) (11)
[0084] 定义视觉注意焦点转移原则,确定新的视觉注意焦点,并重新生成视觉注意焦点转移后的视觉感知图的具体过程如下:
[0085] 1)定义视觉注意焦点转移原则,视觉注意焦点由失真图像中央转移至视觉特征显著位置或失真严重位置;
[0086] 视觉注意焦点转移原则转移原则如下:
[0087]
[0088] 当相对质量Sr(m,n)的最大值Sr_max大于阈值ε1(相对质量Sr(m,n)的范围为[0,1],数值越接近1表示该区域相对质量越差,失真越严重。实验发现,当相对质量Sr(m,n)大于ε1时,失真很容易被人眼发现。ε1的取值范围为[0,1],本领域技术人员由实验经验获得,一般ε1设定为0.3),且块结构相似度Sblock(m,n)的最小值Smin小于块结构相似度Sblock(m,n)平均值Smean的二分之一时,视觉注意焦点由失真图像中央位置(mc,nc)转移至失真严重位置(ms,ns),否则视觉注意焦点转移至视觉特征显著位置(mp,np)。
[0089] 2)根据新的视觉注意焦点,获得视觉注意焦点转移后的空间位置感知图;
[0090] 视觉注意焦点转移后的空间位置感知图S2(m,n)如下:
[0091]
[0092] 其中e2为第(m,n)块到视觉注意焦点(m′c,n′c)的距离与最大距离的比值,ec为常量(ec根据文献Umesh R,Ian V D L,Alan C B,et al..Foveated analysisof image features at fixations[J].Vision Research,2007,47(25):3160-3172设定为2.3)[0093] 3)综合亮度对比度、纹理复杂度和视觉注意焦点转移后的空间位置感知图,获得视觉注意焦点转移后的视觉感知图。
[0094] 视觉注意焦点转移后的视觉感知图P2(m,n)为
[0095]
[0096] 即当视觉注意焦点因失真严重而转移至位置(ms,ns),并且块的相对质量Sr(m,n)大于等于阈值ε2,相对质量Sr(m,n)的范围为[0,1],数值越接近1表示该区域相对质量越差,失真越严重。实验发现,当相对质量Sr(m,n)大于ε2时,失真很容易被人眼发现。ε2的取值范围为[0,1],本领域技术人员由实验经验获得,一般ε2设定为0.3。那么该块的亮度对比度感知系数Ic(m,n)直接被提升至最大值1;否则由亮度对比度Ic(m,n)、纹理复杂度Tc(m,n)和转移后的空间位置S2(m,n)生成视觉感知图。其中α1、α2用于调整各感知系数的权重,由于亮度对比度感知系数Ic(m,n)和纹理复杂度感知系数Tc(m,n)的最大值为1,α1、α2值越大,Ic(m,n)、Tc(m,n)感知系数对视觉感知图的影响越小,可以根据需要调节α1、α2的大小来控制各感知系数对视觉感知图的影响,本发明在实验中设定α1=α2=1。
[0097] 用(1)和(3)生成的视觉感知图加权结构相似度,获得图像质量的客观评价包括以下步骤:
[0098] 1)利用(1)和(3)分别生成视觉感知图、视觉注意焦点转移后的视觉感知图,并对块的结构相似度Sblock(m,n)加权,获得图像质量的客观评价。
[0099] 失真图像客观质量评价Qp由视觉感知图P1(m,n),视觉注意焦点转移后的视觉感知图P2(m,n)和块结构相似度Sblock(m,n)加权获得
[0100] Qp=β1Q1+β2Q2 (15)
[0101] 其中β1和β2用于调整两次视觉注意焦点对评价结果的影响(由实验设定β1=β2=50),Q1与Q2由下式得出:
[0102]
[0103] 实验采用LIVE实验室提供的原始图像数据库和失真图像数据库(H.R.Sheikh,Z.Wang,A.C.Bovik,et al.LIVE image quality assessmentdatabase release 2.http://live.ece.utexas.edu/research/quality),包括29张原始图像、779张失真图像及其相应的主观评价(DMOS)。779张失真图像由29张原始图像经过5种失真方式处理获得,反映了不同类型和不同强度的图像失真。其中JPEG2000(JP2):169张;JPEG:175张;白噪声(Noise):145张;高斯模糊(Blur):145张;快速衰减(Fast-fade)(传输过程中码流有错误的JPEG2000图像):145张。为了验证本发明方法的有效性,用本发明方法对数据库中的失真图像进行客观质量评价,然后与数据库中包含的各待评价图像对应的主观质量评价(DMOS)进行比较。
[0104] 图3是快速衰减数据库中img82(原始图像为Womanhat)的视觉特征感知图计算结果。图3a和图3b是失真图像img82和失真区域局部放大图,从图3b中可以看出,白色项链右下侧的平滑皮肤区域有严重失真,用圈标记。图3c是块结构相似度图Sblock(m,n),图中亮度越低表示结构差异越大,右下角皮肤区域有明显失真。图3d~图3g分别是亮度对比度感知图Ic(m,n)、纹理复杂度感知图Tc(m,n)、空间位置感知图S1(m,n)以及生成的视觉感知图P1(m,n),图中亮度越大表示感知系数权重越大,从图3g可以看出,人脸五官和白色项链为视觉特征显著区域,然而根据视觉注意焦点转移原则(式(12)),右下角皮肤区域的严重失真满足转移条件,使视觉注意焦点转移至该失真区域,见图3h。图3i是视觉注意焦点转移后的视觉感知图P2(m,n),对比图3g可以看出,右下角失真区域由于亮度对比度感知系数直接被提升至最大值1,使该区域的视觉感知系数权重明显提高,而距离注意焦点较远的五官和帽沿区域视觉感知系数权重有所下降。
[0105] 将779张失真图像分为拟合和测试两个集合,随机抽取50%失真图像(390张)用于多参数非线性方程(公式(17))的拟合,剩余389张用于客观质量评价的测试。图像的客观质量Qp由公式(15)获得。
[0106] DMOS=β1logistic(β2,(Qp-β3))+β4Qp+β5,
[0107]
[0108] 图4和图5分别是本发明方法进行图像的客观质量Qp与主观质量DMOS的拟合和测试结果。图4中x轴表示本发明方法得出的图像客观质量Qp,y轴表示图像的主观质量DMOS,符号“+”表示用于方程拟合的图像,黑色实线表示经过拟合获得的曲线;图5中x轴表示本发明方法得出的图像客观质量经过非线性转换(公式(17))后的值DMOSp,y轴表示图像的主观质量DMOS,符号“о”表示用于测试的图像,黑色虚线表示DMOSp与DMOS完全相等的标准线。
[0109] 文献[9]Sheikh H R,Sabir M F,Bovik A C.A statistical evaluation ofrecent full reference image quality assessment algorithms IEEE Transactionson Image Processing,2006,15(11):3440-3451,该文献规定了验证图像客观质量评价方法有效性的方法,定义了3个评价指标的计算方法,即客观质量与主观质量的Pearson相关系数,Spearman相关系数和Outlier率。
[0110] 根据上述文献公开的方法进行计算,本发明方法,以及其他两种客观质量评价方法(PSNR和文献[1]的SSIM方法)得出的客观质量与主观质量的Pearson相关系数,Spearman相关系数和Outlier率,分别用于表示预测方法的精确性,单调性和一致性。Pearson相关系数和Spearman相关系数值越高表示预测方法的准确性和单调性越好,Outlier率值越低表示一致性越好。表1为本发明方法与PSNR,SSIM方法性能比较,从表1的比较可以看出,本发明方法评价全部失真图像集合准确性、单调性和一致性比PSNR方法分别高出10.5%、9.8%和8.2%,比SSIM方法都分别高出3.7%、3.8%和2.9%。
[0111] 因此从客观上看,用本发明方法预测的图像客观质量评价,与图像主观质量评价更加一致。
[0112] 表1
[0113]