图像处理方法、装置、可读存储介质和计算机设备转让专利

申请号 : CN201711045671.X

文献号 : CN107808136B

文献日 :

基本信息:

PDF:

法律信息:

相似专利:

发明人 : 曾元清

申请人 : OPPO广东移动通信有限公司

摘要 :

本申请提供一种图像处理方法、装置、可读存储介质和计算机设备。图像处理方法包括:获取待处理图像人脸区域中的额头区域的尺寸信息;当额头区域的尺寸信息大于人脸区域尺寸信息的预设比例值时,获取人脸区域的人脸轮廓;根据预设脸型样本库获取符合人脸轮廓的脸型类型;根据脸型类型生成能够与待处理图像的头发区域相融合的发型,得到合成图像。图像处理方法可以为待处理图像的头发区域配置一顶能够与头发区域相融合的假发,使图像呈现更好的效果。

权利要求 :

1.一种图像处理方法,其特征在于,包括:

获取待处理图像人脸区域中的额头区域的尺寸信息;

当所述额头区域的尺寸信息大于所述人脸区域尺寸信息的预设比例值时,获取所述人脸区域的人脸轮廓;

根据预设脸型样本库获取符合所述人脸轮廓的脸型类型;

根据所述脸型类型生成能够与所述待处理图像的头发区域相融合的发型,得到合成图像;

所述根据所述脸型类型生成能够与所述待处理图像的头发区域相融合的发型,得到合成图像,包括:获取所述头发区域的发色特征和纹理信息;所述发色特征是指人的头发在待处理图像中呈现的颜色、亮暗,所述纹理信息指头发从发根至发尖延伸方向、头发的弯曲度;根据所述脸型类型、发色特征、纹理信息生成能够与所述待处理图像的头发区域相融合的发型;将所述发型与所述待处理图像相融合,得到所述合成图像;

或者,

获取所述头发区域的发色特征;根据所述脸型类型、发色特征显示能够与所述待处理图像的头发区域相匹配的至少两个发型;接收用户对所述发型的选择操作和编辑;将用户编辑后的所述发型与所述待处理图像相融合,得到所述合成图像。

2.根据权利要求1所述的图像处理方法,其特征在于,所述获取待处理图像人脸区域中的额头区域的尺寸信息,包括:根据标注在人脸图像上的多个特征点训练生成预设模型;

根据所述预设模型标记所述人脸区域的发际线、左眉毛、右眉毛、下巴尖;

根据所述发际线、左眉毛、右眉毛获取所述额头区域的尺寸信息;其中,所述额头区域的尺寸信息为所述发际线的最高点到所述左眉毛最高点、右眉毛最高点连接线的距离;所述人脸区域尺寸信息为所述发际线的最高点到所述下巴尖的距离。

3.根据权利要求1所述的图像处理方法,其特征在于,根据预设脸型样本库获取符合所述人脸轮廓的脸型类型,包括:创建用于存储不同脸型类型类型的所述预设脸型样本库,所述脸型类型包括:方形脸、圆形脸、三角形脸、长形脸、椭圆形脸、菱形脸和心形脸;

根据所述人脸轮廓的特征向量,基于K近邻算法在所述预设脸型样库中获取符合所述人脸轮廓的脸型类型。

4.根据权利要求1所述的图像处理方法,其特征在于,获取所述头发区域的发色特征,包括:生成所述头发区域的颜色直方图;

根据所述颜色直方图划分头发颜色区间;

将所述头发区域中落入所述头发颜色区间的像素点定义为第一头发区域;

将所述待处理图像从第一颜色空间转换至第二颜色空间;

计算所述第一头发区域中包含的像素点在所述第二颜色空间中各个分量的均值,并将所述各个分量的均值作为所述第一头发区域的发色特征。

5.根据权利要求1所述的图像处理方法,其特征在于,还包括:对所述合成图像的边缘进行中值滤波处理。

6.一种图像处理装置,其特征在于,包括:

获取模块,用于获取待处理图像人脸区域中的额头区域的尺寸信息;

处理模块,当所述额头区域的尺寸信息大于所述人脸区域尺寸信息的预设比例值时,获取所述人脸区域的人脸轮廓;

匹配模块,根据预设脸型样本库获取符合所述人脸轮廓的脸型类型;

发型融合模块,根据所述脸型类型生成能够与所述待处理图像的头发区域相融合的发型,得到合成图像;

所述发型融合模块还用于,获取所述头发区域的发色特征和纹理信息;所述发色特征是指人的头发在待处理图像中呈现的颜色、亮暗,所述纹理信息指头发从发根至发尖延伸方向、头发的弯曲度;根据所述脸型类型、发色特征、纹理信息生成能够与所述待处理图像的头发区域相融合的发型;将所述发型与所述待处理图像相融合,得到所述合成图像;

或者,

所述发型融合模块还用于,获取所述头发区域的发色特征;根据所述脸型类型、发色特征显示能够与所述待处理图像的头发区域相匹配的至少两个发型;接收用户对所述发型的选择操作和编辑;将用户编辑后的所述发型与所述待处理图像相融合,得到所述合成图像。

7.根据权利要求6所述的图像处理装置,其特征在于,所述获取模块还用于:根据标注在人脸图像上的多个特征点训练生成预设模型;

根据所述预设模型标记所述人脸区域的发际线、左眉毛、右眉毛、下巴尖;

根据所述发际线、左眉毛、右眉毛获取所述额头区域的尺寸信息;其中,所述额头区域的尺寸信息为所述发际线的最高点到所述左眉毛最高点、右眉毛最高点连接线的距离;所述人脸区域尺寸信息为所述发际线的最高点到所述下巴尖的距离。

8.根据权利要求6所述的图像处理装置,其特征在于,所述匹配模块还用于包括:创建用于存储不同脸型类型类型的所述预设脸型样本库,所述脸型类型包括:方形脸、圆形脸、三角形脸、长形脸、椭圆形脸、菱形脸和心形脸;

根据所述人脸轮廓的特征向量,基于K近邻算法在所述预设脸型样库中获取符合所述人脸轮廓的脸型类型。

9.根据权利要求6所述的图像处理装置,其特征在于,所述发型融合模块还用于:生成所述头发区域的颜色直方图;

根据所述颜色直方图划分头发颜色区间;

将所述头发区域中落入所述头发颜色区间的像素点定义为第一头发区域;

将所述待处理图像从第一颜色空间转换至第二颜色空间;

计算所述第一头发区域中包含的像素点在所述第二颜色空间中各个分量的均值,并将所述各个分量的均值作为所述第一头发区域的发色特征。

10.根据权利要求6所述的图像处理装置,其特征在于,所述装置还用于:对所述合成图像的边缘进行中值滤波处理。

11.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至5中任一项所述的图像处理方法的步骤。

12.一种计算机设备,包括存储器及处理器,所述存储器中储存有计算机可读指令,所述指令被所述处理器执行时,使得所述处理器执行如权利要求1至5中任一项所述的图像处理方法。

说明书 :

图像处理方法、装置、可读存储介质和计算机设备

技术领域

[0001] 本申请涉及计算机技术领域,特别是涉及图像处理方法、装置、可读存储介质和计算机设备。

背景技术

[0002] 互联网技术的不断发展,移动终端的普及,给用户提供了极大的便利,例如,由于智能终端的便携性,用户使用手机替代相机进行拍照。
[0003] 在拍照或图像进行处理的过程中,可以对照片进行瘦脸、美白、增大眼睛等美颜处理。但是,对头发稀疏甚至秃顶的处理的效果差。

发明内容

[0004] 本申请实施例提供一种图像处理方法、装置、可读存储介质和计算机设备,可以为待处理图像的头发区域配置一顶能够与头发区域相融合的假发,使图像呈现更好的效果。
[0005] 一种图像处理方法,包括:
[0006] 获取待处理图像人脸区域中的额头区域的尺寸信息;
[0007] 当所述额头区域的尺寸信息大于所述人脸区域尺寸信息的预设比例值时,获取所述人脸区域的人脸轮廓;
[0008] 根据预设脸型样本库获取符合所述人脸轮廓的脸型类型;
[0009] 根据所述脸型类型生成能够与所述待处理图像的头发区域相融合的发型,得到合成图像。
[0010] 一种图像处理装置,包括:
[0011] 获取模块,用于获取待处理图像人脸区域中的额头区域的尺寸信息;
[0012] 处理模块,当所述额头区域的尺寸信息大于所述人脸区域尺寸信息的预设比例值时,获取所述人脸区域的人脸轮廓;
[0013] 脸型类型匹配模块,根据预设脸型样本库获取符合所述人脸轮廓的脸型类型;
[0014] 发型融合模块,根据所述脸型类型生成能够与所述待处理图像的头发区域相融合的发型,得到合成图像。
[0015] 一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现上述的图像处理方法的步骤。
[0016] 一种计算机设备,包括存储器及处理器,所述存储器中储存有计算机可读指令,所述指令被所述处理器执行时,使得所述处理器执行上述的图像处理方法。
[0017] 上述图像处理方法、装置、可读存储介质和计算机设备,能够在额头区域的尺寸信息大于人脸区域尺寸信息的预设比例值时,获取人脸区域的人脸轮廓,进而获取符合该人脸轮廓的脸型类型,根据脸型类型生成能够与待处理图像的头发区域相融合的发型,得到合成图像,这样,可以在检测出待处理图像的头发区域的发量交稀疏,甚至秃顶时为该待处理图像的头发区域配置一顶能够与该头发区域相融合的假发从而弥补头发稀疏的问题,使图像呈现更好的效果。

附图说明

[0018] 为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
[0019] 图1为一个实施例中计算机设备的框图;
[0020] 图2为一实施例中的图像处理方法的流程图;
[0021] 图3为一实施例中获取待处理图像人脸区域中的额头区域的尺寸信息的流程图;
[0022] 图4为一实施例中根据预设脸型样本库获取符合所述人脸轮廓的脸型类型的流程图;
[0023] 图5为一实施例中根据所述脸型类型生成能够与所述待处理图像的头发区域相融合的发型,得到合成图像的流程图;
[0024] 图6为另一实施例中根据所述脸型类型生成能够与所述待处理图像的头发区域相融合的发型,得到合成图像的流程图;
[0025] 图7为一实施例中获取所述头发区域的发色特征的流程图;
[0026] 图8为一实施例中图像处理装置的内部结构框图;
[0027] 图9为一个实施例中图像处理电路的示意图。

具体实施方式

[0028] 为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
[0029] 本申请提供一种图像处理方法,该图像处理方法应用于计算机设备。计算机设备可以为包括手机、平板电脑、PDA(Personal Digital Assistant,个人数字助理)、POS(Point of Sales,销售移动终端)、车载电脑、穿戴式设备等任意移动终端设备。
[0030] 如图1所示,该计算机设备包括通过系统总线连接的处理器、存储器、显示屏和输入装置。其中,存储器可包括非易失性存储介质及处理器。计算机设备的非易失性存储介质存储有操作系统及计算机程序,该计算机程序被处理器执行时以实现本申请实施例中提供的一种图像处理方法。该处理器用于提供计算和控制能力,支撑整个计算机设备的运行。计算机设备中的内存储器为非易失性存储介质中的计算机程序的运行提供环境。计算机设备的显示屏可以是液晶显示屏或者电子墨水显示屏等,输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,也可以是外接的键盘、触控板或鼠标等。该计算机设备可以是手机、平板电脑或者个人数字助理或穿戴式设备等。本领域技术人员可以理解,图1中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
[0031] 需要说明的是,该图像处理方法可以是在计算机设备上进行拍照的场景下实现的;也可以是在计算机设备对图像进行后期编辑处理的场景下实现的。当用户想要拍照时便启动计算机设备的成像设备,或当用户想要对图像进行后期编辑时便开启计算机设备的图像编辑窗口。
[0032] 如图2所示,在一个实施例中,提供一种图像处理方法,包括以下步骤:
[0033] 步骤202:获取待处理图像人脸区域中的额头区域的尺寸信息。
[0034] 启动计算机设备的成像设备,进入拍照预览模式,通过预设的人脸识别算法,识别拍照预览窗口中待处理图像的人脸区域。或,启动计算机设备的图像编辑窗口,进入图像编辑预览模式,通过预设的人脸识别算法,识别图像预览窗口中待处理图像的人脸区域。
[0035] 通过预设模型识别拍照/图像预览窗口中待处理图像的人脸区域。预设模型可以是预先通过机器学习构建的决策模型,构建预设模型时,可获取大量的样本图像,样本图像中包含人脸图像,可根据人脸图像的主要特征点进行标记,并将标记的样本图像作为预设模型的输入,通过机器学习进行训练,得到预设模型。该预设模型可以用于识别人脸区域中的局部特征的位置。其中,人脸区域中的局部特征可以为发际线、眉毛、眼睛、鼻尖、下颏及脸宽区等位置。通过识别的局部特征就可以获取人脸区域中额头区域的尺寸信息。
[0036] 需要说明的是,发际线可以用于区分待处理图像中的人脸区域和头发区域。额头区域为发际线以下眉毛以上的区域。额头区域的尺寸信息可以理解额头的长度信息和额头的宽度信息,其中,额头的长度信息为发际线的最高点到左、右眉毛最高点连线的距离;额头的宽度信息为额头最宽的距离。
[0037] 步骤204:当所述额头区域的尺寸信息大于所述人脸区域尺寸信息的预设比例值时,获取所述人脸区域的人脸轮廓。
[0038] 通过预设模型,还可以获取人脸区域的尺寸信息,其中人脸区域的尺寸信息可以理解为人脸区域的长度和宽度信息。当额头区域的长度信息大于人脸区域长度信息的预设比例值时,则认为该人脸区域的发际线过高,进而可以知晓该待处理图像的头发区域的发量较稀疏,甚至秃顶。
[0039] 根据“三庭五眼”的审美标准,具体地,该预设比例值可以设为三分之一,也即,当额头区域的长度信息大于人脸区域长度信息的三分之一时,则可认定发际线过高。当检测出待处理图像的头发区域的发量交稀疏,甚至秃顶时,为了使处理后的图像呈现更好的效果,可以为该待处理图像的头发区域配置一顶能够与该头发区域融合的假发,提高图像的可视度和美观度。
[0040] 当额头区域的尺寸信息大于人脸区域尺寸信息的预设比例值时,获取人脸区域的人脸轮廓。根据预设模型可以获取该人脸区域的人脸轮廓以及该人脸轮廓的特征向量。
[0041] 步骤206:根据预设脸型样本库获取符合所述人脸轮廓的脸型类型。
[0042] 在计算机设备内可以预先设定一个预设脸型样本库,用于存储多种类型的脸型类型。进而根据获取的人脸轮廓的特征向量,通过与预设脸型样本库的各类脸型类型进行匹配,从预设脸型样本库中获取与该人脸轮廓相似度最高的脸型类型,进而可以获取该人脸轮廓的脸型类型。
[0043] 步骤208:根据所述脸型类型生成能够与所述待处理图像的头发区域相融合的发型,得到合成图像。
[0044] 根据获取的脸型类型,可以自动为用户生成与该待处理图像的头发区域相融合的发型。与头发区域相融合的发型可以理解为,能够生成与待处理图像的脸型类型、头发区域的原有发色、原有头发的纹理特征等信息相匹配的发型。结合生成的发型与待处理图像进行合成,进而形成合成图像。
[0045] 上述处理方法,当额头区域的尺寸信息大于人脸区域尺寸信息的预设比例值时,获取人脸区域的人脸轮廓,进而获取符合该人脸轮廓的脸型类型,根据脸型类型生成能够与待处理图像的头发区域相融合的发型,得到合成图像,这样,可以在检测出待处理图像的头发区域的发量交稀疏,甚至秃顶时,可以为该待处理图像的头发区域配置一顶能够与该头发区域相融合的假发从而弥补头发稀疏的问题,使图像呈现更好的效果。
[0046] 如图3所示,在一个实施例中,所述获取待处理图像人脸区域中的额头区域的尺寸信息,包括:
[0047] 步骤302:根据标注在人脸图像上的多个特征点训练生成预设模型。
[0048] 具体地,预设模型可以为深度神经网络模型或主动形状模型。其中,可以通过大量标注数据去训练生成一个深度神经网络模型或者主动形状模型,利用该深度神经网络模型或者主动形状模型可以用于定位到任何图像中的发际线和人体五官的位置。
[0049] 其中,深度神经网络模型可以通过获取大量的人脸图像,同时标注在人脸图像的多个特征点,其主要特征点可以为:左眼内眼角点、左眼外眼角点、右眼内眼角点、右眼外眼角点、左眉头点、右眉头点、鼻下点、下巴点、额头发际点、左眼外眼角外侧发际点以及右眼外眼角外侧发际点等。可以利用主动形状模型确定人脸面部的的主要77个特征点,进而可以划分额头发际线子区域、左、右沿子区域、鼻子子区域、嘴子区域、下巴子区域的区域。将各子区域的采样块输入到不同器官所对应的深度神经网络模型中,求出表现每一器官隶属度的相似度概率向量。将相似度概率加权求和得出对应于每个人的综合相似度概率,用于判别人脸区域的局部特征的归属,继而可以定位出人脸区域的局部特征的位置。
[0050] 步骤304:根据所述预设模型标记所述人脸区域的发际线、左眉毛、右眉毛、下巴尖。
[0051] 由于训练生成的深度神经网络模型或者主动形状模型可以定位和标记到任何人脸图像中的发际线、左眉毛、右眉毛、下巴尖以及人体五官特征的位置。
[0052] 步骤306:根据所述发际线、左眉毛、右眉毛获取所述额头区域的尺寸信息。
[0053] 根据标记出的发际线、左眉毛、右眉毛、下巴尖的位置就可以计算出待处理图像人脸区域的额头区域的长度信息和人脸区域的长度信息。
[0054] 在本实施例中,额头区域的尺寸信息用额头区域的长度信息来表示,即可以表示为发际线的最高点到左眉毛最高点、右眉毛最高点连接线的距离。人脸区域尺寸信息用人脸区域的长度信息来表示,即可以表示为发际线的最高点到下巴尖的距离。
[0055] 需要说明的是,距离可以理解为像素距离。
[0056] 如图4所示,在一个实施例中,根据预设脸型样本库获取符合所述人脸轮廓的脸型类型,包括:
[0057] 步骤402:创建用于存储不同脸型类型的预设脸型样本库。
[0058] 在计算机设备中可以创建用于存储不同脸型类型类型的脸型样本库。脸型类型包括:方形脸、圆形脸、三角形脸、长形脸、椭圆形脸、菱形脸和心形脸。其中,方形脸包括长方形脸和正方形脸,又被称为国字脸;圆形脸的形状类似于椭圆形但略短,通常有一个圆形的下巴,又被称为娃娃脸;三角形脸又称为梨形脸;长脸型,一般脸宽小于脸长的三分之二;椭圆型脸,又被称为鹅蛋脸;菱形脸,又被称为钻石脸;心形脸,又称倒三角脸。预设脸型样本库中存储了上述七种脸型的成千上万个样本。
[0059] 步骤404:根据所述人脸轮廓的特征向量,基于K近邻算法在所述预设脸型样库中获取符合所述人脸轮廓的脸型类型。
[0060] 根据获取的人脸轮廓的特征向量,基于K近邻算法能够在预设脸型样本库中获取符合待处理图像中人脸轮廓的脸型类型。其中,K最近邻(k-Nearest Neighbor,KNN)分类算法,是最简单的机器学习算法之一。所谓K近邻算法,即是给定一个训练数据集,对新的输入实例,在训练数据集中找到与该实例最邻近的K个实例(也就是上面所说的K个邻居),这K个实例的多数属于某个类,就把该输入实例分类到这个类中。
[0061] 如图5所示,在一个实施例中,所述根据所述脸型类型生成能够与所述待处理图像的头发区域相融合的发型,得到合成图像,包括:
[0062] 步骤502:获取所述头发区域的发色特征和纹理信息。
[0063] 确定待处理图像的头发区域后,可获取头发区域的第一头发区域,可根据头发区域中各个像素点的颜色信息获取第一头发区域,其中,颜色信息可以是像素点在RGB(红、绿、蓝)、HSV(色调、饱和度、明度)或YUV等颜色空间的值。在一个实施例中,可预先划分属于第一头发区域的颜色信息范围,并可将头发区域中颜色信息落入预先划分的颜色信息范围的像素点定义为第一头发区域。
[0064] 其中,发色特征可指的是人的头发在待处理图像中呈现的颜色、亮暗等,发色特征可包括第一头发区域的亮度特征及颜色特征等。纹理信息可指头发的从发根至发尖的延伸方向,头发的弯曲度等。
[0065] 步骤504:根据所述脸型类型、发色特征、纹理信息生成能够与所述待处理图像的头发区域相融合的发型。
[0066] 根据获取的脸型类型、发色特征、纹理信息可以自动生成能够与该头发区域向融合的发型。例如,获取的脸型类型为方形脸(国字脸),发色特征为黑色,纹理信息为两鬓角自由下垂,那自动生成的发型是适合与国字脸,发型的发色特征为黑色,其发型的两鬓角也是自由下垂,对于发型靠近额头区域的纹理可以根据原始头发的纹理信息来获取,若没有原始头发的纹理信息,则获取与国字脸型匹配度最高的两鬓角自己下垂的黑色发型。
[0067] 可选的,生成的发型也可以存储在相应的预设发型库中,发型库中的发型的颜色具有可调性。具体地,发型的颜色头发区域的发色调整。
[0068] 步骤506:将所述发型与所述待处理图像相融合,得到所述合成图像。
[0069] 将生成的发型与待处理图像进行融处理,以形成合成图像,弥补发量稀少的不足,可以呈现更好的显示效果。
[0070] 如图6所示,在一个实施例中,所述根据所述脸型类型生成能够与所述待处理图像的头发区域相融合的发型,得到合成图像,包括:
[0071] 步骤602:获取所述头发区域的发色特征。
[0072] 确定待处理图像的头发区域后,可获取头发区域的第一头发区域,可根据头发区域中各个像素点的颜色信息获取第一头发区域,其中,颜色信息可以是像素点在RGB(红、绿、蓝)、HSV(色调、饱和度、明度)或YUV等颜色空间的值。在一个实施例中,可预先划分属于第一头发区域的颜色信息范围,并可将头发区域中颜色信息落入预先划分的颜色信息范围的像素点定义为第一头发区域。
[0073] 其中,发色特征可指的是人的头发在待处理图像中呈现的颜色、亮暗等,发色特征可包括第一头发区域的亮度特征及颜色特征等。
[0074] 步骤604:根据所述脸型类型、发色特征显示能够与所述待处理图像的头发区域相匹配的至少两个发型。
[0075] 根据脸型类型、发色特征显示能够与待处理图像的头发区域相匹配的至少两个发型。也即,可以根据脸型类型和发色特征生成至少两个发型供用户自主选择。若待处理图像的脸型类型为国字脸、发色特征为棕色,则可以显示能够匹配国字脸且为棕色的至少两个发型。
[0076] 步骤606:接收用户对所述发型的选择操作和编辑。
[0077] 根据显示的至少两个发型,用户可以根据自己的需求,选择其中任一一个发型作为待处理图像的假发。同时,用户还可以对选择的发型进行编辑,例如调整发型的颜色、大小、旋转角度、发型的发量(浓密度)等。
[0078] 需要说明的是,选择操作可以包括点击、长按、滑动、双击、缩放等触摸操作,还可以包括通过鼠标、键盘等操作,亦或是手势操作或音控操作等。
[0079] 步骤608:将用户编辑后的所述发型与所述待处理图像相融合,得到所述合成图像。
[0080] 待用户对选择的发型进行编辑处理后,将该发型与待处理图像进行融合处理,得到合成图像。
[0081] 本实施例的方法,可以为用户提供更多的选择空间,同时,还可以根据用户的需求来编辑自己喜欢的发型,提高了用户的体验度和趣味性。
[0082] 进一步的,如图7所示,所述获取所述头发区域的发色特征,包括:
[0083] 步骤702:生成所述头发区域的颜色直方图。
[0084] 颜色直方图可以是RGB颜色直方图、HSV颜色直方图或是YUV颜色直方图等,并不限于此。颜色直方图可用于描述不同色彩在头发区域中所占的比例,可将颜色空间划分为多个小的颜色区间,并分别计算头发区域中落入各个颜色区间的像素点的数量,从而可得到颜色直方图。
[0085] 在一个实施例中,可先将头发区域从RGB颜色空间转换至HSV颜色空间。其中,在HSV颜色空间中,分量可包括H(Hue,色调)、S(Saturation,饱和度)及V(Value,明度)。分别对HSV中的H、S及V三个分量进行量化,并将量化后的H、S及V三个分量合成一维的特征向量,特征向量的取值可在0~255之间,共256个值,也即,可将HSV颜色空间划分为256个颜色区间,每个颜色区间对应一个特征向量的值。例如,可将H分量量化为16级,将S分量及V分量分别量化为4级,合成一维的特征向量可如式(1)所示:
[0086] L=H*QS*QV+S*QV+V  (1);
[0087] 其中,L表示量化后的H、S及V三个分量合成的一维的特征向量;QS表示S分量的量化级数,QV表示V分量的量化级数。计算机设备可根据人脸区域中各个像素点在HSV颜色空间中的值,确定在H、S及V三个分量的量化级别,并计算各个像素点的特征向量,再分别统计特征向量在256个值上分布的像素点的数量,生成颜色直方图。
[0088] 步骤704:根据所述颜色直方图划分头发颜色区间。
[0089] 根据颜色直方图可以获取颜色直方图上包含的波峰以及波峰对应的颜色区间。其中,波峰可通过求取颜色直方图中各个点的一阶差分进行确定,峰值则为波峰上的最大值;颜色区间可以是HSV颜色空间中与峰值对应的特征向量的值。可以预先设定头发颜色区间的范围值,再根据峰值对应的颜色区间及预设的范围值计算头发颜色区间。
[0090] 可选地,可将峰值对应的颜色区间与预设的范围值相乘,其中,预设的范围值可包括上限值与下限值,可将峰值对应的颜色区间分别与上限值及下限值相乘,得到头发颜色区间。例如,预先设定头发颜色区间的范围值为80%~120%,若颜色直方图的峰值对应的颜色区间为150的值,则可计算得到头发颜色区间为120~180。
[0091] 步骤706:将所述头发区域中落入所述头发颜色区间的像素点定义为第一头发区域。
[0092] 获取头发区域中各个像素点在HSV颜色空间的特征向量,并判断特征向量是否落入头发颜色区间,若落入,则可将对应的像素点定义为第一头发区域的像素点。
[0093] 步骤708:将所述待处理图像从第一颜色空间转换至第二颜色空间;
[0094] 需要说明的是,第一颜色空间可以是RGB颜色空间,第二颜色空间可以是YUV颜色空间,也可以是其他颜色空间,在此不作限定。YUV颜色空间可包括亮度信号Y和两个色度信号B-Y(即U)、R-Y(即V),其中,Y分量表示明亮度,可以是灰阶值,U及V表示色度,可用于描述图像的色彩及饱和度,YUV颜色空间的亮度信号Y和色度信号U、V是分离的。按照特定的转换公式,将待处理图像从第一颜色空间转换至第二颜色空间。
[0095] 步骤710,计算所述第一头发区域中包含的像素点在所述第二颜色空间中各个分量的均值,并将所述各个分量的均值作为所述第一头发区域的发色特征。
[0096] 计算第一头发区域中包含的像素点在第二颜色空间中各个分量的均值,比如,YUV颜色空间包含Y分量、U分量及V分量,则分别计算第一头发区域中包含的所有像素点在Y分量的均值、在U分量的均值及在V分量的均值,并可将第一头发区域中包含的所有像素点在Y分量、U分量及V分量的均值作为第一头发区域的发色特征,其中,Y分量的均值可以作为第一头发区域的亮度特征,U分量及V分量的均值可作为第一头发区域的颜色特征等。
[0097] 在一个实施例中,计算机设备可先将待处理图像的人脸区域从RGB第一颜色空间转换至YUV第二颜色空间,并生成人脸区域的YUV颜色直方图,可根据YUV颜色直方图获取人脸区域的第一头发区域,再分别计算第一头发区域中包含的像素点在YUV第二颜色空间中各个分量的均值,并将各个分量的均值作为第一头发区域的发色特征。
[0098] 在本实施例中,可将待处理图像从第一颜色空间转换至第二颜色空间,并在第二颜色空间中提取第一头发区域的发色特征,可使得到的发色特征更为准确。
[0099] 在一个实施例中,图像处理方法,还包括:对所述合成图像的边缘进行中值滤波处理的步骤。
[0100] 形成的合成图形的边缘比较锐利、不自然,通过对合成图像的边缘进行中值滤波处理后,可以获取更为自然,且融合度高的合成图像。
[0101] 本申请实施例还提供一种图像处理装置,包括:
[0102] 获取模块810,用于获取待处理图像人脸区域中的额头区域的尺寸信息;
[0103] 处理模块820,当所述额头区域的尺寸信息大于所述人脸区域尺寸信息的预设比例值时,获取所述人脸区域的人脸轮廓;
[0104] 匹配模块830,根据预设脸型样本库获取符合所述人脸轮廓的脸型类型;
[0105] 发型融合模块840,根据所述脸型类型生成能够与所述待处理图像的头发区域相融合的发型,得到合成图像。
[0106] 上述图像处理装置,能够在额头区域的尺寸信息大于人脸区域尺寸信息的预设比例值时,获取人脸区域的人脸轮廓,进而获取符合该人脸轮廓的脸型类型,根据脸型类型生成能够与待处理图像的头发区域相融合的发型,得到合成图像,这样,可以在检测出待处理图像的头发区域的发量交稀疏,甚至秃顶时为该待处理图像的头发区域配置一顶能够与该头发区域相融合的假发从而弥补头发稀疏的问题,使图像呈现更好的效果。
[0107] 本申请实施例还提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现如下步骤:
[0108] 获取待处理图像人脸区域中的额头区域的尺寸信息;
[0109] 当所述额头区域的尺寸信息大于所述人脸区域尺寸信息的预设比例值时,获取所述人脸区域的人脸轮廓;
[0110] 根据预设脸型样本库获取符合所述人脸轮廓的脸型类型;
[0111] 根据所述脸型类型生成能够与所述待处理图像的头发区域相融合的发型,得到合成图像。
[0112] 上述计算机可读存储介质中计算机程序(指令)在被执行时,能够在额头区域的尺寸信息大于人脸区域尺寸信息的预设比例值时,获取人脸区域的人脸轮廓,进而获取符合该人脸轮廓的脸型类型,根据脸型类型生成能够与待处理图像的头发区域相融合的发型,得到合成图像,这样,可以在检测出待处理图像的头发区域的发量交稀疏,甚至秃顶时为该待处理图像的头发区域配置一顶能够与该头发区域相融合的假发从而弥补头发稀疏的问题,使图像呈现更好的效果。
[0113] 本申请实施例还提供一种计算机设备。上述计算机设备中包括图像处理电路,图像处理电路可以利用硬件和/或软件组件实现,可包括定义ISP(Image Signal Processing,图像信号处理)管线的各种处理单元。图9为一个实施例中图像处理电路的示意图。如图9所示,为便于说明,仅示出与本申请实施例相关的图像处理技术的各个方面。
[0114] 如图9所示,图像处理电路包括ISP处理器940和控制逻辑器950。成像设备910捕捉的图像数据首先由ISP处理器940处理,ISP处理器940对图像数据进行分析以捕捉可用于确定和/或成像设备910的一个或多个控制参数的图像统计信息。成像设备910可包括具有一个或多个透镜912和图像传感器914的照相机。图像传感器914可包括色彩滤镜阵列(如Bayer滤镜),图像传感器914可获取用图像传感器914的每个成像像素捕捉的光强度和波长信息,并提供可由ISP处理器940处理的一组原始图像数据。传感器920(如陀螺仪)可基于传感器920接口类型把采集的图像处理的参数(如防抖参数)提供给ISP处理器940。传感器920接口可以利用SMIA(Standard Mobile Imaging Architecture,标准移动成像架构)接口、其它串行或并行照相机接口或上述接口的组合。
[0115] 此外,图像传感器914也可将原始图像数据发送给传感器920,传感器920可基于传感器920接口类型把原始图像数据提供给ISP处理器940,或者传感器920将原始图像数据存储到图像存储器930中。
[0116] ISP处理器940按多种格式逐个像素地处理原始图像数据。例如,每个图像像素可具有8、10、12或14比特的位深度,ISP处理器940可对原始图像数据进行一个或多个图像处理操作、收集关于图像数据的统计信息。其中,图像处理操作可按相同或不同的位深度精度进行。
[0117] ISP处理器940还可从图像存储器930接收图像数据。例如,传感器920接口将原始图像数据发送给图像存储器930,图像存储器930中的原始图像数据再提供给ISP处理器940以供处理。图像存储器930可为存储器装置的一部分、存储设备、或电子设备内的独立的专用存储器,并可包括DMA(Direct Memory Access,直接直接存储器存取)特征。
[0118] 当接收到来自图像传感器914接口或来自传感器920接口或来自图像存储器930的原始图像数据时,ISP处理器940可进行一个或多个图像处理操作,如时域滤波。处理后的图像数据可发送给图像存储器930,以便在被显示之前进行另外的处理。ISP处理器940还可从图像存储器930接收处理数据,对所述处理数据进行原始域中以及RGB和YCbCr颜色空间中的图像数据处理。处理后的图像数据可输出给显示器980,以供用户观看和/或由图形引擎或GPU(Graphics Processing Unit,图形处理器)进一步处理。此外,ISP处理器940的输出还可发送给图像存储器930,且显示器980可从图像存储器930读取图像数据。在一个实施例中,图像存储器930可被配置为实现一个或多个帧缓冲器。此外,ISP处理器940的输出可发送给编码器/解码器970,以便编码/解码图像数据。编码的图像数据可被保存,并在显示于显示器980设备上之前解压缩。
[0119] ISP处理器940处理图像数据的步骤包括:对图像数据进行VFE(Video Front End,视频前端)处理和CPP(Camera Post Processing,摄像头后处理)处理。对图像数据的VFE处理可包括修正图像数据的对比度或亮度、修改以数字方式记录的光照状态数据、对图像数据进行补偿处理(如白平衡,自动增益控制,γ校正等)、对图像数据进行滤波处理等。对图像数据的CPP处理可包括对图像进行缩放、向每个路径提供预览帧和记录帧。其中,CPP可使用不同的编解码器来处理预览帧和记录帧。ISP处理器940处理后的图像数据可发送给美颜模块960,以便在被显示之前对图像进行美颜处理。美颜模块960对图像数据美颜处理可包括:美白、祛斑、磨皮、瘦脸、祛痘、增大眼睛等。其中,美颜模块960可为移动终端中CPU(Central Processing Unit,中央处理器)、GPU或协处理器等。美颜模块960处理后的数据可发送给编码器/解码器970,以便编码/解码图像数据。编码的图像数据可被保存,并在显示于显示器980设备上之前解压缩。其中,美颜模块960还可位于编码器/解码器970与显示器980之间,即美颜模块对已成像的图像进行美颜处理。上述编码器/解码器970可为移动终端中CPU、GPU或协处理器等。
[0120] ISP处理器940确定的统计数据可发送给控制逻辑器950单元。例如,统计数据可包括自动曝光、自动白平衡、自动聚焦、闪烁检测、黑电平补偿、透镜912阴影校正等图像传感器914统计信息。控制逻辑器950可包括执行一个或多个例程(如固件)的处理器和/或微控制器,一个或多个例程可根据接收的统计数据,确定成像设备910的控制参数以及ISP处理器940的控制参数。例如,成像设备910的控制参数可包括传感器920控制参数(例如增益、曝光控制的积分时间)、照相机闪光控制参数、透镜912控制参数(例如聚焦或变焦用焦距)、或这些参数的组合。ISP控制参数可包括用于自动白平衡和颜色调整(例如,在RGB处理期间)的增益水平和色彩校正矩阵,以及透镜912阴影校正参数。
[0121] 运用图9中图像处理技术可实现如上述任一实施例中的图像处理方法。运用图9中图像处理技术在实现上述任一实施例中的图像处理方法时,能够在额头区域的尺寸信息大于人脸区域尺寸信息的预设比例值时,获取人脸区域的人脸轮廓,进而获取符合该人脸轮廓的脸型类型,根据脸型类型生成能够与待处理图像的头发区域相融合的发型,得到合成图像,这样,可以在检测出待处理图像的头发区域的发量交稀疏,甚至秃顶时为该待处理图像的头发区域配置一顶能够与该头发区域相融合的假发从而弥补头发稀疏的问题,使图像呈现更好的效果。
[0122] 本申请实施例还提供一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行如下步骤:
[0123] 获取待处理图像人脸区域中的额头区域的尺寸信息;
[0124] 当所述额头区域的尺寸信息大于所述人脸区域尺寸信息的预设比例值时,获取所述人脸区域的人脸轮廓;
[0125] 根据预设脸型样本库获取符合所述人脸轮廓的脸型类型;
[0126] 根据所述脸型类型生成能够与所述待处理图像的头发区域相融合的发型,得到合成图像。
[0127] 包含指令的计算机程序产品,当其在计算机上运行时,能够在额头区域的尺寸信息大于人脸区域尺寸信息的预设比例值时,获取人脸区域的人脸轮廓,进而获取符合该人脸轮廓的脸型类型,根据脸型类型生成能够与待处理图像的头发区域相融合的发型,得到合成图像,这样,可以在检测出待处理图像的头发区域的发量交稀疏,甚至秃顶时为该待处理图像的头发区域配置一顶能够与该头发区域相融合的假发从而弥补头发稀疏的问题,使图像呈现更好的效果。
[0128] 本申请所使用的对存储器、存储、数据库或其它介质的任何引用可包括非易失性和/或易失性存储器。合适的非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM),它用作外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDR SDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)。
[0129] 以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本申请专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。