一种对戴眼镜人员的人脸面部提取方法转让专利

申请号 : CN202211306236.9

文献号 : CN115376197B

文献日 :

基本信息:

PDF:

法律信息:

相似专利:

发明人 : 汪萌马韵洁何军刘升

申请人 : 合肥工业大学

摘要 :

本发明公开了一种对戴眼镜人员的人脸面部提取方法,涉及人脸识别技术领域,本发明对戴眼镜人员的人脸图像进行人脸检测,得到人脸检测框图像即人脸框图,并进行尺寸归一化得到归一化人脸框图;对归一化人脸框图进行肤色提取,得到人脸肤色区域;对归一化人脸框图进行人脸关键点检测,得到人脸关键点的坐标信息;将人脸关键点与人脸肤色区域相融合,得到人脸肤色关键点图像,并对人脸肤色关键点图像进行二值化得到二值化图像GS;对二值化图像GS进行轮廓提取,提取戴眼镜人员的人脸面部轮廓信息;根据戴眼镜人员的人脸面部轮廓信息,对归一化人脸框图进行人脸面部区域的提取,从而提取出戴眼镜人员的完整人脸面部区域。

权利要求 :

1.一种对戴眼镜人员的人脸面部提取方法,其特征在于,包括以下步骤:S1,采集戴眼镜人员的人脸图像;

S2,对戴眼镜人员的人脸图像进行人脸检测,得到人脸检测框图像即人脸框图,并对人脸框图进行尺寸归一化,得到归一化人脸框图;

S3,对归一化人脸框图进行肤色提取,得到人脸肤色区域;

S4,对归一化人脸框图进行人脸关键点检测,得到人脸关键点的坐标信息;

S5,将人脸关键点与人脸肤色区域相融合,得到人脸肤色关键点图像,并对人脸肤色关键点图像进行二值化处理,得到二值化图像GS;

S6,对人脸肤色关键点图像经二值化处理后得到的二值化图像GS进行轮廓提取,提取戴眼镜人员的人脸面部轮廓信息;

S7,根据戴眼镜人员的人脸面部轮廓信息,对归一化人脸框图进行人脸面部区域的提取,得到戴眼镜人员的人脸面部区域;

步骤S4中,针对归一化人脸框图自动定位出一组预定义的人脸基准点即人脸关键点,包括由眉毛、眼睛、鼻子、嘴巴构成的n个人脸内部关键点,以及m个人脸轮廓关键点;

步骤S5的具体过程如下所示:

S51,将人脸关键点与人脸肤色区域相融合,获取人脸肤色关键点图像:S511,将步骤S3提取到的人脸肤色区域的图像变换为灰度图像;

S512,根据步骤S4提取到的人脸关键点坐标信息,在变换后的灰度图像中绘制人脸关键点,将人脸关键点中的眉毛、眼睛、鼻子、嘴巴使用白色直线进行连接,连接后得到人脸肤色关键点图像;

S52,计算人脸肤色关键点图像的二值化阈值T;

S53,利用二值化阈值T,对人脸肤色关键点图像进行二值化处理,得到二值化图像GS;

步骤S6中,提取二值化图像GS中的所有轮廓信息,遍历二值化图像GS中的所有轮廓信息,选出面积最大的轮廓信息,面积最大的轮廓信息即为人脸面部轮廓信息。

2.根据权利要求1所述的一种对戴眼镜人员的人脸面部提取方法,其特征在于,步骤S3中,使用RGB模型进行肤色提取,人脸肤色区域中的像素点的RGB值需要满足如下所示的约束条件:(R,G,B)>(95,40,20);

max(R,G,B)‑min(R,G,B)>15;

|R‑G|>15;

R>G;

R>B;

其中,R表示像素点的红色值,G表示像素点的绿色值,B表示像素点的蓝色值,max(R,G,B)表示像素点的R、G、B三个分量值中的最大值,min(R,G,B)表示像素点的R、G、B三个分量值中的最小值;

满足该约束条件的像素点即为人脸肤色区域中的像素点,根据人脸肤色区域中的像素点即可得到人脸肤色区域。

3.根据权利要求1所述的一种对戴眼镜人员的人脸面部提取方法,其特征在于,步骤S52中,利用最大类间方差法计算人脸肤色关键点图像的二值化阈值T,所述二值化阈值T为前景和背景的分割阈值,其中,前景是指不包含眼镜的区域,背景是指眼镜区域;若像素点的灰度值大于二值化阈值T,则判断该像素点为前景像素点;若像素点的灰度值小于等于二值化阈值T,则判断该像素点为背景像素点;

最大类间方差法如下所示:

根据二值化阈值T对人脸肤色关键点图像中的前景和背景进行分割后,若前景像素点数量占人脸肤色关键点图像总像素点数量的比例为w0,前景像素点的平均灰度值为u0,背景像素点数量占人脸肤色关键点图像总像素点数量的比例为w1,背景像素点的平均灰度值为u1;则人脸肤色关键点图像的总平均灰度值u,以及前景和背景的方差g分别为:u=(w0×u0)+(w1×u1);

当方差g最大时,前景和背景的差异最大,此时的二值化阈值T为最佳的分割阈值,此时的二值化阈值T即为最终计算出的二值化阈值T;

步骤S53中,利用步骤S52最终计算出的二值化阈值T,对人脸肤色关键点图像进行二值化处理,若像素点的灰度值大于二值化阈值T,则将该像素点的像素值设置为255,若像素点的灰度值小于二值化阈值T,则将该像素点的像素值设置为0,从而得到二值化图像GS。

4.根据权利要求1所述的一种对戴眼镜人员的人脸面部提取方法,其特征在于,步骤S7中,根据人脸面部轮廓信息,逐个遍历人脸面部轮廓的每个像素点,在归一化人脸框图上对应的保持人脸面部轮廓上以及人脸面部轮廓内的像素点的像素值不变,并且在归一化人脸框图上对应的将人脸面部轮廓外的像素点的像素值置0,从而提取出戴眼镜人员的人脸面部区域。

说明书 :

一种对戴眼镜人员的人脸面部提取方法

技术领域

[0001] 本发明涉及人脸提取技术领域,尤其是一种对戴眼镜人员的人脸面部提取方法。

背景技术

[0002] 随着社会的发展,越来越多的人在生活中需要戴上眼镜,在对戴眼镜人士进行微表情峰值帧(Apex)检测过程中,提取一个完整的人脸面部区域对于正确检测出这类人脸微表情中Apex帧具有重要作用。
[0003] 研究发现,在提取戴眼镜人员的人脸面部区域的过程中,由于眼镜框的存在,使得提取到的人脸面部区域存在残缺问题,即,在分割人脸时,可能只有眼镜上部分的人脸或者眼镜下部分的人脸,对后续的面部微表情识别的准确性有非常重要的影响。因此,为了能够有效的提高戴眼镜人员的微表情识别率,研究将戴眼镜人员的人脸面部区域完整提取出来显得意义重大。

发明内容

[0004] 为了克服上述现有技术中的缺陷,本发明提供一种对戴眼镜人员的人脸面部提取方法,能够提取出戴眼镜人员的完整人脸面部区域,避免眼镜框导致的人脸面部区域发生断裂情况。
[0005] 为实现上述目的,本发明采用以下技术方案,包括:
[0006] 一种对戴眼镜人员的人脸面部提取方法,包括以下步骤:
[0007] S1,采集戴眼镜人员的人脸图像;
[0008] S2,对戴眼镜人员的人脸图像进行人脸检测,得到人脸检测框图像即人脸框图,并对人脸框图进行尺寸归一化,得到归一化人脸框图;
[0009] S3,对归一化人脸框图进行肤色提取,得到人脸肤色区域;
[0010] S4,对归一化人脸框图进行人脸关键点检测,得到人脸关键点的坐标信息;
[0011] S5,将人脸关键点与人脸肤色区域相融合,得到人脸肤色关键点图像,并对人脸肤色关键点图像进行二值化处理,得到二值化图像GS;
[0012] S6,对人脸肤色关键点图像经二值化处理后得到的二值化图像GS进行轮廓提取,提取戴眼镜人员的人脸面部轮廓信息;
[0013] S7,根据戴眼镜人员的人脸面部轮廓信息,对归一化人脸框图进行人脸面部区域的提取,得到戴眼镜人员的人脸面部区域。
[0014] 优选的,步骤S3中,使用RGB模型进行肤色提取,人脸肤色区域中的像素点的RGB值需要满足如下所示的约束条件:
[0015] (R,G,B)>(95,40,20);
[0016] max(R,G,B)‑min(R,G,B)>15;
[0017] |R‑G|>15;
[0018] R>G;
[0019] R>B;
[0020] 其中,R表示像素点的红色值,G表示像素点的绿色值,B表示像素点的蓝色值,max(R,G,B)表示像素点的R、G、B三个分量值中的最大值,min(R,G,B)表示像素点的R、G、B三个分量值中的最小值;
[0021] 满足该约束条件的像素点即为人脸肤色区域中的像素点,根据人脸肤色区域中的像素点即可得到人脸肤色区域。
[0022] 优选的,步骤S4中,利用计算机视觉库OpenCV进行人脸关键点检测,针对归一化人脸框图自动定位出一组预定义的人脸基准点即人脸关键点,包括由眉毛、眼睛、鼻子、嘴巴构成的n个人脸内部关键点,以及m个人脸轮廓关键点。
[0023] 优选的,步骤S5的具体过程如下所示:
[0024] S51,将人脸关键点与人脸肤色区域相融合,获取人脸肤色关键点图像:
[0025] S511,将步骤S3提取到的人脸肤色区域的图像变换为灰度图像;
[0026] S512,根据步骤S4提取到的人脸关键点坐标信息,在变换后的灰度图像中绘制人脸关键点,将人脸关键点中的眉毛、眼睛、鼻子、嘴巴使用白色直线进行连接,连接后得到人脸肤色关键点图像;
[0027] S52,计算人脸肤色关键点图像的二值化阈值T;
[0028] S53,利用二值化阈值T,对人脸肤色关键点图像进行二值化处理,得到二值化图像GS。
[0029] 优选的,步骤S52中,利用最大类间方差法计算人脸肤色关键点图像的二值化阈值T,所述二值化阈值T为前景和背景的分割阈值,其中,前景是指不包含眼镜的区域,背景是指眼镜区域;若像素点的灰度值大于二值化阈值T,则判断该像素点为前景像素点;若像素点的灰度值小于等于二值化阈值T,则判断该像素点为背景像素点;
[0030] 最大类间方差法如下所示:
[0031] 根据二值化阈值T对人脸肤色关键点图像中的前景和背景进行分割后,若前景像素点数量占人脸肤色关键点图像总像素点数量的比例为w0,前景像素点的平均灰度值为u0,背景像素点数量占人脸肤色关键点图像总像素点数量的比例为w1,背景像素点的平均灰度值为u1;则人脸肤色关键点图像的总平均灰度值u,以及前景和背景的方差g分别为:
[0032] u=(w0×u0)+(w1×u1);
[0033]   ;
[0034] 当方差g最大时,前景和背景的差异最大,此时的二值化阈值T为最佳的分割阈值,此时的二值化阈值T即为最终计算出的二值化阈值T;
[0035] 步骤S53中,利用步骤S52最终计算出的二值化阈值T,对人脸肤色关键点图像进行二值化处理,若像素点的灰度值大于二值化阈值T,则将该像素点的像素值设置为255,若像素点的灰度值小于二值化阈值T,则将该像素点的像素值设置为0,从而得到二值化图像GS。
[0036] 优选的,步骤S6中,提取二值化图像GS中的所有轮廓信息,遍历二值化图像GS中的所有轮廓信息,选出面积最大的轮廓信息,面积最大的轮廓信息即为人脸面部轮廓信息。
[0037] 优选的,步骤S7中,根据人脸面部轮廓信息,逐个遍历人脸面部轮廓的每个像素点,在归一化人脸框图上对应的保持人脸面部轮廓上以及人脸面部轮廓内的像素点的像素值不变,并且在归一化人脸框图上对应的将人脸面部轮廓外的像素点的像素值置0,从而提取出戴眼镜人员的人脸面部区域。
[0038] 本发明的优点在于:
[0039] (1)本发明采用人脸关键点检测算法,检测出人脸关键点的坐标信息,将其映射到人脸肤色区域图像中,对映射后的图像进行二值化时能够有效消除眼镜框导致的人脸面部区域断裂情况的发生,为后续进行准确的人脸面部轮廓提取提供了基础。
[0040] (2)本发明采用RGB颜色特征对上述归一化人脸框图进行肤色提取,能够更好的提取人脸面部区域。人脸肤色受亮度的影响较大,本发明所设计的约束条件能很好的将人脸肤色区域筛选出来。
[0041] (3)在对人脸肤色图像进行二值化时,由于眼镜框并不是肤色,在二值化时会将一个完整人脸分割成几块,不利于后续完整人脸的检测,为了消除眼镜框在二值化后变为黑色使得脸部被分成若干块区域,导致提取最大联通区域时丢失脸的上部分或下部分,本发明将人脸肤色区域与人脸关键点坐标信息进行映射,给人脸肤色区域中的人脸关键点进行连线并赋予白色像素值,在后续的二值化时能够避免将一个完整人脸分割成几块,从而有利于提取出戴眼镜人员的完整人脸面部区域。
[0042] (4)本发明可用于微表情检测的前期特征提取阶段,算法运行效率高,提取的面部区域较完整,能够有效提高后续基于此的微表情检测准确率。

附图说明

[0043] 图1为本发明的一种对戴眼镜人员的人脸面部提取方法的流程图。
[0044] 图2为本实施例的人脸面部提取实验过程对比图一,图2中,左一为原始图像,左二为对归一化人脸框图进行人脸肤色区域的提取后得到的人脸肤色区域,右二为利用传统算法对人脸肤色区域进行轮廓提取得到的戴眼镜人员的人脸面部轮廓,右一为利用本发明算法对人脸肤色关键点图像进行轮廓提取得到的戴眼镜人员的人脸面部轮廓。
[0045] 图3为本实施例的人脸面部提取实验过程对比图二,图3中,左一为原始图像,左二为对归一化人脸框图进行人脸肤色区域的提取后得到的人脸肤色区域,右二为利用传统算法对人脸肤色区域进行轮廓提取得到的戴眼镜人员的人脸面部轮廓,右一为利用本发明算法对人脸肤色关键点图像进行轮廓提取得到的戴眼镜人员的人脸面部轮廓。
[0046] 图4为本实施例的人脸面部提取实验过程对比图三,图4中,左一为原始图像,左二为对归一化人脸框图进行人脸肤色区域的提取后得到的人脸肤色区域,右二为利用传统算法对人脸肤色区域进行轮廓提取得到的戴眼镜人员的人脸面部轮廓,右一为利用本发明算法对人脸肤色关键点图像进行轮廓提取得到的戴眼镜人员的人脸面部轮廓。
[0047] 图5为人脸关键点示意图。

具体实施方式

[0048] 下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
[0049] 由图1所示,本发明提供一种对戴眼镜人员的人脸面部提取方法,包括以下步骤:
[0050] S1,从微表情视频中获取图像序列;
[0051] 采集微表情视频中的人脸图像,构建图像序列集,标记为F={fi,i=1,2,...N};其中,fi表示第i帧图像;N表示图像总帧数。
[0052] S2,基于卷积神经网络模型对图像序列集F中的人脸图像进行人脸检测,得到人脸检测框图像即人脸框图,并对人脸检测框图像进行尺寸归一化,得到归一化后的人脸检测框图像即归一化人脸框图。
[0053] 步骤S2具体如下所示:
[0054] S21,基于Vgg16网络构建卷积神经网络模型;
[0055] 由于神经网络一旦训练起来,便会更新大量参数,数据的不断变化会影响网络的训练速度,为了使得训练时梯度更加稳定,因此本实施例中,在Vgg16网络上添加归一化层;
[0056] S22,利用卷积神经网络模型分别对图像序列集F中的每一帧图像进行人脸检测,得到人脸检测框图像即人脸框图;
[0057] S23,对人脸检测框图像进行尺寸归一化,得到归一化后的人脸检测框图像即归一化人脸框图;其中,使用如下式的线性函数进行尺寸归一化:
[0058] srcX=dstX×(srcWidth/dstWidth);
[0059] srcY=dstY×(srcHeight/dstHeight);
[0060] 式中,srcX表示人脸框图中某像素点的横坐标,dstX表示归一化人脸框图中该像素点的横坐标,srcWidth表示人脸框图的宽度,dstWidth表示归一化人脸框图的宽度;srcY表示人脸框图中某像素点的纵坐标,dstY表示归一化人脸框图中该像素点的纵坐标,srcHeight表示人脸框图的高度,dstHeight表示归一化人脸框图的高度;
[0061] 本实施例中,将人脸框图归一化为宽×高为150×280像素的RGB图像,归一化人脸框图为RGB图像,可用RGB矩阵g进行表示,如下式所示:
[0062] ;
[0063] 式中,RGB矩阵中元素值为像素点的RGB值,元素的位置即对应为像素点的位置。
[0064] S3,对归一化人脸框图进行肤色提取,得到人脸肤色区域。
[0065] 具体如下所示:
[0066] 为了更好的提取人脸面部区域,本发明采用RGB颜色特征对上述归一化人脸框图进行肤色提取,以进一步缩小微表情的识别范围。人脸肤色受亮度的影响较大,需要用较复杂的约束才能很好的将人脸肤色区域筛选出来。
[0067] 本实施例中,使用RGB模型进行肤色提取,据统计资料,在均匀光照下,人脸肤色区域中像素点的RGB值需要满足如下所示的约束条件:
[0068] (R,G,B)>(95,40,20);
[0069] max(R,G,B)‑min(R,G,B)>15;
[0070] |R‑G|>15;
[0071] R>G;
[0072] R>B;
[0073] 其中,R表示像素点的红色值,G表示像素点的绿色值,B表示像素点的蓝色值,max(R,G,B)表示求取RGB模型中R、G、B三个分量值中的最大值,min(R,G,B)表示求取RGB模型中R、G、B三个分量值中的最小值,根据满足上述约束条件的像素点,得到人脸肤色区域,并将人脸肤色区域用矩阵Skin表示,如下式所示:
[0074] ;
[0075] 其中,元素值为1表示该位置的像素点属于人脸肤色区域,元素值为0表示该位置的像素点不属于人脸肤色区域;
[0076] S4,对归一化人脸框图进行人脸关键点检测,得到人脸关键点。
[0077] 具体如下所示:
[0078] 人脸关键点检测也称为人脸对齐,目的是自动定位一组预定义的人脸基准点。人脸关键点检测算法对步骤S2中的归一化人脸框图,定位出人脸面部68个关键点,包括:由眉毛、眼睛、鼻子、嘴巴合计的51个内部关键点以及17个轮廓关键点,如图5所示。
[0079] 在开源计算机视觉库OpenCV中已经提供了检测人脸关键点的方法,因此本发明基于该技术进行人脸关键点检测,主要步骤如下:
[0080] S41,创建面部标记对象,考虑内存泄漏问题,在OpenCV中,使用智能指针(smart pointer,PTR)创建面部标记(Facemark)对象;
[0081] S42,加载关键点检测器(lbfmodel.yaml)模型;
[0082] S43,利用所加载的关键点检测器模型对归一化人脸框图进行检测,得到人脸关键点的坐标信息,包括:由眉毛、眼睛、鼻子、嘴巴合计的51个人脸内部关键点以及17个人脸轮廓关键点,将人脸关键点的坐标信息存储到事先声明的vector>landmarks容器变量中;
[0083] S44,为了在步骤S5融合使用人脸关键点,利用landmarks容器中存放的人脸关键点的坐标信息,在归一化人脸框图上绘制出人脸关键点。
[0084] S5,将人脸关键点与人脸肤色区域相融合,得到人脸肤色关键点图像,并对人脸肤色关键点图像进行二值化处理,得到像素值只有两种值的黑白图像即二值化图像GS。
[0085] 在对人脸肤色图像进行二值化时,由于眼镜框并不是肤色,在二值化时会将一个完整人脸分割成几块,不利于后续完整人脸微表情的检测,为了消除眼镜框在二值化后变为黑色使得脸部被分成若干块区域,导致提取最大联通区域时丢失脸的上部分或下部分,本发明将人脸肤色区域与人脸关键点坐标信息进行映射,给人脸肤色区域中的人脸关键点进行连线并赋予白色像素值,能够有效定位微表情发生区域,正确分离无用信息,提取微表情相关的重要信息。
[0086] 步骤S5,具体如下所示:
[0087] S51,获取人脸肤色关键点图像,具体如下所示:
[0088] S511,将步骤S3提取到的人脸肤色区域的图像变换为灰度图像;
[0089] S512,根据步骤S4提取到的人脸关键点坐标信息,在变换后的灰度图像中绘制人脸关键点,使用开源计算机视觉库OpenCV中line()函数,将关键点中眉毛、眼睛、鼻子、嘴巴坐标位置输入到line()函数中使用白色直线进行连接,连接后得到人脸肤色关键点图像;
[0090] S52,根据最大类间方差法(OTSU)自动计算图像二值化时的阈值:
[0091] OTSU是一种使用最大类间方差的自动确定阈值的方法,是一种基于全局的二值化算法,根据图像的灰度特性,将图像分为前景和背景两个部分。本发明中的前景指不包含眼镜的区域,背景指眼镜区域。当取最佳阈值时,前景和背景之间的差别应该是最大的,在OTSU中所采用的衡量差别的标准就是较为常见的最大类间方差。前景和背景之间的类间方差如果越大,就说明构成图像的前景和背景两个部分之间的差别越大,当部分目标被错分为背景,或部分背景被错分为目标,都会导致两个部分之间的差别差别变小,当所取阈值的分割使类间方差最大时就意味着错分概率最小。
[0092] 记T为前景与背景的分割阈值,前景点数占图像比例为w0,平均灰度为u0;背景点数占图像比例为w1,平均灰度为u1,图像的总平均灰度为u,前景和背景图像的方差g,则有:
[0093] u=(w0×u0)+(w1×u1);
[0094] ;
[0095] 联立上式可得:
[0096] ;
[0097] 或者,
[0098] ;
[0099] 当方差g最大时,可以认为此时前景和背景差异最大,此时的灰度T是最佳阈值。类间方差法对噪声以及目标大小十分敏感,它仅对类间方差为单峰的图像产生较好的分割效果。当目标与背景的大小比例悬殊时(例如受光照不均、反光或背景复杂等因素影响),类间方差准则函数可能呈现双峰或多峰,此时效果不好。
[0100] S53,对步骤S51得到的人脸肤色关键点图像进行二值化处理,即:
[0101] 若B(x,y)>T,则B(x,y)=255,该像素点为前景,指不包含眼镜的区域;
[0102] 若B(x,y)≤T,则B(x,y)=0,为背景,指眼镜区域;
[0103] 其中,T为步骤S52得到的前景与背景的分割阈值;
[0104] B(x,y)为人脸肤色关键点图像中坐标(x,y)处的灰度值,二值化处理后得到像素值只有两种值的黑白图像即二值化图像GS。
[0105] S6,针对人脸肤色关键点图像二值化处理后的图像GS,提取戴眼镜人员的人脸面部轮廓信息。
[0106] 由于图像采样等因素影响,对于二值化图像GS,可能含有许多块不连续的连通区域,这些区域中面积最大的块就是本发明所需要的提取块。
[0107] S61,使用开源计算机视觉库OpenCV中findContours()函数,提取二值化图像GS的轮廓信息放入容器contours中;
[0108] S62,经步骤S61处理后,遍历容器contours中所有轮廓信息,使用开源计算机视觉库OpenCV中contourArea()函数,从容器contours中选出面积最大的轮廓所在的位置索引,记为Index,面积最大的轮廓信息即为人脸面部轮廓信息;
[0109] S7,根据戴眼镜人员的人脸面部轮廓信息Index,对归一化人脸框图进行人脸面部区域的提取,得到戴眼镜人员的人脸面部区域。
[0110] S71,根据人脸面部轮廓信息Index,逐个遍历人脸面部轮廓的每个像素点,在归一化人脸框图上对应的保持人脸面部轮廓上以及人脸面部轮廓内的像素点的像素值不变;
[0111] S72,为了降低后续微表情检测时提取特征的误差,在归一化人脸框图上对应的将人脸面部轮廓外的像素点的像素值置0;
[0112] S73,提取出戴眼镜人员的人脸面部区域。
[0113] 图2、3、4均为本实施例的人脸面部提取实验过程对比图,图2、3、4中,左一均为原始图像,左二均为对归一化人脸框图进行人脸肤色区域的提取后得到的人脸肤色区域,右二均为利用传统算法对人脸肤色区域进行轮廓提取得到的戴眼镜人员的人脸面部轮廓,右一均为利用本发明算法对人脸肤色关键点图像进行轮廓提取得到的戴眼镜人员的人脸面部轮廓。
[0114] 图5为人脸关键点示意图。
[0115] 以上仅为本发明创造的较佳实施例而已,并不用以限制本发明创造,凡在本发明创造的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明创造的保护范围之内。