一种基于3D指纹图像的性别识别方法及系统转让专利

申请号 : CN201811455190.0

文献号 : CN109508692B

文献日 :

基本信息:

PDF:

法律信息:

相似专利:

发明人 : 刘凤张文天刘浩哲苟文越齐勇沈琳琳赖志辉

申请人 : 深圳大学

摘要 :

本发明提供一种基于3D指纹图像的性别识别方法及系统,所述基于3D指纹图像的性别识别方法包括以下步骤:步骤S1,基于光学相干断层扫描采集用户的指纹图像数据;步骤S2,根据所述指纹图像数据,提取并训练所述指纹图像数据中的性别特征;步骤S3,搭建性别特征提取分类模型;步骤S4,通过所性别特征提取分类模型执行性别的识别和预测。本发明利用3D指纹图像对性别特征进行分析和识别,证实了指纹内部性别特征的存在,避免了指纹图像的表面环境对其识别的影响,提供了更高正确率和精确度的性别判别方案,提高了抗噪性能,对于法医人类学的性别分类、跟踪与标识未知人群以及人口数据普查等具有非常重要的意义。

权利要求 :

1.一种基于3D指纹图像的性别识别方法,其特征在于,包括以下步骤:步骤S1,基于光学相干断层扫描采集用户的指纹图像数据;

步骤S2,根据所述指纹图像数据,提取并训练所述指纹图像数据中的性别特征;

步骤S3,搭建性别特征提取分类模型;

步骤S4,通过所性别特征提取分类模型执行性别的识别和预测;所述步骤S2包括以下子步骤:步骤S201,针对所述指纹图像数据搭建性别特征提取分类网络;

步骤S202,提取所述指纹图像数据中的性别特征,提取所述指纹图像数据中的性别特征包括提取脊谷线在表皮层和乳头层中变换区域的形状,进而通过训练来实现性别分类;

步骤S203,训练所述指纹图像性别特征下的分类网络。

2.根据权利要求1所述的基于3D指纹图像的性别识别方法,其特征在于,所述步骤S203中,采用两块以上的显卡并行计算和训练,其中,先将性别特征提取分类网络放至每张显卡中进行训练,得到的结果为当前训练次数下单显卡的梯度值、损失函数值和判别正确率;然后将上述每张显卡中的梯度值、损失函数值和判别正确率这3个结果返回到CPU中并分别求均值,进而得到显卡计算出的梯度平均值、损失函数平均值和判别正确率平均值;最后,在CPU中根据显卡的计算出的梯度平均值进行反向传播,对性别判别模型中的参数逐层求偏导数,进行参数更新,并将参数更新后的性别特征提取分类网络再放入显卡中继续训练,以实现网络参数的更新迭代。

3.根据权利要求1或2所述的基于3D指纹图像的性别识别方法,其特征在于,所述步骤S3包括以下子步骤:步骤S301,保存训练好之后的指纹图像性别特征下的分类网络作为性别特征提取分类模型;

步骤S302,搭建所述性别特征提取分类模型下的性别分类器。

4.根据权利要求3所述的基于3D指纹图像的性别识别方法,其特征在于,所述步骤S302中,将所采集的指纹图像输入至所述性别特征提取分类模型后,将所述性别特征提取分类模型输出的矩阵,通过取最大概率值所在的位置作为性别标签,进而将指纹图像信息转化成表示性别特征的性别标签以实现性别的分类表达,从而建立所述性别分类器。

5.根据权利要求3所述的基于3D指纹图像的性别识别方法,其特征在于,所述步骤S4包括以下子步骤:步骤S401,随机采集用户的指纹图像测试数据;

步骤S402,将所述指纹图像测试数据输入所述性别分类器中;

步骤,S403,输出性别识别结果。

6.根据权利要求5所述的基于3D指纹图像的性别识别方法,其特征在于,所述步骤S401中所采集的指纹图像测试数据的量小于所述步骤S1中所采集的指纹图像数据的数量。

7.根据权利要求6所述的基于3D指纹图像的性别识别方法,其特征在于,所述步骤S1中所采集的指纹图像数据的数量为采集同一用户的同一个手指至少400张指纹图像。

说明书 :

一种基于3D指纹图像的性别识别方法及系统

技术领域

[0001] 本发明涉及一种性别识别方法,尤其涉及一种基于3D指纹图像的性别识别方法,并涉及采用了该基于3D指纹图像的性别识别方法的性别识别系统。

背景技术

[0002] 指纹作为手指的主要生物特征,具有普遍性、显著性、永久性、可收集性、可接受性和抗规避性等几个理想特性,在个人识别系统中广泛应用。现有基于传统2D指纹图像的生物特征识别,在指尖表面被严重损坏或存在油污、汗液的情况下,使得不可能或极难形成传统的参考2D指纹图案。
[0003] 随着OCT(Optical coherence tomography,光学相干断层扫描)成像技术的成熟,实现了指纹的3D-图像分析。而OCT 3D指纹图像一方面克服了2D图像中指纹破损、油污以及汗液干扰等缺陷,另一方面还提供了更多、更完整的指纹特征。那么,如何利用OCT 3D指纹图像分析指纹内部信息,进而尽量避免2D图像中的此类问题,将是一个有利的方向。

发明内容

[0004] 本发明所要解决的技术问题是需要提供一种能够有效提高准确性和精准度的性别识别方法,并进一步提供采用了该性别识别方法的性别识别系统。
[0005] 对此,本发明提供一种基于3D指纹图像的性别识别方法,包括以下步骤:
[0006] 步骤S1,基于光学相干断层扫描采集用户的指纹图像数据;
[0007] 步骤S2,根据所述指纹图像数据,提取并训练所述指纹图像数据中的性别特征;
[0008] 步骤S3,搭建性别特征提取分类模型;
[0009] 步骤S4,通过所性别特征提取分类模型执行性别的识别和预测。
[0010] 本发明的进一步改进在于,所述步骤S2包括以下子步骤:
[0011] 步骤S201,针对所述指纹图像数据搭建性别特征提取分类网络;
[0012] 步骤S202,提取所述指纹图像数据中的性别特征;
[0013] 步骤S203,训练所述指纹图像性别特征下的分类网络。
[0014] 本发明的进一步改进在于,所述步骤S202中,提取所述指纹图像数据中的性别特征包括提取脊谷线在表皮层和乳头层中变换区域的形状,进而通过训练来实现性别分类。
[0015] 本发明的进一步改进在于,所述步骤S203中,采用两块以上的显卡并行计算和训练,其中,先将性别特征提取分类网络放至每张显卡中进行训练,得到的结果为当前训练次数下单显卡的梯度值、损失函数值和判别正确率;然后将上述每张显卡中的梯度值、损失函数值和判别正确率这3个结果返回到CPU中并分别求均值,进而得到显卡计算出的梯度平均值、损失函数平均值和判别正确率平均值;最后,在CPU中根据显卡的计算出的梯度平均值进行反向传播,对性别判别模型中的参数逐层求偏导数,进行参数更新,并将参数更新后的性别特征提取分类网络再放入显卡中继续训练,以实现网络参数的更新迭代。
[0016] 本发明的进一步改进在于,所述步骤S3包括以下子步骤:
[0017] 步骤S301,保存训练好之后的指纹图像性别特征下的分类网络作为性别特征提取分类模型;
[0018] 步骤S302,搭建所述性别特征提取分类模型下的性别分类器。
[0019] 本发明的进一步改进在于,所述步骤S302中,将所采集的指纹图像输入至所述性别特征提取分类模型后,将所述性别特征提取分类模型输出的矩阵,通过取最大概率值所在的位置作为性别标签,进而将指纹图像信息转化成表示性别特征的性别标签以实现性别的分类表达,从而建立所述性别分类器。
[0020] 本发明的进一步改进在于,所述步骤S4包括以下子步骤:
[0021] 步骤S401,随机采集用户的指纹图像测试数据;
[0022] 步骤S402,将所述指纹图像测试数据输入所述性别分类器中;
[0023] 步骤,S403,输出性别识别结果。
[0024] 本发明的进一步改进在于,所述步骤S401中所采集的指纹图像测试数据的量小于所述步骤S1中所采集的指纹图像数据的数量。
[0025] 本发明的进一步改进在于,所述步骤S1中所采集的指纹图像数据的数量为采集同一用户的同一个手指至少400张指纹图像。
[0026] 本发明还提供一种基于3D指纹图像的性别识别系统,采用了如上所述的基于3D指纹图像的性别识别方法。
[0027] 与现有技术相比,本发明的有益效果在于:利用3D指纹图像对性别特征进行分析和识别,证实了指纹内部性别特征的存在,避免了指纹图像的表面环境对其识别的影响,提供了更高正确率和精确度的性别判别方案,提高了抗噪性能,对于法医人类学的性别分类、跟踪与标识未知人群以及人口数据普查等具有非常重要的意义。

附图说明

[0028] 图1是本发明一种实施例的工作流程示意图;
[0029] 图2是本发明一种实施例的指纹性别特征的提取训练过程示意图。

具体实施方式

[0030] 下面结合附图,对本发明的较优的实施例作进一步的详细说明。
[0031] 如图1所示,本例提供一种基于3D指纹图像的性别识别方法,包括以下步骤:
[0032] 步骤S1,基于光学相干断层扫描采集用户的指纹图像数据;
[0033] 步骤S2,根据所述指纹图像数据,提取并训练所述指纹图像数据中的性别特征;
[0034] 步骤S3,搭建性别特征提取分类模型;
[0035] 步骤S4,通过所性别特征提取分类模型执行性别的识别和预测。
[0036] 本例所述步骤S1中,采集OCT(光学相干断层扫描)的指纹图像作为训练数据,优选为集同一用户的同一个手指至少400张的指纹图像作为指纹图像数据,以保证训练数据的准确性。
[0037] 本例所述步骤S2包括以下子步骤:
[0038] 步骤S201,针对所述指纹图像数据搭建性别特征提取分类网络;
[0039] 步骤S202,提取所述指纹图像数据中的性别特征;
[0040] 步骤S203,训练所述指纹图像性别特征下的分类网络。
[0041] 本例所述步骤S201使用现有机器学习算法或深度学习算法作为模型进行性别特征提取分类模型的搭建。本例所述步骤S202中,提取所述指纹图像数据中的性别特征包括提取脊谷线在表皮层和乳头层中变换区域的形状,即提取脊谷线在表皮层和乳头层中的形状,以及提取在表皮层和乳头层之间的变换形状,进而通过训练来实现性别分类。
[0042] 事实上,手指存在许多性别特征,比如可以使用指纹表面脊线密度识别性别,脊线密度较低的通常为男性,而具有较高脊线密度的多为女性。另外,手指表面的汗液的氨基酸含量同样可以用于性别的判别;不过如果利用现有2D指纹图像来实现性别分类,其正确率有限;而指纹的性别分类对于法医人类学的性别分类、跟踪与标识未知人群和人口数据普查等具有重要意义。
[0043] 因此,本例基于光学相干断层扫描采集用户的指纹图像数据,优选为单人400张以上,通过OCT 3D指纹图像的多张纵向指尖图像的截面图构成指纹图像数据,通过这种多张单指尖的3D扫描图像进行性别判别的多次验证,有效提高了性别识别的抗噪性和准确性。
[0044] 更为具体的,所述步骤S201中,在机器学习中,如支持向量机(SVM),K-最近邻算法(KNN)等算法,寻找所输入的OCT3D指纹图像与性别信息之间的映射关系。在深度学习中,使用如AlexNet、VGG-Net或ResNet等网络框架实现性别特征的提取功能,即通过逐层的卷积层、池化层以及批量归一化等计算层搭建性别特征提取网络,提取所输入的OCT3D指纹图像中的性别特征,即脊谷线在表皮层和乳头层中变换区域的不同形状,从而实现性别分类。
[0045] 本例在此以使用17层ResNet网络为例进行性别特征提取分类网络的搭建,并对网络模型进行了一定的修改,使网络模型适应当前图像的输入维度,并借鉴了Google-net Inception的网络结构,利用1*A和A*1代替了A*A的传统卷积结构,缩小了网络结构的存储空间占用。
[0046] 本例所述步骤S203中,通过深度学习算法训练所述指纹图像性别特征下的分类网络;即所述步骤S203为通过机器学习和深度学习算法(性别分类网络)对所述步骤S202所提取的指纹图像数据中的性别特征进行训练的过程,通过反复迭代实现更新和训练。
[0047] 关于所述指纹图像性别特征提取模型,本例针对指纹图像提取具有性别标签,这一过程通过定义指纹信息场为M、性别判别器为G以及指纹特征提取器为F来实现,则搭建的性别特征提取分类网络的模型可定义为:min Remp(G)s.t.G=F(M),其中,Remp为经验风险泛函,专利以使用cross-entropy为例作为Remp,以ResNet深度学习算法为例作为指纹特征提取器F,在实验中,我们将指纹信息场M近似为指纹内部图像,即,M~Image。其中,所述性别特征提取模型公式min Remp(G)s.t.G=F(M)的意思为:在指纹特征提取器F(M)中提取出指纹信息场M(也称指纹生物特征信息场M)中的某种特征满足性别判别器G的约束条件下,使得性别判别器G的经验风险泛函Remp最小;s.t.G指的是(subject to性别判别器G)译为受约束于离散化特征判别器G。
[0048] 通过求解该近似优化的过程,即可得到性别判别器G。定义性别判别器G的正确率为ACC, TM为指纹图像数据的测试集的样本,sgn为符号函数,G(M)为在指纹信息场M下的性别判别器G,LM为指纹图像数据的测试集的性别标签,即[0049] 如图2所示,本例所述步骤S203中,采用两块以上的显卡并行计算和训练,先通过对每一块显卡进行机器学习和训练,实现更新迭代,并计算两块以上的显卡的均值以实现变量的更新;然后将更新后的变量参数返回到至CPU中,以输入至每一块显卡中,实现反复迭代。
[0050] 更为具体的,本例所述步骤S203训练过程如图2所示,采用两块以上的显卡并行计算和训练,比如使用三块显卡进行计算为例。其中将性别分类网络放至每张显卡中进行训练,得到的结果为当前训练训练次数下单显卡的梯度值、损失函数值和判别正确率,将上述每张显卡中的3个结果返回到CPU中并分别求均值,得到显卡计算出的梯度值、损失函数值和判别正确率,在CPU中根据显卡的计算出的梯度值进行反向传播,对性别判别模型中的参数(参数包括权重和偏置等)逐层求偏导数,进行参数更新,并将参数更新后的分类网络再放入显卡中继续训练,实现网络参数的更新迭代。
[0051] 本例所述步骤S203采用多显卡并行计算加快网络训练速度,在CPU中实现具体算法中相关参数的更新迭代并输入GPU中,在三块GPU中实现机器学习和深度学习算法(性别分类网络)的训练过程,即实现变量的更新,并将计算的参数返回到CPU中,反复迭代,进而能够有效提高训练的准确性和精确度。
[0052] 本例所述步骤S3包括以下子步骤:
[0053] 步骤S301,保存训练好之后的指纹图像性别特征下的分类网络作为性别特征提取分类模型;
[0054] 步骤S302,搭建所述性别特征提取分类模型下的性别分类器。
[0055] 本例所述步骤S302中,将所采集的指纹图像输入至所述性别特征提取分类模型后,将所述性别特征提取分类模型输出的矩阵,通过取最大概率值所在的位置作为性别标签,进而将指纹图像信息转化成表示性别特征的性别标签以实现性别的分类表达,从而建立所述性别分类器。
[0056] 即,本例所述步骤S302在步骤S301所保存的性别特征提取分类模型的基础上,构建性别分类器,将所输入的OCT3D指纹图像输入分类模型后,对输出的分类结果进行具体运算,即将分类模型输出的稀疏矩阵,通过取稀疏矩阵中数值(即概率值)最大所在的位置(对应一种性别标签),即可转化成表示性别的可理解的标签,实现性别的分类表达。
[0057] 本例所述步骤S4包括以下子步骤:
[0058] 步骤S401,随机采集用户的指纹图像测试数据;
[0059] 步骤S402,将所述指纹图像测试数据输入所述性别分类器中;
[0060] 步骤,S403,输出性别识别结果。
[0061] 本例所述步骤S401中所采集的指纹图像测试数据的量小于所述步骤S1中所采集的指纹图像数据的数量,即小于训练时的单人400张的数量。
[0062] 通过实验证明,本例所述步骤S4中,经过多人多组验证,在单人单张OCT 3D指纹图像的输入情况下,此性别分类器最终可以达到99.3%的识别准确率;在单人三张以上OCT 3D指纹图像的输入情况下,此性别分类器识别准确率可以无限逼近100%。因此,本例能够有效提高性别识别的准确性和精准度。
[0063] 此外,本例所述步骤S203中使用多显卡并行训练方法可大大缩短训练时间;所述步骤S201也可以使用其他现有特征提方法(包括深度学习方法、机器学习算法)代替。
[0064] 本例还提供一种基于3D指纹图像的性别识别系统,采用了如上所述的基于3D指纹图像的性别识别方法。
[0065] 综上所述,本例利用3D指纹图像对性别特征进行分析和识别,证实了指纹内部性别特征的存在,避免了指纹图像的表面环境对其识别的影响,提供了更高正确率和精确度的性别判别方案,提高了抗噪性能,对于法医人类学的性别分类、跟踪与标识未知人群以及人口数据普查等具有非常重要的意义。
[0066] 以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干简单推演或替换,都应当视为属于本发明的保护范围。