人脸运动单元AUs的参数估计方法、装置和电子设备转让专利
申请号 : CN201911002961.5
文献号 : CN110717928B
文献日 : 2022-03-18
发明人 : 宋新慧 , 袁燚 , 范长杰 , 胡志鹏
申请人 : 网易(杭州)网络有限公司
摘要 :
权利要求 :
1.一种人脸运动单元AUs的参数估计方法,其特征在于,包括:通过人脸特征提取器提取实际人脸图像的实际标签特征;所述实际标签特征用于表示所述实际人脸图像中各个像素点所属的类别对应的特征,所述实际人脸图像中各个像素点所属的类别对应的特征包括:所述实际人脸图像中各个像素点的类别、各类别的概率,以及所述人脸特征提取器提取的所述实际人脸图像的前M层特征;
以预设的人脸AUs的初始参数值作为所述人脸AUs的当前参数值,对所述人脸AUs的当前参数值,执行以下操作:
将所述人脸AUs的当前参数值输入图像生成器,得到虚拟的人脸基础图像;
通过所述人脸特征提取器提取所述人脸基础图像的虚拟标签特征;所述虚拟标签特征用于表示所述人脸基础图像中各个像素点所属的类别对应的特征,所述人脸基础图像中各个像素点所属的类别对应的特征包括:所述人脸基础图像中各个像素点的类别、各类别的概率,以及所述人脸特征提取器提取的所述人脸基础图像的前M层特征;
比较所述虚拟标签特征和所述实际标签特征,根据比较结果调整所述人脸AUs的当前参数值,重复所述操作的上述步骤,直到满足预设终止条件为止;
将满足所述预设终止条件时的所述人脸AUs的当前参数值,确定为所述实际人脸图像对应的人脸AUs的参数值。
2.根据权利要求1所述的方法,其特征在于,比较所述虚拟标签特征和所述实际标签特征的步骤包括:
通过预设损失函数计算所述虚拟标签特征和所述实际标签特征之间的特征距离;
基于所述特征距离调整所述人脸AUs的当前参数值。
3.根据权利要求2所述的方法,其特征在于,通过预设损失函数计算所述虚拟标签特征和所述实际标签特征之间的特征距离的步骤包括:通过预设损失函数LE(x,yr)=||W(G(x))F(G(x))‑W(yr)F(yr)||1计算所述虚拟标签特征和所述实际标签特征之间的特征距离;LE(x,yr)表示所述虚拟标签特征和所述实际标签特征之间的特征距离,x表示所述人脸AUs的当前参数值,G(x)表示生成的所述人脸基础图像,W(G(x))表示生成的所述人脸基础图像中,每个像素点所属的类别的概率,F(G(x))表示所述人脸特征提取器提取的所述人脸基础图像的前M层特征,yr表示所述实际人脸图像,W(yr)表示所述实际人脸图像中,每个像素点所属的类别的概率,F(yr)表示所述人脸特征提取器提取的所述实际人脸图像的前M层特征,M为预设值。
4.根据权利要求1所述的方法,其特征在于,在通过人脸特征提取器提取实际人脸图像的实际标签特征之前,所述方法还包括:对所述实际人脸图像进行人脸对齐处理,得到对齐后的实际人脸图像,进而通过所述人脸特征提取器提取所述对齐后的实际人脸图像的实际标签特征。
5.根据权利要求4所述的方法,其特征在于,对所述实际人脸图像进行人脸对齐处理的步骤包括:
对所述实际人脸图像进行特征点检测,得到所述实际人脸图像中的脸部特征点;
通过所述脸部特征点和脸部模板中的特征点计算仿射矩阵;所述脸部模板为预先设置的包含脸部各个器官的特征点的模板;
通过所述仿射矩阵对所述实际人脸图像中的各个像素点进行仿射变换,得到所述对齐后的实际人脸图像。
6.根据权利要求1所述的方法,其特征在于,所述预设终止条件包括:所述操作达到预设操作次数。
7.根据权利要求2所述的方法,其特征在于,所述预设终止条件包括:所述特征距离不大于预设阈值。
8.根据权利要求1所述的方法,其特征在于,在将满足所述预设终止条件时的所述人脸AUs的当前参数值,确定为所述实际人脸图像对应的人脸AUs的参数值之后,所述方法还包括:
通过所述实际人脸图像对应的人脸AUs的参数值驱动虚拟人物模型,得到与所述实际人脸图像具有相同表情的虚拟人物模型。
9.根据权利要求1所述的方法,其特征在于,训练所述图像生成器的步骤包括:获取第一训练样本;所述第一训练样本包括:随机输入至游戏渲染器中的人脸AUs的参数值,以及所述游戏渲染器根据所述人脸AUs的参数值渲染得到的虚拟人脸图像样本,所述人脸AUs的参数值包括:多维的头部角度参数值、多维的人脸表情参数值和多维的人脸身份参数值,每一维的人脸AUs的参数值能够决定渲染得到的虚拟人脸图像样本的局部区域;
通过所述第一训练样本和第一损失函数对原始图像生成器进行训练,得到所述图像生成器。
10.根据权利要求9所述的方法,其特征在于,在获取第一训练样本之后,在通过所述第一训练样本和第一损失函数对原始图像生成器进行训练之前,所述方法还包括:对所述第一训练样本中的虚拟人脸图像样本进行人脸对齐处理,得到对齐处理后的所述第一训练样本,进而通过对齐处理后的所述第一训练样本和所述第一损失函数对所述原始图像生成器进行训练,得到所述图像生成器。
11.根据权利要求9所述的方法,其特征在于,所述第一损失函数包括:LG=Lapp+wLper;LG表示所述图像生成器的损失,Lapp表示渲染得到的所述虚拟人脸图像样本和生成的人脸图像的各对应像素之间的距离和,Lper表示视觉几何群网络提取的渲染得到的所述虚拟人脸图像样本的特征与生成的人脸图像的特征之间的距离,w表示预设权重。
12.根据权利要求1所述的方法,其特征在于,训练所述人脸特征提取器的步骤包括:获取第二训练样本;所述第二训练样本包括:ImageNet数据集中的数据;
通过所述第二训练样本和交叉熵损失函数对原始人脸特征提取器进行训练,得到所述人脸特征提取器。
13.一种人脸运动单元AUs的参数估计装置,其特征在于,包括:特征提取单元,用于通过人脸特征提取器提取实际人脸图像的实际标签特征;所述实际标签特征用于表示所述实际人脸图像中各个像素点所属的类别对应的特征,所述实际人脸图像中各个像素点所属的类别对应的特征包括:所述实际人脸图像中各个像素点的类别、各类别的概率,以及所述人脸特征提取器提取的所述实际人脸图像的前M层特征;
循环操作单元,用于以预设的人脸AUs的初始参数值作为所述人脸AUs的当前参数值,对所述人脸AUs的当前参数值,执行以下操作:将所述人脸AUs的当前参数值输入图像生成器,得到虚拟的人脸基础图像;
通过所述人脸特征提取器提取所述人脸基础图像的虚拟标签特征;所述虚拟标签特征用于表示所述人脸基础图像中各个像素点所属的类别对应的特征,所述人脸基础图像中各个像素点所属的类别对应的特征包括:所述人脸基础图像中各个像素点的类别、各类别的概率,以及所述人脸特征提取器提取的所述人脸基础图像的前M层特征;
比较所述虚拟标签特征和所述实际标签特征,根据比较结果调整所述人脸AUs的当前参数值,重复所述操作的上述步骤,直到满足预设终止条件为止;
将满足所述预设终止条件时的所述人脸AUs的当前参数值,确定为所述实际人脸图像对应的人脸AUs的参数值。
14.一种电子设备,其特征在于,包括处理器和存储器,所述存储器存储有能够被所述处理器执行的机器可执行指令,所述处理器执行所述机器可执行指令以实现权利要求1至
12任一项所述的人脸运动单元AUs的参数估计方法的步骤。
15.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有机器可执行指令,所述机器可执行指令在被处理器调用和执行时,所述机器可执行指令促使所述处理器实现权利要求1至12任一项所述的人脸运动单元AUs的参数估计方法的步骤。
说明书 :
人脸运动单元AUs的参数估计方法、装置和电子设备
技术领域
背景技术
一套人脸行为编码系统(FACS),用于描述人脸表情。人脸表情可以由AUs(Action Units,运
动单元)组合而成。但由于头部姿态、身份和光照等影响,使得人脸AUs的参数估计成为了一
个很难的课题。
法,该方法需要依赖检测的人脸关键点的准确性,并且无法表达与关键点无关的表情,估计
的准确性差。
发明内容
整所述人脸AUs的当前参数值。
所述虚拟标签特征和所述实际标签特征之间的特征距离;LE(x,yr)表示所述虚拟标签特征
和所述实际标签特征之间的特征距离,x表示所述人脸AUs的当前参数值,G(x)表示生成的
所述人脸基础图像,W(G(x))表示生成的所述人脸基础图像中,每个像素点所属的类别的概
率,F(G(x))表示所述人脸特征提取器提取的所述人脸基础图像的前M层特征,yr表示所述
实际人脸图像,W(yr)表示所述实际人脸图像中,每个像素点所属的类别的概率,F(yr)表示
所述人脸特征提取器提取的所述实际人脸图像的前M层特征,M为预设值。
过所述人脸特征提取器提取所述对齐后的实际人脸图像的实际标签特征。
部模板中的特征点计算仿射矩阵;所述脸部模板为预先设置的包含脸部各个器官的特征点
的模板;通过所述仿射矩阵对所述实际人脸图像中的各个像素点进行仿射变换,得到所述
对齐后的实际人脸图像。
应的人脸AUs的参数值驱动虚拟人物模型,得到与所述实际人脸图像具有相同表情的虚拟
人物模型。
AUs的参数值渲染得到的虚拟人脸图像样本,所述人脸AUs的参数值包括:多维的头部角度
参数值、多维的人脸表情参数值和多维的人脸身份参数值,每一维的人脸AUs的参数值能够
决定渲染得到的虚拟人脸图像样本的局部区域;通过所述第一训练样本和第一损失函数对
原始图像生成器进行训练,得到所述图像生成器。
像样本进行人脸对齐处理,得到对齐处理后的所述第一训练样本,进而通过对齐处理后的
所述第一训练样本和所述第一损失函数对所述原始图像生成器进行训练,得到所述图像生
成器。
和,Lper表示视觉几何群网络提取的渲染得到的所述虚拟人脸图像样本的特征与生成的人
脸图像的特征之间的距离,w表示预设权重。
人脸特征提取器进行训练,得到所述人脸特征提取器。
表示所述虚拟标签特征和所述实际标签特征之间的特征距离,x表示所述人脸AUs的当前参
数值,G(x)表示生成的所述人脸基础图像,W(G(x))表示生成的所述人脸基础图像中,每个
像素点所属的类别的概率,F(G(x))表示所述人脸特征提取器提取的所述人脸基础图像的
前M层特征,yr表示所述实际人脸图像,W(yr)表示所述实际人脸图像中,每个像素点所属的
类别的概率,F(yr)表示所述人脸特征提取器提取的所述实际人脸图像的前M层特征,M为预
设值。
的实际人脸图像的实际标签特征。
仿射矩阵;所述脸部模板为预先设置的包含脸部各个器官的特征点的模板;通过所述仿射
矩阵对所述实际人脸图像中的各个像素点进行仿射变换,得到所述对齐后的实际人脸图
像。
染得到的虚拟人脸图像样本,所述人脸AUs的参数值包括:多维的头部角度参数值、多维的
人脸表情参数值和多维的人脸身份参数值,每一维的人脸AUs的参数值能够决定渲染得到
的虚拟人脸图像样本的局部区域;通过所述第一训练样本和第一损失函数对原始图像生成
器进行训练,得到所述图像生成器。
样本和所述第一损失函数对所述原始图像生成器进行训练,得到所述图像生成器。
和,Lper表示视觉几何群网络提取的渲染得到的所述虚拟人脸图像样本的特征与生成的人
脸图像的特征之间的距离,w表示预设权重。
器进行训练,得到所述人脸特征提取器。
述内容中所述的人脸运动单元AUs的参数估计方法的步骤。
促使所述处理器实现上述内容中所述的人脸运动单元AUs的参数估计方法的步骤。
再基于预设的人脸AUs的初始参数值得到虚拟的人脸基础图像和该人脸基础图像的虚拟标
签特征,基于虚拟标签特征与上述实际标签特征的比较结果,调整人脸AUs的当前参数值,
进而调整这个虚拟的人脸基础图像的虚拟标签特征,直到满足预设终止条件为止,将最后
一次调整得到的人脸AUs的当前参数值作为实际人脸图像对应的人脸AUs的参数值。上述参
数估计过程中,人脸特征提取器提取人脸图像(包括实际人脸图像和人脸基础图像)的标签
特征,该标签特征表示人脸图像中各个像素点所属的类别对应的特征,例如:图像的深度特
征(人脸的关键点特征和人脸的纹理特征),这样,在对提取得到的虚拟标签特征和实际标
签特征进行比较后,得到的比较结果的信息更加丰富,进而根据丰富的比较结果的信息对
人脸AUs的当前参数值进行调整时,使得最终调整得到的人脸AUs的当前参数值更加准确,
也就是最后估计得到的实际人脸图像对应的人脸AUs的参数值更加准确,缓解了现有的人
脸AUs的参数估计方法准确性差的技术问题。
附图说明
附图是本发明的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前
提下,还可以根据这些附图获得其他的附图。
具体实施方式
术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范
围。
物模型具备与实际人脸图像相同的表情。这种形式的人脸表情迁移可用于驱动游戏中的虚
拟人物模型,进而快速的得到多种表情的虚拟人物模型,进而用于游戏场景中。
人脸AUs的参数值,进而,通过实际人脸图像对应的人脸AUs的参数值驱动虚拟人物模型,便
能得到与实际人脸图像具有相同表情的虚拟人物模型。
动单元AUs的参数估计方法包括如下步骤:
上述实际人脸图像的获取形式不进行限定。
的类别、左眼的类别、右眼的类别、鼻子的类别、上嘴唇的类别、牙齿的类别、下嘴唇的类别、
头发的类别和背景的类别等)、各类别的概率,以及人脸特征提取器提取的实际人脸图像的
前M层特征(M的值可以为3,本发明实施例对M的值不进行限定)。
中,头部角度参数(本实施例中,用h表示,h∈R 或h∈R )可以包括:俯仰角度和偏航角
1×23
度,当然,也可以包括旋转角度;人脸表情参数(本实施例中,用αexp表示,αexp∈R ,当然,
可以不止23维)可以包括:表示眼睛闭合的参数、上眼睑上升的参数、眼睑收敛的参数、内眉
毛上升的参数、外眉毛上升的参数、眉毛下降的参数、嘴巴张开的参数、皱鼻的参数、上嘴唇
上升的参数、下嘴唇下降的参数、微笑的参数、嘴角拉伸的参数、嘟嘴的参数、嘴角下拉的参
数、上嘴唇闭合的参数、下嘴唇闭合的参数、鼓腮的参数、抿嘴的参数和左右歪嘴的参数等
1×244
等;人脸身份参数(本实施例中,用αid表示,αid∈R ,当然,可以不止244维)用于控制人脸
每个局部的平移、旋转和俯仰,直接控制脸部的变化。例如,控制人脸的鼻尖向上向下的参
数等。
何一个维度的参数变化时,都能改变生成的虚拟的人脸基础图像的局部特征,其是基于可
解释的每一维参数训练得到的图像生成器。
于区分,这里不再赘述。
值,以使后续生成的虚拟的人脸基础图像与实际人脸图像更加接近。当二者没有差别或差
别很小时,就能根据最后调整得到的人脸AUs的当前参数值确定实际人脸图像对应的人脸
AUs的参数值。
再基于预设的人脸AUs的初始参数值得到虚拟的人脸基础图像和该人脸基础图像的虚拟标
签特征,基于虚拟标签特征与上述实际标签特征的比较结果,调整人脸AUs的当前参数值,
进而调整这个虚拟的人脸基础图像的虚拟标签特征,直到满足预设终止条件为止,将最后
一次调整得到的人脸AUs的当前参数值作为实际人脸图像对应的人脸AUs的参数值。上述参
数估计过程中,人脸特征提取器提取人脸图像(包括实际人脸图像和人脸基础图像)的标签
特征,该标签特征表示人脸图像中各个像素点所属的类别对应的特征,例如:图像的深度特
征(人脸的关键点特征和人脸的纹理特征),这样,在对提取得到的虚拟标签特征和实际标
签特征进行比较后,得到的比较结果的信息更加丰富,进而根据丰富的比较结果的信息对
人脸AUs的当前参数值进行调整时,使得最终调整得到的人脸AUs的当前参数值更加准确,
也就是最后估计得到的实际人脸图像对应的人脸AUs的参数值更加准确,缓解了现有的人
脸AUs的参数估计方法准确性差的技术问题。
之间的特征距离,x表示人脸AUs的当前参数值,G(x)表示生成的人脸基础图像,W(G(x))表
示生成的人脸基础图像中,每个像素点所属的类别的概率,F(G(x))表示人脸特征提取器提
取的人脸基础图像的前M层特征,yr表示实际人脸图像,W(yr)表示实际人脸图像中,每个像
素点所属的类别的概率,F(yr)表示人脸特征提取器提取的实际人脸图像的前M层特征,M为
预设值。
这些特征通过与最终的某个类别的分类概率相乘得到具有注意力的特征。注意力机制就是
对不同的部分有不同的重点。
取器提取实际人脸图像的实际标签特征之前,该方法还包括:
际人脸图像)进行人脸识别,得到人脸位置的图像;然后,提取基准脸(即上述脸部模板,可
以为无表情的正面的平均脸)和输入的人脸图像的特征点(例如,得到两组68个特征点);最
后,可以根据其中的左右眼睛中心、鼻尖、左右嘴角五个特征点对计算仿射矩阵,利用该仿
射矩阵把输入的人脸图像变换成与基准脸大小相等、五官位置相对应的人脸图像。
人脸特征提取器提取对齐后的实际人脸图像的实际标签特征;以预设的人脸AUs的初始参
数值作为人脸AUs的当前参数值x;将人脸AUs的当前参数值输入图像生成器,得到虚拟的人
脸基础图像 通过人脸特征提取器提取人脸基础图像 的虚拟标签特征;根据预设损失函
数LE(x,yr)计算虚拟标签特征和实际标签特征之间的特征距离,根据特征距离(具体可通过
梯度)调整人脸AUs的当前参数值x,再将调整后的人脸AUs的当前参数值x作为人脸AUs的当
前参数值,返回将人脸AUs的当前参数值输入图像生成器的步骤,如此对人脸AUs的当前参
数值x进行多次调整,直至上述操作满足预设终止条件为止,将最后得到的人脸AUs的当前
参数值作为实际人脸图像对应的人脸AUs的参数值
的头部角度参数值和人脸表情参数值驱动虚拟人物模型,得到与实际人脸图像具有相同的
表情的虚拟人物模型。
应的虚拟人物模型。
维的头部角度参数值、多维的人脸表情参数值和多维的人脸身份参数值,每一维的人脸AUs
的参数值能够决定渲染得到的虚拟人脸图像样本的局部区域。
键点s2d;获取3DMM模型(3DMM模型是一种描述3D人脸空间的方法,通过人脸扫描的3D模型线
性组合而成,其中,每一维参数都有多种含义,是不可解释的),然后,根据弱透视映射把
3DMM模型中的3D人脸模型对应的三维人脸关键点映射到平面上,得到二维平面上的关键点
s2dt,进而,计算二维平面上的关键点s2dt和人脸图像I的关键点s2d的损失,根据计算得到的
损失调整3DMM模型的参数,调整后,再进行弱透视映射,得到二维平面上的关键点s2dt,再计
算损失,如此进行多次参数调整,直至最终计算得到的损失满足条件为止,满足条件时3DMM
模型的参数就作为人脸AUs的参数值。
本。上述每个维度的人脸AUs的参数值都服从均匀分布下随机产生,通过把这些人脸AUs的
参数值写入游戏渲染器渲染出对应的虚拟人脸图像样本,也就是,改变人脸AUs的参数值中
的任一维度数值,对应的就会产生一个局部发生改变的虚拟人脸图像样本,即每一维的人
脸AUs的参数值能够决定渲染得到的虚拟人脸图像样本的局部区域,因此,在通过第一训练
样本对原始图像生成器进行训练后,当人脸AUs的当前参数值中的任何一个维度的参数变
化时,都能改变生成的虚拟的人脸基础图像的局部特征,也就是是基于可解释的每一维参
数训练得到的图像生成器。
始图像生成器进行训练之前,该方法还包括:对第一训练样本中的虚拟人脸图像样本进行
人脸对齐处理,得到对齐处理后的第一训练样本。
觉几何群网络提取的渲染得到的虚拟人脸图像样本的特征与生成的人脸图像的特征之间
的距离,w表示预设权重。
绍,从中可知,本发明中的人脸AUs的参数值更加丰富),输出为生成的图像 图像大小可以
为512*512,进而,计算生成的图像 与游戏渲染器根据上述人脸AUs的参数值渲染得到的虚
拟人脸图像样本的各对应像素之间的距离和,作为外观损失Lapp(采用L1损失函数计算生成
的图像 与渲染得到的虚拟人脸图像样本的各对应像素之间的距离和);另外,为了使得生
成的图像的局部更加真实,还引入了感知损失函数Lper。参考图6,感知损失函数Lper的应用
过程为:通过视觉几何群网络(VGG16网络)分别提取生成的图像 和对应的渲染得到的虚拟
人脸图像样本的特征,进而计算生成的图像的特征与渲染得到的虚拟人脸图像样本的特征
之间的距离,作为感知损失Lper(采用L2损失函数计算上述两个特征之间的距离)。将外观损
失Lapp和感知损失Lper的加权和作为图像生成器的损失,进而通过图像生成器的损失对图像
生成器的参数进行调整,直到图像生成器的损失达到预设阈值,完成对图像生成器的训练。
络输入为一张人脸图像I∈R ,输出是对人脸图像的实际标签特征。人脸特征提取器模
型的参数由ImageNet数据集预训练得到。网络结构是一个编码器和解码器组合的网络结
构。分割网络的损失函数为交叉熵损失函数:其中, pc表示预测为c类别
的概率,yc表示为c类别的真值。
度大(需要专家通过人工标注的方式得到),所以,一般都是基于某个数据集(例如,CK+数据
集,为带有AUs标签的数据库)对原始模型进行训练,得到人脸AUs的预测模型,但是,由于数
据集的数据量很少并且都是正脸图像,这样,在通过训练得到的人脸AUs的预测模型对其它
数据集或者自然界中的数据进行人脸AUs的预测时,预测效果差,即训练得到的人脸AUs的
预测模型泛化能力差,无法在实际中应用。
么,相应的估计得到的人脸AUs的参数值也更加丰富;还能得到与纹理特征相关的表情,准
确性好。
将人脸AUs的参数作为自变量,生成的人脸图像作为因变量。通过优化人脸AUs的参数,使得
生成的人脸图像和输入的人脸图像在特征上越来越接近,进而就能得到输入的人脸图像所
对应的人脸AUs的参数值。
例上述内容所提供的人脸运动单元AUs的参数估计方法,以下对本发明实施例提供的人脸
运动单元AUs的参数估计装置做具体介绍。
其中:
AUs的初始参数值得到虚拟的人脸基础图像和该人脸基础图像的虚拟标签特征,基于虚拟
标签特征与上述实际标签特征的比较结果,调整人脸AUs的当前参数值,进而调整这个虚拟
的人脸基础图像的虚拟标签特征,直到满足预设终止条件为止,将最后一次调整得到的人
脸AUs的当前参数值作为实际人脸图像对应的人脸AUs的参数值。上述参数估计过程中,人
脸特征提取器提取人脸图像(包括实际人脸图像和人脸基础图像)的标签特征,该标签特征
表示人脸图像中各个像素点所属的类别对应的特征,例如:图像的深度特征(人脸的关键点
特征和人脸的纹理特征),这样,在对提取得到的虚拟标签特征和实际标签特征进行比较
后,得到的比较结果的信息更加丰富,进而根据丰富的比较结果的信息对人脸AUs的当前参
数值进行调整时,使得最终调整得到的人脸AUs的当前参数值更加准确,也就是最后估计得
到的实际人脸图像对应的人脸AUs的参数值更加准确,缓解了现有的人脸AUs的参数估计方
法准确性差的技术问题。
征和实际标签特征之间的特征距离,x表示人脸AUs的当前参数值,G(x)表示生成的人脸基
础图像,W(G(x))表示生成的人脸基础图像中,每个像素点所属的类别的概率,F(G(x))表示
人脸特征提取器提取的人脸基础图像的前M层特征,yr表示实际人脸图像,W(yr)表示实际人
脸图像中,每个像素点所属的类别的概率,F(yr)表示人脸特征提取器提取的实际人脸图像
的前M层特征,M为预设值。
签特征。
预先设置的包含脸部各个器官的特征点的模板;通过仿射矩阵对实际人脸图像中的各个像
素点进行仿射变换,得到对齐后的实际人脸图像。
本,人脸AUs的参数值包括:多维的头部角度参数值、多维的人脸表情参数值和多维的人脸
身份参数值,每一维的人脸AUs的参数值能够决定渲染得到的虚拟人脸图像样本的局部区
域;通过第一训练样本和第一损失函数对原始图像生成器进行训练,得到图像生成器。
始图像生成器进行训练,得到图像生成器。
群网络提取的渲染得到的虚拟人脸图像样本的特征与生成的人脸图像的特征之间的距离,
w表示预设权重。
提取器。
一条或多条计算机指令,一条或多条计算机指令被处理器102执行,以实现上述人脸运动单
元AUs的参数估计方法。
少一个通信接口104(可以是有线或者无线)实现该系统网元与至少一个其他网元之间的通
信连接,可以使用互联网,广域网,本地网,城域网等。总线103可以是ISA总线、PCI总线或
EISA总线等。总线可以分为地址总线、数据总线、控制总线等。为便于表示,图9中仅用一个
双向箭头表示,但并不表示仅有一根总线或一种类型的总线。
述的处理器102可以是通用处理器,包括中央处理器(Central Processing Unit,简称
CPU)、网络处理器(Network Processor,简称NP)等;还可以是数字信号处理器(Digital
Signal Processor,简称DSP)、专用集成电路(Application Specific Integrated
Circuit,简称ASIC)、现场可编程门阵列(Field‑Programmable Gate Array,简称FPGA)或
者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本
发明实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理
器也可以是任何常规的处理器等。结合本发明实施例所公开的方法的步骤可以直接体现为
硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模
块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储
器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器101,处理器102读取存储器
101中的信息,结合其硬件完成前述实施例的方法的步骤。
器实现上述人脸运动单元AUs的参数估计方法,具体实现可参见方法实施例,在此不再赘
述。
用于执行前面方法实施例中所述的方法,具体实现可参见方法实施例,在此不再赘述。
明进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员
在本发明揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻
易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使
相应技术方案的本质脱离本发明实施例技术方案的精神和范围,都应涵盖在本发明的保护
范围之内。因此,本发明的保护范围应所述以权利要求的保护范围为准。