一种基于操控解耦身份表示的人脸匿名方法转让专利
申请号 : CN202110556372.2
文献号 : CN113033511B
文献日 : 2021-08-10
发明人 : 王伟 , 董晶 , 彭勃 , 李东泽 , 马天翔
申请人 : 中国科学院自动化研究所
摘要 :
权利要求 :
1.一种基于操控解耦身份表示的人脸匿名方法,其特征在于,包括:S1:数据处理阶段:构造人脸图像数据集,构造每个人物n张图像, k个人物,总图像数目N张的数据集,并且划分为训练集Dtrain和测试集Dtest;将所述训练集Dtrain和测试集Dtest输入已有的、训练好的人脸特征提取网络,提取人脸的身份信息特征;
S2:生成模型的训练阶段:所述生成模型包括:编码器和解码器,所述编码器的输入为图像I,输出为身份信息特征Id和属性信息特征Att;所述解码器的输入为属性信息特征Att和身份信息特征Id,输出图像Iout;所述属性信息特征Att为:姿势、光照、表情和图像背景;
所述身份信息特征Id为:五官大小和形状;
在训练集Dtrain中,分别以相同身份和不同身份的图像对的形式输入所述编码器,每个所述图像对的第一张图记为I1 ,第二张图记为I2,编码器以特征向量的形式分别输出图片I1和I2的身份信息特征和属性信息特征,分别记为Id1,Att1和Id2,Att2;
将第一张图I1的身份信息特征Id1和第二张图I2的属性信息特征Att2作为一组,第一张图I1的属性信息特征Att1和第二张图I2的身份信息特征作Id2为一组,即Att1,Id2和Att2,Id1,输入解码器,生成图像Iout12和Iout21;
所述生成模型的训练采用的损失函数包括条件多尺度重建损失,具体构建方法为:当图像对中的两张图像的身份信息特征相同,属性信息特征不同时,生成图像Iout12的身份信息特征和属性信息特征与图像I1的身份信息特征和属性信息特征相同,定义为:生成的图像和I1重建损失;当图像对中的两张图像的身份信息特征不同,属性信息特征不同时,生成图像Iout12的属性信息特征与图像I1的属性信息特征相同;生成图像Iout12的身份信息特征与图像I2的身份信息特征相同,定义为:生成的图像与I1和I2局部相似度损失;
S3:操纵阶段:在测试集Dtest中,将需要进行匿名化的图像输入训练好的生成模型的编码器,得到测试身份信息特征Idt和测试属性信息特征Attt;将所述测试身份信息特征Idt旋转参考值的角度,得到旋转后的身份特征Idrot;应用测试身份信息特征Idt和旋转后的身份特征Idrot进行插值,得到身份信息插值特征Idnew;
将测试属性信息特征Attt和身份信息插值特征Idnew输入训练好的生成模型的解码器,得到匿名图像;
S4:测试阶段:计算所述匿名图像的身份信息特征与所述需要进行匿名化的图像的身份信息特征的距离,如果所述距离小于一定阈值,则匿名成功,所述距离为余弦相似度;
如果匿名未成功,减小所述身份信息插值特征Idnew与旋转后的身份特征Idrot的距离直到所述匿名图像的身份信息特征与所述需要进行匿名化的图像的身份信息特征的距离小于一定阈值。
2.根据权利要求1所述的基于操控解耦身份表示的人脸匿名方法,其特征在于,所述n>
5,所述k>1200,所述N>200000。
3.根据权利要求1所述的基于操控解耦身份表示的人脸匿名方法,其特征在于,所述条件多尺度重建损失的具体损失函数为:其中,
:生成的图像和I1重建损失;
:生成的图像与I1和I2局部相似度损失;
λ:控制两项损失的比例,训练时设置为1;
c:超参数,c∈{0,1}。
4.根据权利要求3所述的基于操控解耦身份表示的人脸匿名方法,其特征在于,所述生成的图像和I1重建损失的具体公式为:,
其中,
EI1,I2:期望;
G(Att1,Id2):身份信息特征相同条件下的生成图像,也就是Iout12。
5.根据权利要求4所述的基于操控解耦身份表示的人脸匿名方法,其特征在于,所述生成的图像与I1和I2局部相似度损失的具体公式为:,
其中,
:为大小按照输入大小的1/8,1/16,1/32选取的Iout12的局部图像块;
:为大小按照输入大小的1/8,1/16,1/32选取的I1的局部图像块;
:为判别器,其输入为一组图像块,所述一组图像块为2个图像块,输出为两图像块属于同一图像的分数。
6.根据权利要求5所述的基于操控解耦身份表示的人脸匿名方法,其特征在于,所述损失函数还包括,身份向量约束损失:其中,
f(·):已有的、训练好的人脸特征提取网络;
cossim(·):余弦相似度。
7.根据权利要求6所述的基于操控解耦身份表示的人脸匿名方法,其特征在于,所述损失函数还包括,引入了生成对抗网络的生成‑对抗机制,对抗损失公式为:其中,
D(·):生成对抗网络的分类器;
I:编码器的输入图像;
EI(·):期望。
8.根据权利要求7所述的基于操控解耦身份表示的人脸匿名方法,其特征在于,所述损失函数=所述条件多尺度重建损失+所述身份向量约束损失+所述对抗损失。
9.根据权利要求1所述的基于操控解耦身份表示的人脸匿名方法,其特征在于,所述将所述测试身份信息特征Idt旋转参考值的角度的具体公式为:所述参考值大于arccos0.28。
10.根据权利要求9所述的基于操控解耦身份表示的人脸匿名方法,其特征在于,所述应用测试身份信息特征Idt和旋转后的身份特征Idrot进行插值的具体公式为:Idnew=Idt*(1‑i)+Idrot *i其中,0≤i≤1,测试时令i=1;
所述减小所述身份信息插值特征Idnew与旋转后的身份特征Idrot的距离的方法为:增加i的取值。
说明书 :
一种基于操控解耦身份表示的人脸匿名方法
技术领域
背景技术
严重。人脸包含着个人的身份信息,可以用于个人的支付,出行,检索,亦可以作为模型的训
练数据。人脸数据对于个人,企业,乃至国家都有着重要的价值,每个人的人脸都是独一无
二的,它不像数字密码那样可以随意更换,也不像指纹识别那样可以任意使用其中一根手
指,每个人的“人脸密码”都是不可替代的,然而,人脸数据往往通过日益发达的社交媒体上
传至云端,让数据泄露成为许多人的困扰,不法分子可能通过利用某一用户的人脸信息,欺
骗人脸识别系统,非法入侵其银行账户,或用于其他不法用途,进而造成安全,财产损失。同
时,大量企业在未经用户允许的情况下爬取用户的人脸数据用于商业用途,对个人的隐私,
乃至社会的稳定造成了不利的影响。所以,如何对图像以及视频中的人脸进行匿名化处理,
使得处理后的人脸不影响下游任务的同时,不包含个人的身份信息,是计算机视觉以及人
脸识别领域的一个重要的研究课题。
效的去除人脸的身份信息,但是处理后的人脸往往遭到了极大的破坏,丧失了可用性。目前
的基于深度学习的人脸匿名方法大多数基于生成模型,即利用GAN,autoencoder等生成模
型生成一张新的匿名的人脸来替换原图片或者视频中的人脸。传统的人脸匿名方法,可以
参考文献:Elaine M Newton, Latanya Sweeney, and Bradley Malin. Pre‑ serving
privacy by de‑identifying face images. Ralph Gross, Latanya Sweeney, Fernando
De la Torre, and Si‑ mon Baker, “Model‑based face de‑identification,” in IEEE
Workshop on Privacy Research in Vision (PRV), 2006. Ralph Gross,
EdoardoAiroldi, Bradley Malin, and Latanya Sweeney, “Integrating utility into
face de‑identification,” in International Workshop on Privacy Enhancing
Technologies, 2005. 以及参考文献Ralph Gross, Latanya Sweeney, Fernando De La
Torre, and Si‑ mon Baker, “Semi‑supervised learning of multi‑factor models
for face de‑identification,” in CVPR, 2008.对于基于生成模型的人脸匿名方法,可
参考文献:Karla Brkic, Ivan Sikiric, Tomislav Hrkac, and Zoran Kalafatic, “I
know that person: Generative full body and face de‑identification of people
in images,” in CVPR Workshops, 2017. Qianru Sun, Liqian Ma, Seong Joon Oh,
Luc Van Gool, Bernt Schiele, and Mario Fritz, “Natural and effective
obfuscation by head inpainting,” in CVPR, 2018.以及参考文献:Oran Gafni, Lior
Wolf, and Yaniv Taigman. Live face de‑ identification in video. In IEEE
International Conference on Computer Vision, ICCV 2019, Seoul, South Korea,
October 27 ‑ November 2, 2019, 2019. 以及参考文献:Maxim Maximov, Ismail
Elezi, and Laura Leal‑Taix´e. Ciagan:Conditional identity anonymization
generative adversarial networks. Proceedings of the IEEE/CVF Conference on
Computer Vision and Pattern Recognition, pages 5447–5456, 2020.
域匿名的目标函数;然后建立场景内容区域保留的目标函数;随后进行人脸匿名与场景保
留的目标函数的结合;最后采用公开数据集进行训练及测试,输出最终结果。本方法对图像
中人脸区域进行合成脸的替换而达到人脸匿名的效果,相对以往的马赛克遮挡的方法更高
效并且在视觉上更友好。本发明专利申请方法具有高效性与实用性,对人物图像的隐私保
护更高效和美观。
伪装生成模型执行相同人脸生成任务。3)训练人脸伪装生成模型执行不同人脸生成任务。
4)完成模型训练后,采用已训练的EI、EA和G网络对输入人脸图像进行伪装人脸图像生成。
其中步骤1)使用分类损失对EI和EA进行预训练。步骤2)使用人脸重建损失进行模型训练。
步骤3)分别设计了外貌特征和身份特征的L2范数损失函数,以约束模型特征提取的准确性
以及生成结果的可控性。本发明专利申请能够实现保持人脸身份匹配的同时显著改变人脸
的外观特征,并通过实验数据证明了隐私保护的有效性。
的检测,但往往与原图的相似度较低。 2:目前方法生成的人脸图片中,身份信息与属性信
息高度耦合,修改身份信息时候容易对我们希望保持的源图像的属性也造成影响。3:目前
方法生成的人脸的匿名程度不可控,并且一些已有的匿名方法直接将其他身份的脸换到当
前图片上,容易造成不必要的损失。4:目前方法生成的匿名人脸缺乏多样性,不同身份匿名
后的人脸可能趋向于类似的相貌。因此,我们提出了一种基于去耦生成模型的人脸匿名方
法来解决以上问题。我们的方法将人脸图片的身份信息以及属性信息解耦,以一种可以操
控的方式修改人脸并且使其匿名化,并且通过随机采样的方式提高生成人脸的多样性。
发明内容
Dtest输入已有的、训练好的人脸特征提取网络,提取人脸的身份信息特征;
息特征Id,输出图像Iout;属性信息特征Att为:姿势、光照、表情和图像背景;身份信息特征
Id为:五官大小和形状;
片I1和I2的身份信息特征和属性信息特征,分别记为Att1,Id1和Att2,Id2;
Att1,Id2,输入解码器,生成图像Iout12和Iout21;
身份信息特征和属性信息特征与图像I1的身份信息特征和属性信息特征相同,定义为:生
成的图像和I1重建损失;当图像对中的两张图像的身份信息特征不同,属性信息特征不同
时,生成图像Iout12的属性信息特征与图像I1的属性信息特征相同;生成图像Iout12的身份
信息特征与图像I2的身份信息特征相同,定义为:生成的图像与I1和I2局部相似度损失;
征Idt旋转参考值的角度,得到旋转后的身份特征Idrot;应用测试身份信息特征Idt和旋转后
的身份特征Idrot进行插值,得到身份信息插值特征Idnew;
度;
离小于一定阈值。
识别系统检测为原身份,从而有效保护原人脸图片持有者的隐私。
附图说明
具体实施方式
中所描述的实施方式并不代表与本发明相一致的所有实施方式。相反,它们仅是与如所附
权利要求书中所详述的、本发明的一些方面相一致的装置和方法的例子。
试集Dtest输入已有的、训练好的人脸特征提取网络,提取人脸的身份信息特征;所述n>5,
所述k>1200,所述N>200000;使用了CelebA,VGGFace2的训练集训练模型,CelebA,VGGFace2
的测试集,以及FFHQ的视频帧作为测试集以评估模型性能;
人脸图片,输出为一个[batchsize,512]维度的向量,对应batch中各个图片的身份信息特
征,该身份特征的维度与编码器的身份信息特征输出维度相同;
信息特征Att和身份信息特征Id,输出图像Iout;所述属性信息特征Att为:姿势、光照、表情
和图像背景;所述身份信息特征Id为:五官大小和形状;
出图片I1和I2的身份信息特征和属性信息特征,分别记为Att1,Id1和Att2,Id2;
Att1,Id2,输入解码器,生成图像Iout12和Iout21;
属性信息特征与图像I1的身份信息特征和属性信息特征相同,定义为:生成的图像和I1重建
损失;当图像对中的两张图像的身份信息特征不同,属性信息特征不同时,生成图像Iout12
的属性信息特征与图像I1的属性信息特征相同;生成图像Iout12的身份信息特征与图像I2
的身份信息特征相同,定义为:生成的图像与I1和I2局部相似度损失;
相接近。因此,我们试图拉近:生成图像I与身份提供图像在预训练好的人脸识别网络所提
取的特征之间的距离,以及编码器输出的身份信息特征Id与预训练好人脸识别网络所提取
的特征之间的余弦相似度距离,
的余弦相似度。
行渲染等操作以保证视频的连续性,人脸的检测,对齐裁剪可以通过MTCNN,SSH等方法实
现。
值的角度,得到旋转后的身份特征Idrot;应用测试身份信息特征Idt和旋转后的身份特征
Idrot进行插值,得到身份信息插值特征Idnew;
某一定值,而l2距离会大于某一定值。从而达到匿名的目的;
0.28,则匿名成功,所述距离为余弦相似度;
离小于一定阈值;
像如果直接拼接回原图像或视频帧,会导致图像的视觉效果下降以及视频的抖动。因此需
要经过渲染以保证生成图像的视觉质量并防止生成的视频抖动。
试集Dtest输入已有的、训练好的人脸特征提取网络,提取人脸的身份信息特征;所述n>5,
所述k>1200,所述N>200000;使用了CelebA,VGGFace2的训练集训练模型,CelebA,VGGFace2
的测试集,以及FFHQ的视频帧作为测试集以评估模型性能;
人脸图片,输出为一个[batchsize,512]维度的向量,对应batch中各个图片的身份信息特
征,该身份特征的维度与编码器的身份信息特征输出维度相同;
信息特征Att和身份信息特征Id,输出图像Iout;所述属性信息特征Att为:姿势、光照、表情
和图像背景;所述身份信息特征Id为:五官大小和形状;
出图片I1和I2的身份信息特征和属性信息特征,分别记为Att1,Id1和Att2,Id2;
Att1,Id2,输入解码器,生成图像Iout12和Iout21;
属性信息特征与图像I1的身份信息特征和属性信息特征相同,定义为:生成的图像和I1重建
损失;当图像对中的两张图像的身份信息特征不同,属性信息特征不同时,生成图像Iout12
的属性信息特征与图像I1的属性信息特征相同;生成图像Iout12的身份信息特征与图像I2
的身份信息特征相同,定义为:生成的图像与I1和I2局部相似度损失;
相接近。因此,我们试图拉近:生成图像I与身份提供图像在预训练好的人脸识别网络所提
取的特征之间的距离,以及编码器输出的身份信息特征Id与预训练好人脸识别网络所提取
的特征之间的余弦相似度距离,
的余弦相似度。
行渲染等操作以保证视频的连续性,人脸的检测,对齐裁剪可以通过MTCNN,SSH等方法实
现。
值的角度,得到旋转后的身份特征Idrot;应用测试身份信息特征Idt和旋转后的身份特征
Idrot进行插值,得到身份信息插值特征Idnew;
某一定值,而l2距离会大于某一定值。从而达到匿名的目的;
0.28,则匿名成功,所述距离为余弦相似度;
离小于一定阈值;
像如果直接拼接回原图像或视频帧,会导致图像的视觉效果下降以及视频的抖动。因此需
要经过渲染以保证生成图像的视觉质量并防止生成的视频抖动。
证准确率指标(数字越小代表人脸匿名效果越好,粗体为该项最好结果)。表2展示的是不同
人脸匿名方法在各项定量评价指标下的对比结果(粗体为该项最好结果)。
本发明范围的情况下,第一信息也可以被称为第二信息,类似地,第二信息也可以被称为第
一信息。取决于语境,如在此所使用的词语“如果”可以被解释成为“在……时”或“当……
时”或“响应于确定”。
多个实施例中描述的某些特征也可以在单个实施例中被组合实施。另一方面,在单个实施
例中描述的各种特征也可以在多个实施例中分开实施或以任何合适的子组合来实施。此
外,虽然特征可以如上所述在某些组合中起作用并且甚至最初如此要求保护,但是来自所
要求保护的组合中的一个或多个特征在一些情况下可以从该组合中去除,并且所要求保护
的组合可以指向子组合或子组合的变型。
果。在某些情况下,多任务和并行处理可能是有利的。此外,上述实施例中的各种系统模块
和组件的分离不应被理解为在所有实施例中均需要这样的分离,并且应当理解,所描述的
程序组件和系统通常可以一起集成在单个软件产品中,或者封装成多个软件产品。
外,附图中描绘的处理并非必需所示的特定顺序或顺次顺序,以实现期望的结果。在某些实
现中,多任务和并行处理可能是有利的。