基于无监督学习的屏幕图像去摩尔纹方法转让专利

申请号 : CN202010167813.5

文献号 : CN111489300B

文献日 :

基本信息:

PDF:

法律信息:

相似专利:

发明人 : 岳焕景刘芳龙杨敬钰

申请人 : 天津大学

摘要 :

本发明属于计算机视觉领域,为提出更为普适性且方便训练的基于无监督学习的去摩尔纹方法,实现摩尔纹的去除,且处理后的图像细节清晰,能很好地处理拍摄过程中造成的亮度和对比度的畸变。为此,本发明采取的技术方案是,基于无监督学习的屏幕图像去摩尔纹方法,使用不成对的带摩尔纹的图片以及无摩尔纹图片作为输入,通过训练,使网络学习由摩尔纹图像到干净图像之间的映射关系,最终实现输入摩尔纹图片,网络对摩尔纹实现去除,输出相应无摩尔纹图片。本发明主要应用于去除摩尔纹。

权利要求 :

1.一种基于无监督学习的屏幕图像去摩尔纹方法,其特征是,使用不成对的带摩尔纹的图片以及无摩尔纹图片作为输入,通过训练,使网络学习由摩尔纹图像到干净图像之间的映射关系,最终实现输入摩尔纹图片,网络对摩尔纹实现去除,输出相应无摩尔纹图片;

具体步骤如下:

1)分析摩尔纹特征,建立拍屏图像中摩尔纹模型:

Im=Ic+Imc                        (1)Im为拍屏得到的带摩尔纹的图像,Ic是被拍摄的原始图像,Imc是摩尔纹层;

2)建立训练数据集

用不同的手机去拍摄展示在不同型号的显示设备上的文字、网页、人物照片、风景照;

并将最终得到的带摩尔纹图和原始展示的图像或截屏图像切成图像块用于神经网络的训练;

3)设计网络框架

31)将带摩尔纹图像Im输入到干净图像生成器 中,得到去摩尔纹之后的图像 再将 输入到摩尔纹图像生成器 中,得到重现的摩尔纹图像 通过约束 和Im的像素级别以及特征级别的相似性来使得去摩尔纹之后的图像 包含足够的原图信息,同时,为了使得两个生成器能够更专注于摩尔纹的去除和生成过程,增加输入干净图像Ic生成带摩尔纹图像 和重构干净图像 的过程,损失函数选用其中ψi表示经过预训练的VGG‑19网络,这里选用第2、7、12、21、30层的输出特征图,λ1,λ2,λ3和λ4为权重;

32)将干净图像Ic输入到去摩尔纹生成器 得到I′c,同时将摩尔纹图像Im输入到去摩尔纹生成器 中得到I′m,让生成的图像在像素和向量级别相近来使得两个生成器在去除/生成摩尔纹的同时对图像其他部分的内容影响最小,损失函数选用其中cos(x,y)表示x和y的余弦相似度;

33)用输入的摩尔纹图像Im减去去摩尔纹之后的结果 得到摩尔纹层Imc,将得到的摩尔纹层合成到干净图像Ic上得到合成摩尔纹图像 通过约束合成摩尔纹图像与干净图像Ic之间的语义信息差别使得去除的摩尔纹层尽量不包含原图的内容信息,损失函数选用其中ψj表示经过预训练的VGG‑19网络,这里选用第30层的输出特征图;

34)使用两组尺度不同的判别器 和 来从不同的尺度来判别生成的干净图与真实的干净图之间的差别, 和 判别生成的摩尔纹图与真实的摩尔纹图之间的差别,使得生成图像 和 更加真实,对抗损失函数选用其中M和C分别指摩尔纹图像数据集和干净图像数据集;

35)训练判别器时使用的损失函数选用

训练小尺度判别器的损失函数和大尺度损失函数定义相同;

4)设计网络结构

41)生成器 和 具有相同的结构,分别是:卷积核大小7*7卷积层—核大小3*3卷积层—核大小3*3卷积层—核大小3*3卷积层—9个残差块—核大小3*3反卷积层—核大小3*3反卷积层—核大小7*7卷积层;除了最后的卷积层接tanh激活层,其他卷积层都接着实例标准化层和ReLU激活层,残差块中是两个3*3的卷积层,其中第一个卷积层接着实例标准化层和ReLU激活层,第二个卷积层只接实例标准化层;

42)大尺度判别器 和 具有相同的网络结构,分别为:卷积核大小4*4卷积层—核大小4*4卷积层—核大小4*4卷积层—核大小4*4卷积层—核大小4*4卷积层;小尺度判别器和 具有相同的网络结构,分别为:卷积核大小4*4卷积层—核大小1*1卷积层—卷积层核大小1*1;每个判别器中除了最后一层只有卷积层之外其他卷积层之后都接着实例标准化层和LeakyReLU激活层;

5)设置好网络的学习率和各部分损失函数的权重,利用深度学习框架Pytorch训练上述卷积神经网络,直到损失收敛,生成训练模型;

6)将带有摩尔纹的图片输入到网络中得到对应的去摩尔纹之后的干净图。

2.如权利要求1所述的基于无监督学习的屏幕图像去摩尔纹方法,其特征是,步骤5)的具体步骤是:

51)确定网络结构之后,将训练数据输入到网络;

52)在网络训练阶段,学习率设置为0.0002,权重λ1,λ2,λ3,λ4分别设置为10,1,2,2;

53)进行训练,得到摩尔纹图像和去掉摩尔纹的干净图像之间的映射关系。

说明书 :

基于无监督学习的屏幕图像去摩尔纹方法

技术领域

[0001] 本发明属于计算机视觉领域,涉及拍屏图像摩尔纹去除的方法,具体讲,涉及基于无监督学习的屏幕图像去摩尔纹方法。

背景技术

[0002] 摩尔纹是指两个不同频率的阵列混叠在一起时产生的不规则条纹。当用数码相机拍摄数字显示设备时,相机感光元件和显示设备之间产生混叠,便很容易出现严重影响拍摄图像质量的摩尔纹。由于其形状不规则、颜色多样、密度各异,摩尔纹很难被去除。
[0003] 现有的去除拍屏图像中摩尔纹的方法主要可以分为两类。一类是使用传统方法,通过利用摩尔纹的空间和频率特性,通过在YUV和RGB上联合处理,进而去除摩尔纹。但是这类方法一般只能去除频率较高的摩尔纹,而且很容易造成图像细节过模糊。
[0004] 另一类方法是使用卷积神经网络(CNN)来直接学习摩尔纹图像到对应的干净图像之间的映射。然而,这类方法需要大量的成对并严格对齐的带摩尔纹的图片和干净图片来训练网络,而且它们并不能很好地处理拍摄过程中造成的亮度和对比度的畸变。

发明内容

[0005] 为克服现有技术的不足,本发明旨在提出更为普适性且方便训练的基于无监督学习的去摩尔纹方法。为此,本发明采取的技术方案是,基于无监督学习的屏幕图像去摩尔纹方法,使用不成对的带摩尔纹的图片以及无摩尔纹图片作为输入,通过训练,使网络学习由摩尔纹图像到干净图像之间的映射关系,最终实现输入摩尔纹图片,网络对摩尔纹实现去除,输出相应无摩尔纹图片。
[0006] 具体步骤如下:
[0007] 1)分析摩尔纹特征,建立拍屏图像中摩尔纹模型:
[0008] Im=Ic+Imc                        (1)
[0009] Im为拍屏得到的带摩尔纹的图像,Ic是被拍摄的原始图像,Imc是摩尔纹层;
[0010] 2)建立训练数据集
[0011] 用不同的手机去拍摄展示在不同型号的显示设备上的文字、网页、人物照片、风景照;并将最终得到的带摩尔纹图和原始展示的图像或截屏图像切成图像块用于神经网络的训练;
[0012] 3)设计网络框架
[0013] 31)将带摩尔纹图像Im输入到干净图像生成器 中,得到去摩尔纹之后的图像再将 输入到摩尔纹图像生成器 中,得到重现的摩尔纹图像 通过约束 和Im的像素级别以及特征级别的相似性来使得去摩尔纹之后的图像 包含足够的原图信息,同时,为了使得两个生成器能够更专注于摩尔纹的去除和生成过程,增加输入干净图像Ic生成带摩尔纹图像 和重构干净图像 的过程,损失函数选用
[0014]
[0015]
[0016] 其中ψi表示经过预训练的VGG‑19网络,这里选用第2、7、12、21、30层的输出特征图;
[0017] 32)将干净图像Ic输入到去摩尔纹生成器 得到I′c,同时将摩尔纹图像Im输入到去摩尔纹生成器 中得到I′m,让生成的图像在像素和向量级别相近来使得两个生成器在去除/生成摩尔纹的同时对图像其他部分的内容影响最小,损失函数选用[0018]
[0019] 其中cos(x,y)表示x和y的余弦相似度。
[0020] 33)用输入的摩尔纹图像Im减去去摩尔纹之后的结果 得到摩尔纹层Imc,将得到的摩尔纹层合成到干净图像Ic上得到合成摩尔纹图像 通过约束合成摩尔纹图像 与干净图像Ic之间的语义信息差别使得去除的摩尔纹层尽量不包含原图的内容信息,损失函数选用
[0021]
[0022] 其中ψj表示经过预训练的VGG‑19网络,这里选用第30层的输出特征图。
[0023] 34)使用两组尺度不同的判别器 和 来从不同的尺度来判别生成的干净图与真实的干净图之间的差别, 和 判别生成的摩尔纹图与真实的摩尔纹图之间的差别,使得生成图像 和 更加真实,对抗损失函数选用
[0024]
[0025]
[0026] 其中M和C分别指摩尔纹图像数据集和干净图像数据集;
[0027] 35)训练判别器时使用的损失函数选用
[0028]
[0029]
[0030] 训练小尺度判别器的损失函数和大尺度损失函数定义相同;
[0031] 4)设计网络结构
[0032] 41)生成器 和 具有相同的结构,分别是:卷积核大小7*7卷积层—核大小3*3卷积层—核大小3*3卷积层—核大小3*3卷积层—9个残差块—核大小3*3反卷积层—核大小3*3反卷积层—核大小7*7卷积层;除了最后的卷积层接tanh激活层,其他卷积层都接着实例标准化层和ReLU激活层,残差块中是两个3*3的卷积层,其中第一个卷积层接着实例标准化层和ReLU激活层,第二个卷积层只接实例标准化层;
[0033] 42)大尺度判别器 和 具有相同的网络结构,分别为:卷积核大小4*4卷积层—核大小4*4卷积层—核大小4*4卷积层—核大小4*4卷积层—核大小4*4卷积层;小尺度判别器 和 具有相同的网络结构,分别为:卷积核大小4*4卷积层—核大小1*1卷积层—卷积层核大小1*1;每个判别器中除了最后一层只有卷积层之外其他卷积层之后都接着实例标准化层和LeakyReLU激活层;
[0034] 5)设置好网络的学习率和各部分损失函数的权重,利用深度学习框架Pytorch训练上述卷积神经网络,直到损失收敛,生成训练模型;
[0035] 6)将带有摩尔纹的图片输入到网络中得到对应的去摩尔纹之后的干净图。
[0036] 步骤5)的具体步骤是:
[0037] 51)确定网络结构之后,将训练数据输入到网络;
[0038] 52)在网络训练阶段,学习率设置为0.0002,权重λ1,λ2,λ3,λ4分别设置为10,1,2,2;
[0039] 53)进行训练,得到摩尔纹图像和去掉摩尔纹的干净图像之间的映射关系。
[0040] 本发明的特点及有益效果是:
[0041] 本发明方法针对拍屏图像中的摩尔纹去除,通过无监督学习,得到摩尔纹图像与干净图像之间的映射,有效地去除了摩尔纹,本发明具有以下特点:
[0042] 1.通过提出无监督学习方法,避免了其他深度学习方法中需要大量严格成对数据的难题。
[0043] 2.通过精心设计的损失函数,使得去除摩尔纹的同时很好地保留图像的细节信息。
[0044] 3.通过直接建立摩尔纹图像和干净图像之间的映射,使得在去摩尔纹的同时很好地修正了亮度和对比度畸变。附图说明:
[0045] 图1是算法流程图;
[0046] 图2是网络框架图;
[0047] 图3是本发明的输入和输出:输入是(a)带摩尔纹图像,输出是(b)去摩尔纹之后的图像。
[0048] 图4是各个方法的结果比较。(a)为带摩尔纹图像,(b)是传统方法LDPC去除摩尔纹之后的结果,(c)是深度学习方法MR‑CNN去除摩尔纹之后的结果,(d)是本发明的方法去除摩尔纹之后的结果。

具体实施方式

[0049] 本发明通过基于无监督学习的方法,使用不成对的带摩尔纹的图片以及直接下载或截屏得到的干净图片作为输入。通过训练,使网络学习由摩尔纹图像到干净图像之间的映射关系。最终实现输入摩尔纹图片,网络对摩尔纹实现去除,输出相应干净图片。
[0050] 为克服现有技术的不足,本发明旨在提供更为普适性且方便训练的基于无监督学习的去摩尔纹方法。步骤如下:
[0051] 1)分析摩尔纹特征,建立拍屏图像中摩尔纹模型:
[0052] Im=Ic+Imc                        (1)
[0053] 简单来说,拍屏图像中的摩尔纹可以看成是一种复杂的加性噪声,这种噪声和拍摄的角度以及相机镜头的参数有关。方程(1)中,Im为拍屏得到的带摩尔纹的图像,Ic是被拍摄的原始图像,Imc是摩尔纹层。
[0054] 2)建立训练数据集
[0055] 用不同的手机去拍摄展示在不同型号的显示设备上的文字、网页、人物照片、风景照等。并将最终得到的带摩尔纹图和原始展示的图像或截屏图像切成256*256的图像块用于神经网络的训练。
[0056] 3)设计网络框架
[0057] 31)将带摩尔纹图像Im输入到干净图像生成器 中,得到去摩尔纹之后的图像再将 输入到摩尔纹图像生成器 中,得到重现的摩尔纹图像 通过约束 和Im的像素级别以及特征级别的相似性来使得可以去摩尔纹之后的图像 包含足够的原图信息。同时,为了使得两个生成器能够更专注于摩尔纹的去除和生成过程,又增加了输入干净图像Ic生成带摩尔纹图像 和重构干净图像 的过程。损失函数选用
[0058]
[0059] 其中ψi表示经过预训练的VGG‑19网络,这里选用第2、7、12、21、30层的输出特征图。
[0060] 32)将干净图像Ic输入到去摩尔纹生成器 得到I′c,同时将摩尔纹图像Im输入到去摩尔纹生成器 中得到I′m,让生成的图像在像素和向量级别相近来使得两个生成器在去除/生成摩尔纹的同时对图像其他部分的内容影响最小。损失函数选用[0061]
[0062] 其中cos(x,y)表示x和y的余弦相似度。
[0063] 33)用输入的摩尔纹图像Im减去去摩尔纹之后的结果 得到摩尔纹层Imc,将得到的摩尔纹层合成到干净图像Ic上得到合成摩尔纹图像 通过约束合成摩尔纹图像 与干净图像Ic之间的语义信息差别使得去除的摩尔纹层尽量不包含原图的内容信息。损失函数选用
[0064]
[0065] 其中ψj表示经过预训练的VGG‑19网络,这里选用第30层的输出特征图。
[0066] 34)使用两组尺度不同的判别器 和 来从不同的尺度来判别生成的干净图与真实的干净图之间的差别, 和 判别生成的摩尔纹图与真实的摩尔纹图之间的差别,使得生成图像 和 更加真实。对抗损失函数选用
[0067]
[0068]
[0069] 其中M和C分别指摩尔纹图像数据集和干净图像数据集。
[0070] 35)训练判别器时使用的损失函数选用
[0071]
[0072]
[0073] 训练小尺度判别器的损失函数和大尺度损失函数定义相同。
[0074] 4)设计网络结构
[0075] 41)生成器 和 具有相同的结构,分别是:卷积层(卷积核大小7*7)—卷积层(核大小3*3)—卷积层(核大小3*3)—卷积层(核大小3*3)—9个残差块—反卷积层(核大小3*3)—反卷积层(核大小3*3)—卷积层(核大小7*7)。除了最后的卷积层接tanh激活层其他卷积层都接着实例标准化层和ReLU激活层。残差块中是两个3*3的卷积层,其中第一个卷积层接着实例标准化层和ReLU激活层,第二个卷积层只接实例标准化层。
[0076] 42)大尺度判别器 和 具有相同的网络结构,分别为:卷积层(卷积核大小4*4)—卷积层(核大小4*4)—卷积层(核大小4*4)—卷积层(核大小4*4)—卷积层(核大小4*
4)。小尺度判别器 和 具有相同的网络结构,分别为:卷积层(卷积核大小4*4)—卷积层(核大小1*1)—卷积层(核大小1*1)。每个判别器中除了最后一层只有卷积层之外其他卷积层之后都接着实例标准化层和LeakyReLU激活层。
[0077] 5)设置好网络的学习率和各部分损失函数的权重,利用深度学习框架Pytorch训练上述卷积神经网络,直到损失收敛,生成训练模型。
[0078] 6)将带有摩尔纹的图片输入到网络中得到对应的去摩尔纹之后的干净图。
[0079] 步骤5)的具体步骤是:
[0080] 51)确定网络结构之后,将训练数据输入到网络;
[0081] 52)在网络训练阶段,学习率设置为0.0002,权重λ1,λ2,λ3,λ4分别设置为10,1,2,2;
[0082] 53)进行训练,得到摩尔纹图像和去掉摩尔纹的干净图像之间的映射关系。
[0083] 下面结合附图和具体实施例进一步详细说明本发明。
[0084] 本发明采用如下技术方案:
[0085] 1)分析摩尔纹特征,建立拍屏图像中摩尔纹模型:
[0086] Im=Ic+Imc                        (1)
[0087] 简单来说,拍屏图像中的摩尔纹可以看成是一种复杂的加性噪声,这种噪声和拍摄的角度以及相机镜头的参数有关。方程(1)中,Im为拍屏得到的带摩尔纹的图像,Ic是被拍摄的原始图像,Imc是摩尔纹层。
[0088] 2)建立训练数据集
[0089] 用不同的手机去拍摄展示在不同型号的显示设备上的文字、网页、人物照片、风景照等。并将最终得到的带摩尔纹图和原始展示的图像或截屏图像切成256*256的图像块用于神经网络的训练。
[0090] 3)设计网络框架
[0091] 31)将带摩尔纹图像Im输入到干净图像生成器 中,得到去摩尔纹之后的图像再将 输入到摩尔纹图像生成器 中,得到重现的摩尔纹图像 通过约束 和Im的像素以及特征级别的相似性来使得可以去摩尔纹之后的图像 包含足够的原图信息。同时,为了使得两个生成器能够更专注于摩尔纹的去除和生成过程,又增加了输入干净图像Ic生成带摩尔纹图像 和重构干净图像 的过程。损失函数选用
[0092]
[0093] 其中ψi表示经过预训练的VGG‑19网络,这里选用第2、7、12、21、30层的输出特征图。
[0094] 32)将干净图像Ic输入到去摩尔纹生成器 得到I′c,同时将摩尔纹图像Im输入到去摩尔纹生成器 中得到I′m,让生成的图像在像素和向量级别相近来使得两个生成器在去除/生成摩尔纹的同时对图像其他部分的内容影响最小。损失函数选用[0095]
[0096] 其中cos(x,y)表示x和y的余弦相似度。
[0097] 33)用输入的摩尔纹图像Im减去去摩尔纹之后的结果 得到摩尔纹层Imc,将得到的摩尔纹层合成到干净图像Ic上得到合成摩尔纹图像 通过约束合成摩尔纹图像 与干净图像Ic之间的语义信息差别使得去除的摩尔纹层尽量不包含原图的内容信息。损失函数选用
[0098]
[0099] 其中ψj表示经过预训练的VGG‑19网络,这里选用第30层的输出特征图。
[0100] 34)使用两组尺度不同的判别器 和 来从不同的尺度来判别生成的干净图与真实的干净图之间的差别, 和 判别生成的摩尔纹图与真实的摩尔纹图之间的差别,使得生成图像 和 更加真实。对抗损失函数选用
[0101]
[0102]
[0103] 其中M和C分别指摩尔纹图像数据集和干净图像数据集。
[0104] 35)训练判别器时使用的损失函数选用
[0105]
[0106]
[0107] 训练小尺度判别器的损失函数和大尺度损失函数定义相同。
[0108] 4)设计网络结构
[0109] 41)生成器 和 具有相同的结构,分别是:卷积层(卷积核大小7*7)—卷积层(核大小3*3)—卷积层(核大小3*3)—卷积层(核大小3*3)—9个残差块—反卷积层(核大小3*3)—反卷积层(核大小3*3)—卷积层(核大小7*7)。除了最后的卷积层接tanh激活层其他卷积层都接着实例标准化层和ReLU激活层。残差块中是两个3*3的卷积层,其中第一个卷积层接着实例标准化层和ReLU激活层,第二个卷积层只接实例标准化层。
[0110] 42)大尺度判别器 和 具有相同的网络结构,分别为:卷积层(卷积核大小4*4)—卷积层(核大小4*4)—卷积层(核大小4*4)—卷积层(核大小4*4)—卷积层(核大小4*
4)。小尺度判别器 和 具有相同的网络结构,分别为:卷积层(卷积核大小4*4)—卷积层(核大小1*1)—卷积层(核大小1*1)。每个判别器中除了最后一层只有卷积层之外其他卷积层之后都接着实例标准化层和LeakyReLU激活层。
[0111] 5)设置好网络的学习率和各部分损失函数的权重,利用深度学习框架Pytorch训练上述卷积神经网络,直到损失收敛,生成训练模型。
[0112] 6)将带有摩尔纹的图片输入到网络中得到对应的去摩尔纹之后的干净图。
[0113] 步骤5)的具体步骤是:
[0114] 51)确定网络结构之后,将训练数据输入到网络;
[0115] 52)在网络训练阶段,学习率设置为0.0002,权重λ1,λ2,λ3,λ4分别设置为10,1,2,2;
[0116] 53)进行训练,得到摩尔纹图像和去掉摩尔纹的干净图像之间的映射关系。
[0117] 以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。