复眼相机多焦距图像融合模型、方法及装置转让专利

申请号 : CN202211367841.7

文献号 : CN115439376B

文献日 :

基本信息:

PDF:

法律信息:

相似专利:

发明人 : 邹勤张天任陈驰杨必胜王中元

申请人 : 武汉大学

摘要 :

本文公开了一种复眼相机多焦距图像融合模型、方法及装置,以自参照感知模块SR作为模糊特征提取和特征恢复的基本单元,通过图像内的自参照实现全图特征比对。通过多层自参照提取离焦景深特征,结合自注意力与交叉注意力机制,在图像空间域上融合离焦特征,并在最后阶段采用多层自参照去模糊,从而有效的解决离焦扩散效应与离焦边界线不清晰的问题,并在一定程度上对近焦图像和远焦图像中依然模糊的区域做离焦去模糊,综合而言取得最佳融合效果。

权利要求 :

1.一种复眼相机多焦距图像融合网络模型,其特征在于:该网络模型包括编码器、多尺度统计融合器、解码器和图像还原器;该网络模型采用N张不同焦距的图像作为输入,每张图像单独输入编码器,利用自注意力编码输出四个尺度的特征,其中图像编码器的权重共享;编码器输出到多尺度统计融合器实现特征融合,对四个尺度上的特征进行融合特征,并经过特征最大、最小、均值的统计筛选获得精化的融合特征;多尺度统计融合器的输出依次通过解码器和还原器,对四个尺度上的融合特征进行解码并重构图像;

其中,所述多尺度统计融合器基于交叉参照感知融合模块RAF,具体为:输入两个大小为H×W×C的高维特征X、Y,计算X对Y的参照特征过程,先将X经过双层3×3的查询卷积并通过矩阵重排获得HW×C的Q矩阵QX,将Y经过双层3×3的映射卷积并通过矩阵重排获得C×HW的K矩阵KY,同时Y经过双层3×3的特征卷积并矩阵重排获得HW×C的V矩阵VY;Q矩阵与K矩阵的乘积作为注意力决策矩阵,其大小为C×C,将V矩阵与注意力决策矩阵的乘积再与输入X相加,即获得X对Y的参照特征 ;同理,Y对X的参照特征计算过程与X对Y参照特征过程同,得到Y对X的参照特征 ,将参照特征 和 同时计算通道层上的均值、最大、最小统计特征,再将三种统计特征叠加并经过1×1的卷积,最终输出H×W×C的融合参照特征;计算公式如下:。

2.根据权利要求1所述的复眼相机多焦距图像融合网络模型,其特征在于:

所述编码器、解码器和图像还原器均基于自参照感知模块SR进行处理,所述自参照感知模块SR包含多层,每一层经过一个注意力决策子模块A和一个自参照特征生成子模块B,子模块A将输入为H×W×C的特征图X经过批归一化和一个输入通道为C输出通道为3C的1×

1卷积,得到三等分H×W×C,再分别经过双层3×3的卷积获得Q矩阵、K矩阵和V矩阵,Q矩阵与K矩阵的乘积作为注意力决策矩阵,其大小为C×C,将V矩阵与注意力决策矩阵的乘积再与输入X相加,即获得X的自参照特征 ,子模块B将子模块A获得的 经过批归一化和一个输入通道为C输出通道为γC的1×1卷积将特征扩充为H×W×γC,并将扩充后的特征分别经过双层3×3的卷积获得两个输出,将其中一个输出经过激活函数后与另一个输出进行矩阵点乘,将结果经过一个输入通道为γC输出通道为C的1×1卷积,并与最初的输入相加,获得最终结果,维度为H×W×C。

3.根据权利要求1所述的复眼相机多焦距图像融合网络模型,其特征在于:所述编码器设置有三层特征提取器,每一层采用像素重排进行降采样,将降采样后的特征经过自参照感知模块SR处理,输出四个尺度的高维特征。

4.根据权利要求1所述的复眼相机多焦距图像融合网络模型,其特征在于:所述解码器对四层特征进行解码,每一层采用像素重排进行上采样,将输入的融合特征,经过每一层的自参照感知模块SR处理,输出为解码后的低维图像特征。

5.根据权利要求1所述的复眼相机多焦距图像融合网络模型,其特征在于:所述还原器利用自参照感知模块SR,将最终的融合解码特征精细化,用于离焦去模糊的高清重建;解码特征经过6层自参照感知模块重构,输入到卷集核大小为3×3步长为1填充为1的卷积,还原图像为H×W×3的RGB数据。

6.一种利用权利要求1‑5中任一所述复眼相机多焦距图像融合网络模型进行图像融合的方法,其特征在于,包括以下步骤:构建仿真多焦距图像数据集,所述数据集中每一个样本包含一张具有景深差异特征的原始图像与K张不同离焦模糊的仿真图像;

利用所构建的数据集对所述复眼相机多焦距图像融合模型进行训练,从K张多焦距图像中随机选取N张不同离焦模糊图作为模型输入,以原始图像作为真值,训练模型学习自动融合聚焦特征并还原清晰图像的能力,N<=K;

利用训练好的复眼相机多焦距图像融合模型进行多焦距图像融合的测试。

7.根据权利要求6所述的利用复眼相机多焦距图像融合网络模型进行图像融合的方法,其特征在于:构建仿真多焦距图像数据集的具体过程如下:S2‑1,选取N张具有显著景深差异特征的图像作为原始图像,并对其进行深度估计和边缘提取;

S2‑2,将深度数据和边缘数据量化为(x,y,depth,edge)的四维元组整列,按照聚簇数K的层次聚类算法,找到聚类中心作为K个多焦距图像的聚焦中心,其中x、y代表像素点的位置偏移,depth代表像素点的深度值,edge代表边缘梯度值;

S2‑3,根据聚焦中心的深度值与图像上任一像素点之间的深度差值,决定图像上该点的高斯模糊核半径,并对该点处进行高斯模糊,从而分别得到K张不同聚焦中心的多焦距图像。

8.一种电子设备,其特征在于,包括:

一个或多个处理器;

存储装置,用于存储一个或多个程序;

当一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求6‑7中任一所述的图像融合方法。

9.一种计算机可读介质,其上存储有计算机程序,其特征在于:所述程序被处理器执行时实现如权利要求6‑7中任一所述的图像融合方法。

说明书 :

复眼相机多焦距图像融合模型、方法及装置

技术领域

[0001] 本发明涉及人工智能和机器视觉领域,具体涉及一种复眼相机多焦距图像融合模型、方法及装置。

背景技术

[0002] 复眼相机由多个图像采集单元组成,每个采集单元通常具有独立的相机和数字成像系统。目前,数字图像采集主要依据小孔成像原理,借助光感元件记录图像的成像。由于成像焦距的限制,整个相机系统无法获取全聚焦图像,由此造成在光感元件聚焦范围内的景物清晰,聚焦范围外的景物模糊的问题。当一台相机在拍摄时刻采用某一种焦距进行曝光,只能清晰呈现某一景深的物体,其他景深的物体将出现不同程度的离焦模糊。复眼相机具有多个相机,可以对每个相机设置不同的焦距,从而获得不同景深物体的清晰成像的若干图像。将不同焦点不同景深的多张图像在空间域或变换域上进行处理,得到全景深清晰图像,即在同一张图像上包含更丰富的信息,增强后续图像识别的效果。多焦距图像融合技术,在目标检测、目标分割、人脸识别等众多领域被广泛使用。
[0003] 现有的多焦距图像融合技术大多针对两张不同景深的图像进行融合, 并且局限于有明显景深差异的两张图像之间的融合。然而,如图1所示,自然室外环境拍摄的图像中,往往存在以下特征:近景与远景的边界线难以清晰辨别;存在显著的离焦扩散效应;存在部分区域在近焦图像和远焦图像中依然模糊。现有的众多方法中,基于决策图的方法合成图像的像素内容“选取”于多焦距图像,对依然模糊的区域无法优化,并且决策图在聚焦与离焦边界上往往不准确;现有的端到端的方法,已有的有监督方法和基于图像生成的无监督方法,都无法有效处理近焦图像和远焦图像中依然模糊的问题。因而,提出一种能有效融合自然外景多焦距图像的算法具有重要意义。

发明内容

[0004] 基于以上技术问题,本发明提出了一种端到端的基于多尺度参照感知融合的复眼相机多焦距图像融合模型、方法及装置。
[0005] 本发明所设计的复眼相机多焦距图像融合网络模型,其特殊之处在于:该网络模型包括编码器、多尺度统计融合器、解码器和图像还原器;该网络模型采用N张不同焦距的图像作为输入,每张图像单独输入编码器,利用自注意力编码输出四个尺度的特征,其中图像编码器的权重共享;多尺度统计融合器对编码器输出的N张图像的四个尺度的特征分别进行特征融合,并经过特征最大、最小、均值的统计筛选获得精化的融合特征;多尺度统计融合器的输出依次通过解码器和还原器,对四个尺度上的融合特征进行解码并重构图像;
[0006] 其中,所述多尺度统计融合器基于交叉参照感知融合模块RAF,具体为:输入两个大小为H×W×C的高维特征X、Y,计算X对Y的参照特征过程,先将X经过双层3×3的查询卷积并通过矩阵重排获得HW×C的Q矩阵QX,将Y经过双层3×3的映射卷积并通过矩阵重排获得C×HW的K矩阵KY,同时Y经过双层3×3的特征卷积并矩阵重排获得HW×C的V矩阵VY;Q矩阵与K矩阵的乘积作为注意力决策矩阵,其大小为C×C,将V矩阵与注意力决策矩阵的乘积再与输入X相加,即获得X对Y的参照特征 ;同理,Y对X的参照特征计算过程与X对Y参照特征过程同,得到Y对X的参照特征 ,将参照特征 和 同时计算通道层上的均值、最大、最小统计特征,再将三种统计特征叠加并经过1×1的卷积,最终输出H×W×C的融合参照特征;计算公式如下:
[0007] 。
[0008] 进一步地,所述编码器、解码器和图像还原器均基于自参照感知模块SR进行处理,所述自参照感知模块SR包含多层,每一层经过一个注意力决策子模块A和一个自参照特征生成子模块B,子模块A将输入为H×W×C的特征图X经过批归一化和一个输入通道为C输出通道为3C的1×1卷积,得到三等分H×W×C,再分别经过双层3×3的卷积获得Q矩阵、K矩阵和V矩阵,Q矩阵与K矩阵的乘积作为注意力决策矩阵,其大小为C×C,将V矩阵与注意力决策矩阵的乘积再与输入X相加,即获得X的自参照特征 ,子模块B将子模块A获得的 经过批归一化和一个输入通道为C输出通道为γC的1×1卷积将特征扩充为H×W×γC,并将扩充后的特征分别经过双层3×3的卷积获得两个输出,将其中一个输出经过激活函数后与另一个输出进行矩阵点乘,将结果经过一个输入通道为γC输出通道为C的1×1卷积,并与最初的输入相加,获得最终结果,维度为H×W×C。
[0009] 进一步地,所述编码器设置有三层特征提取器,每一层采用像素重排进行降采样,将降采样后的特征经过自参照感知模块SR处理,输出四个尺度的高维特征。
[0010] 进一步地,所述解码器对四层特征进行解码,每一层采用像素重排进行上采样,将输入的融合特征,经过每一层的自参照感知模块SR处理,输出为解码后的低维图像特征;
[0011] 进一步地,所述还原器利用自参照感知模块SR,将最终的融合解码特征精细化,用于离焦去模糊的高清重建。解码特征经过6层自参照感知模块重构,输入到卷集核大小为3×3步长为1填充为1的卷积,还原图像为H×W×3的RGB数据。
[0012] 基于同一发明构思,本方案还设计了一种利用所述复眼相机多焦距图像融合模型进行图像融合的方法,其特特殊之处在于,包括以下步骤:
[0013] 构建仿真多焦距图像数据集,所述数据集中每一个样本包含一张具有景深差异特征的原始图像与K张不同离焦模糊的仿真图像;
[0014] 利用所构建的数据集对所述复眼相机多焦距图像融合模型进行训练,以K张不同离焦模糊图作为模型输入,以原始图像作为真值,训练模型学习自动融合聚焦特征并还原清晰图像的能力;
[0015] 利用训练好的复眼相机多焦距图像融合模型进行多焦距图像融合的测试。
[0016] 进一步地,构建仿真多焦距图像数据集的具体过程如下:
[0017] S2‑1,选取N张具有显著景深差异特征的图像作为原始图像,并对其进行深度估计和边缘提取;
[0018] S2‑2,将深度数据和边缘数据量化为(x,y,depth,edge)的四维元组整列,按照聚簇数K的层次聚类算法,找到聚类中心作为K个多焦距图像的聚焦中心;
[0019] S2‑3,根据聚焦中心的深度值与图像上任一像素点之间的深度差值,决定图像上该点的高斯模糊核半径,并对该点处进行高斯模糊,从而分别得到K张不同聚焦中心的多焦距图像。
[0020] 进一步地,训练所述复眼相机多焦距图像融合模型过程中,一个训练样本中,从K张多焦距图像上随机选择N(N≤K)张作为网络的输入,这使得网络模型学习到融合多焦距图像的基本特性并具有离焦去模糊的特性。
[0021] 基于同一发明构思,本发明还设计了一种电子设备,包括:
[0022] 一个或多个处理器;
[0023] 存储装置,用于存储一个或多个程序;
[0024] 当一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现所述的复眼相机多焦距图像融合方法。
[0025] 基于同一发明构思,本发明还设计了一种计算机可读介质,其上存储有计算机程序,其特征在于:所述程序被处理器执行时实现所述复眼相机多焦距图像融合方法。
[0026] 本发明首先构建一种端到端的多焦距图像融合模型,以自参照感知模块SR作为模糊特征提取和特征恢复的基本单元,通过图像内的自参照实现全图特征比对。通过多层自参照提取离焦景深特征,结合自注意力与交叉注意力机制,在图像空间域上融合离焦特征,并在最后阶段采用多层自参照去模糊,从而有效的解决离焦扩散效应与离焦边界线不清晰的问题,并在一定程度上对近焦图像和远焦图像中依然模糊的区域做离焦去模糊,综合而言取得最佳融合效果。
[0027] 本发明的深度数据和边缘数据量化为(x,y,depth,edge)的四维元组整列,按照聚簇数K的层次聚类算法,找到聚类中心作为k个多焦距图像的聚焦中心。传统的深度估计未充分考虑物体边缘,容易造成边缘模糊,而本发明在不同离焦区域划分时,结合边缘信息进行处理,可以实现具有边缘敏感性的物体分割,可实现更准确的离焦区域划分。
[0028] 本发明的优点:
[0029] 首先,针对自然外景多焦距图像的特点,本发明创新性地结合多尺度交叉感知融合模块RAF,在离焦模糊度的鉴别上同时考量了同一图像空间域之间的对比特征和不同离焦图像之间的对比特征,从而更加有效提取离焦图像景深模糊特征并融合特征,对于边界模糊的多焦距图像能更好的融合。其次,图像中的离焦模糊和聚焦清晰,在信息熵上所表示的,是相对的信息量少熵值小与信息量大熵值高,因而在高维特征统计中,往往是统计量最值上涵盖了融合所需的信息。本发明创新性的构造了特征统计的最大、最小、均值融合模块,能从图像高维特征统计量上提取离焦对比度最值,从而保留融合所需的聚焦特征,使得最终融合图像具有最清晰效果。
[0030] 最后,采用多尺度方式融合,是图像处理中常用到的方式,通过在特征表征过程中减小图像尺度并增加特征通道数,能够更深层次的提取高维度的离焦特征,使得离焦模糊的边界判断更准确。
[0031] 对比而言,现有的大多数多焦距图像融合方法,大多基于卷积或者部分注意力机制的构思,缺少了图像之间与图像内部的完全的特征比对,从而在处理边界模糊、离焦扩散等现象中没有本方法效果好。
[0032] 与现有技术相比,本方案离焦模糊的图像边界辨别清晰;公共的模糊区域上,本方法在一定程度上去模糊效果明显优于现有方法,综合视觉效果最佳。

附图说明

[0033] 图1是多焦距图像融合网络模型总体结构。
[0034] 图2是网络中采用的自参照感知模块SR内部结构。
[0035] 图3是结合交叉感知融合的多尺度统计融合器内部结构。

具体实施方式

[0036] 本发明提供的方法设计了一种新型的注意力机制的编解码架构的深度学习网络模型,其总体结构参见图1。一种利用复眼相机多焦距图像融合模型进行图像融合的方法,实施包含以下步骤:
[0037] 步骤S1,构建如图1所示的网络模型,具体步骤如下:
[0038] 步骤S1‑1,构建基于自参照的多尺度编码器:设置三层特征提取器,每一层采用像素重排PixelShuffle进行降采样,将降采样后的特征经过自参照感知模块SR处理,输出四个尺度的高维特征。利用自参照的多尺度编码器对输入的RGB的3通道图像,首先采用卷集核大小为3×3步长为1的卷积进行特征的高维表示,通道数扩充到C,此处C为32,并作为原始尺度的特征输出;随后采用PixelShuffle进行降采样,使得特征尺度减半通道数翻倍,经过一个自参照感知模块SR编码,并输出降尺度特征;此步骤重复两次,最终获得四个尺度的编码。图2所示为本方案采用的自参照感知模块SR结构:模块SR内包含多层,每一层经过一个注意力决策子模块A和一个自参照特征生成子模块B。子模块A将输入为H×W×C的特征图X经过批归一化和一个输入通道为C输出通道为3C的1×1卷积,得到三等分H×W×C,再分别经过双层3×3的卷积获得Q矩阵、K矩阵和V矩阵,Q矩阵与K矩阵的乘积作为注意力决策矩阵,其大小为C×C,将V矩阵与注意力决策矩阵的乘积再与输入X相加,即获得X的自参照特征 。子模块B将子模块A获得的 经过批归一化和一个输入通道为C输出通道为γC的1×1卷积将特征扩充为H×W×γC,并将扩充后的特征分别经过双层3×3的卷积获得两个输出,将其中一个输出经过激活函数后与另一个输出进行矩阵点乘,将结果经过一个输入通道为γC输出通道为C的1×1卷积,并与最初的输入相加,获得最终结果,维度为H×W×C。
[0039] 步骤S1‑2,构建基于交叉感知的多尺度统计融合器,对四层特征进行融合,每一层采用交叉感知,再经过特征最大、最小、均值的综合统计,将输入的多个尺度高维特征融合为一个尺度融合特征。
[0040] 图3所示为本方案中基于交叉感知融合模块RAF的统计融合器模型结构:输入两个大小为H×W×C的高维特征X、Y,计算X对Y的参照特征过程,先将X经过双层3×3的查询卷积并通过矩阵重排获得HW×C的Q矩阵QX,将Y经过双层3×3的映射卷积并通过矩阵重排获得C×HW的K矩阵KY,同时Y经过双层3×3的特征卷积并通过矩阵重排获得HW×C的V矩阵VY。Q矩阵与K矩阵的乘积作为注意力决策矩阵,其大小为C×C,将V矩阵与注意力决策矩阵的乘积再与输入X相加,即获得X对Y的参照特征 ;同理,Y对X的参照特征计算过程与X对Y参照特征过程同,得到Y对X的参照特征。特征最大、最小、均值的综合统计是将参照特征 和同时计算通道层上的均值、最大、最小统计特征,再将三种统计特征叠加并经过1×1的卷积,最终输出H×W×C的融合参照特征。计算公式如下:
[0041]
[0042] 当待融合的特征为N个时,对N个高纬特征编号为N1、N2...Nn,依次对N1和N2按照上述步骤融合,将其融合结果再与N3融合,以此类推,最终将融合结果与Nn融合,从而将N个高维特征融合为一个融合特征。
[0043] 步骤S1‑3,构建基于自参照感知的多尺度解码器,对四层特征进行解码,每一层采用像素重排进行上采样,将输入的融合特征,经过每一层的自参照感知模块SR处理,输出为解码后的低维图像特征。在1/8的尺度上,将输入的融合特征经过2层自参照模块,由PixelUnShuffle进行上采样,将数据尺度翻倍通道数减半,将结果与1/4的尺度上输入的融合特征在通道上合并得到8C通道,经过卷积核大小为1×1的卷积后,由8C通道合并到4C通道。在1/4的尺度上,将输入的融合特征经过2层自参照模块,由PixelUnShuffle进行上采样,将数据尺度翻倍通道数减半,将结果与1/2的尺度上输入的融合特征在通道上合并得到8C通道,经过卷积核大小为1×1的卷积后,由4C通道合并到2C通道。在1/2的尺度上,将输入的融合特征经过4层自参照模块,由PixelUnShuffle进行上采样,将数据尺度翻倍通道数减半,将结果与H×W×C尺度上输入的融合特征相加。
[0044] 步骤S1‑4,构建基于自参照感知的图像还原器,利用自参照感知模块SR,将最终的融合解码特征精细化,用于离焦去模糊的高清重建。解码特征经过6层自参照感知模块重构,输入到卷集核大小为3×3步长为1填充为1的卷积,还原图像为H×W×3的RGB数据。
[0045] 步骤S2. 构建仿真多焦距图像数据集,数据集的构建如下:
[0046] 步骤S2‑1,选取N张具有显著景深差异特征的图像作为原始图像,并对其进行单图像深度估计,为了实现更准确的深度估计效果,分别对室外图像和室内图像采用对应的深度估计模型。N大于500。本方法实施过程采用Monocular Depth Prediction提供的算法进行深度估计。其中室内图像采用mono_640×192模型,室外图像采用stereo_1024×320模型;采用Sobel算子对图像进行边缘梯度提取,算子模板大小为3×3;
[0047] 步骤S2‑2,将深度数据和边缘数据量化为(x,y,depth,edge)的四维元组整列,其中x、y代表像素点的位置偏移,depth代表像素点的深度值,edge代表边缘梯度值,按照聚簇数K为3的weighted‑kmeans聚类算法,找到聚类中心作为三个多焦距图像的聚焦中心。为同时考虑像素深度信息与像素位置上的关系,聚类维度划分为像素点深度值、像素点x偏移、像素点y偏移和边缘梯度并固定权重配比,在三个维度上的权重配比为7:1:1:1。最终的结果是将深度图在空间上分层,并将获得三个分类聚簇和三个聚类中心
[0048] 步骤S2‑3,根据聚焦中心的深度值与图像上任一像素点之间的深度差值,决定图像上该点的高斯模糊核,并对该点处进行高斯模糊,从而分别得到三张不同聚焦中心的多焦距图像。计算仿真高斯模糊核的过程,主要根据聚焦中心的深度与离焦区域的深度差决定。离焦扩散函数(PSF)由模拟深度估计确定,计算如下:
[0049]
[0050] 其中Di、Dj获得分别表示两个深度聚类中心的深度值,x,y表示图像像素点坐标。由于采用步骤S2‑1中的算法估计的深度,是以范围(0,1)浮点数表示,采用αβ作为适配参数,其中α取值5.5,β取值30。对清晰原图做三次高斯层次模糊,每次层次模糊采取分割区独立高斯核滤波的方式。整体算法流程如下:
[0051]
[0052] 其中F表示步骤S2‑1中的清晰图像,M表示使用深度估计后聚类获得的掩膜图,N表示需要生成的多焦距图像数量,此处K设为3。Mj表示掩膜图上深度聚类第j类深度区域,FMi表示深度聚类第j类深度区域对应到原始图像上的区域,IMj表示图像I在深度聚类第j类深度区域对应的区域生成的离焦模糊图。当i=j时表示聚焦中心与当前深度一致,则图像显示为清晰,否则,IMj像素内容由原始图像根据离焦扩散Hij做高斯滤波,最终生成的图像I由各个深度聚类区域的离焦模糊图并联联合。其中Z表示均值为0方差为0.0001的随机高斯噪声,以便更真实的模拟拍摄模糊噪声。算法完成后,最终返回构建好的N张多焦距图像。
[0053] 步骤S3,利用S2构建的数据集对步骤S1构建的网络模型进行训练。从K张多焦距图像中随机选取N张不同离焦模糊图作为模型输入,N<=K,模型的输出为预测的融合全聚焦图像,标签为给定的原始图像。定义模型的损失函数分为结构相似性损失SSIM Loss与均方误差损失MSE Loss。损失函数公式如下,其中α是平衡MSE损失与结构相似性损失的重要系数。
[0054]
[0055] 训练过程根据参考系数评估来调参。主要根据每一轮迭代训练后损失下降,并用这一轮训练的模型在步骤2构建的数据集上验证相关系数。主要参考系数包含两个指标:结构相似性系数SSIM和峰值信噪比PSNR。计算步骤如下公式:
[0056]
[0057] 其中MSE计算了生成融合图像与原始图像之间的像素均方误差,公式中i、j表示像素点的横纵坐标,m、n表示了图像宽度和高度像素值,I、K表示了原始图像与融合后的图像。PSNR在均方误差的基础上做了对数计算,值越大说明图像质量越好,通常接近40就基本与原图接近,公式中MAXI表示像素颜色值的最大值。SSIM是结构相似性系数,评估了生成图像与原图像之间的内容相似度,数值范围在0~1,约接近1说明与原图约接近。其中参数[0058] μμx y分别代表x,y的平均值, 和 分别代表x,y的方差, 代表x和y的协方差。而c1c2c3分别为常数,避免分母为0带来的系统错误。
[0059] 步骤S4,利用S3训练好的网络模型进行多焦距图像融合的测试:利用复眼相机采集K张不同焦距的图像,利用SIFT算法对采集图像进行配准,得到配准后的K张多焦距图像,将配准后的K张图像输入模型,输出为融合图像。
[0060] 本文中所描述的具体实施例仅仅是对本发明精神作举例说明。本发明所属技术领域的技术人员可以对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,但并不会偏离本发明的精神或者超越所附权利要求书所定义的范围。