一种单目深度估计方法及其装置、设备和存储介质转让专利

申请号 : CN201810496541.6

文献号 : CN108961327B

文献日 :

基本信息:

PDF:

法律信息:

相似专利:

发明人 : 郭晓阳李鸿升伊帅任思捷王晓刚

申请人 : 深圳市商汤科技有限公司

摘要 :

本发明实施例公开了一种单目深度估计方法,该方法包括:获取待处理图像;将所述待处理图像输入至经过训练得到的单目深度估计网络模型,得到所述待处理图像的分析结果,其中,所述单目深度估计网络模型是通过第一双目匹配神经网络模型输出的视差图进行监督训练的;输出所述待处理图像的分析结果。本发明实施例同时还公开了一种单目深度估计装置、设备和存储介质。

权利要求 :

1.一种单目深度估计方法,其特征在于,所述方法包括:获取待处理图像;

将所述待处理图像输入至经过训练得到的单目深度估计网络模型,得到所述待处理图像的分析结果,其中,所述单目深度估计网络模型是通过第一双目匹配神经网络模型输出的视差图进行监督训练的;所述第一双目匹配神经网络模型是通过根据获取的合成样本数据训练第二双目匹配神经网络模型,并根据获取的真实样本数据对训练后的第二双目匹配神经网络模型的参数进行调整得到的;

输出所述待处理图像的分析结果。

2.根据权利要求1所述的方法,其特征在于,所述方法还包括:获取有深度标记的合成的双目图片作为所述合成样本数据,其中,所述合成的双目图片包括合成的左图和合成的右图。

3.根据权利要求2所述的方法,其特征在于,所述根据获取的合成样本数据训练第二双目匹配神经网络模型,包括:

根据所述合成的双目图片对第二双目匹配神经网络模型进行训练,得到训练后的第二双目匹配神经网络模型,其中,所述训练后的第二双目匹配神经网络模型的输出为视差图和遮挡图,所述视差图描述了所述左图中每个像素点与所述右图中对应的像素点的视差距离,所述视差距离以像素为单位;所述遮挡图描述了所述左图中每个像素点在所述右图中对应的像素点是否被物体遮挡。

4.根据权利要求1所述的方法,其特征在于,所述根据获取的真实样本数据对训练后的第二双目匹配神经网络模型的参数进行调整,得到第一双目匹配神经网络模型,包括:根据获取的带深度标记的真实双目数据对训练后的第二双目匹配神经网络模型进行监督训练,以调整所述训练后的第二双目匹配神经网络模型的权值,得到第一双目匹配神经网络模型。

5.根据权利要求1所述的方法,其特征在于,所述根据获取的真实样本数据对训练后的第二双目匹配神经网络模型的参数进行调整,得到第一双目匹配神经网络模型,还包括:根据获取的不带深度标记的真实双目数据对训练后的第二双目匹配神经网络模型进行无监督训练,以调整所述训练后的第二双目匹配神经网络模型的权值,得到第一双目匹配神经网络模型。

6.根据权利要求5所述的方法,其特征在于,所述根据获取的不带深度标记的真实双目数据对训练后的第二双目匹配神经网络模型进行无监督训练,以调整所述训练后的第二双目匹配神经网络模型的权值,得到第一双目匹配神经网络模型,包括:使用损失函数,根据所述不带深度标记的真实双目数据对训练后的第二双目匹配神经网络模型进行无监督训练,以调整所述训练后的第二双目匹配神经网络模型的权值,得到第一双目匹配神经网络模型。

7.根据权利要求6所述的方法,其特征在于,所述方法还包括:利用公式Lstereo-unsupft=Lphoto+γ1Labs+γ2Lrel确定所述损失函数,其中,所述Lstereo-unsupft表示损失函数,所述Lphoto表示重建误差,所述Labs表示所述第一双目匹配网络模型输出的视差图与所述训练后的第二双目匹配网络模型输出的视差图相比偏离较小,所述Lrel表示约束所述第一双目匹配网络模型的输出梯度与所述训练后的第二双目匹配网络模型的输出梯度一致,所述γ1和γ2表示强度系数。

8.根据权利要求7所述的方法,其特征在于,所述方法还包括:利用公式 或,

确定所述重建误差,其中,所述N表示图片中像素的个数,所述 表示所述训练后的第二双目匹配网络模型输出的遮挡图的像素值,所述 表示不带深度标记的真实双目数据中的左图的像素值,所述 表示不带深度标记的真实双目数据中的右图的像素值,所述 表示将右图采样后合成的图片的像素值,所述 表示将左图采样后合成的图片的像素值,所述 表示不带深度标记的真实双目数据中的左图经第一双目匹配网络模型输出的视差图的像素值,所述 表示不带深度标记的真实双目数据中的右图经第一双目匹配网络模型输出的视差图的像素值,所述ij表示像素点的像素坐标。

9.根据权利要求7所述的方法,其特征在于,所述方法还包括:利用公式 或,

确定所述第一双目匹配网络模型输出的视差图与所述训练后的第二双目匹配网络模型输出的视差图相比偏离较小,其中,所述N表示图片中像素的个数,所述 表示所述训练后的第二双目匹配网络模型输出的遮挡图的像素值,所述 表示不带深度标记的真实双目数据中的左图经第一双目匹配网络模型输出的视差图的像素值,所述 表示不带深度标记的真实双目数据中的右图经第一双目匹配网络模型输出的视差图的像素值,所述 表示左图经训练后的第二双目匹配网络模型输出的视差图的像素值,所述 表示右图经训练后的第二双目匹配网络模型输出的视差图的像素值,所述ij表示像素点的像素坐标,所述γ3表示强度系数。

10.根据权利要求7所述的方法,其特征在于,所述方法还包括:利用公式 或, 确定所述第一双目匹配网络模型的输出梯度与所述第二双目匹配网络模型的输出梯度一致,其中,所述N表示图片中像素的个数,所述 表示不带深度标记的真实双目数据中的左图经第一双目匹配网络模型输出的视差图的梯度,所述 表示不带深度标记的真实双目数据中的右图经第一双目匹配网络模型输出的视差图的梯度,所述 表示左图经训练后的第二双目匹配网络模型输出的视差图的梯度,所述 表示右图经训练后的第二双目匹配网络模型输出的视差图的梯度,所述ij表示像素点的像素坐标。

11.根据权利要求4所述的方法,其特征在于,所述带深度标记的真实双目数据包括左图和右图,对应地,所述单目深度估计网络模型的训练过程,包括:获取所述带深度标记的真实双目数据中的左图或右图作为训练样本;

根据所述带深度标记的真实双目数据中的左图或右图对单目深度估计网络模型进行训练。

12.根据权利要求5至10任一项所述的方法,其特征在于,所述不带深度标记的真实双目数据包括左图和右图,对应地,所述单目深度估计网络模型的训练过程,包括:将所述不带深度标记的真实双目数据输入到所述第一双目匹配神经网络模型,得到对应的视差图;

根据所述对应的视差图、拍摄所述不带深度标记的真实双目数据的摄像机的镜头基线距离和拍摄所述不带深度标记的真实双目数据的摄像机的镜头焦距,确定所述视差图对应的深度图;

将所述不带深度标记的真实双目数据中的左图或右图作为样本数据,根据所述视差图对应的深度图对单目深度估计网络模型进行监督,从而训练所述单目深度估计网络模型。

13.根据权利要求12所述的方法,其特征在于,所述待处理图像的分析结果包括所述单目深度估计网络模型输出的视差图,对应地,所述方法还包括:根据所述单目深度估计网络模型输出的视差图、拍摄输入所述单目深度估计网络模型的图片的摄像机的镜头基线距离和拍摄输入所述单目深度估计网络模型的图片的摄像机的镜头焦距,确定所述视差图对应的深度图;

输出所述视差图对应的深度图。

14.一种单目深度估计装置,其特征在于,所述装置包括:获取模块、执行模块和输出模块,其中:

所述获取模块,用于获取待处理图像;

所述执行模块,用于将所述待处理图像输入至经过训练得到的单目深度估计网络模型,得到所述待处理图像的分析结果,其中,所述单目深度估计网络模型是通过第一双目匹配神经网络模型输出的视差图进行监督训练的;

第一训练模块,用于根据获取的合成样本数据训练第二双目匹配神经网络模型;

第二训练模块,用于根据获取的真实样本数据对训练后的第二双目匹配神经网络模型的参数进行调整,得到第一双目匹配神经网络模型;

所述输出模块,用于输出所述待处理图像的分析结果。

15.根据权利要求14所述的装置,其特征在于,所述装置还包括:第一获取模块,用于获取有深度标记的合成的双目图片作为所述合成样本数据,其中,所述合成的双目图片包括合成的左图和合成的右图。

16.根据权利要求15所述的装置,其特征在于,所述第一训练模块,包括:第一训练单元,用于根据所述合成的双目图片对第二双目匹配神经网络模型进行训练,得到训练后的第二双目匹配神经网络模型,其中,所述训练后的第二双目匹配神经网络模型的输出为视差图和遮挡图,所述视差图描述了所述左图中每个像素点与所述右图中对应的像素点的视差距离,所述视差距离以像素为单位;所述遮挡图描述了所述左图中每个像素点在所述右图中对应的像素点是否被物体遮挡。

17.根据权利要求14所述的装置,其特征在于,所述第二训练模块,包括:第二训练单元,用于根据获取的带深度标记的真实双目数据对训练后的第二双目匹配神经网络模型进行监督训练,以调整所述训练后的第二双目匹配神经网络模型的权值,得到第一双目匹配神经网络模型。

18.根据权利要求14所述的装置,其特征在于,所述第二训练单元,还用于:根据获取的不带深度标记的真实双目数据对训练后的第二双目匹配神经网络模型进行无监督训练,以调整所述训练后的第二双目匹配神经网络模型的权值,得到第一双目匹配神经网络模型。

19.根据权利要求18所述的装置,其特征在于,所述第二训练单元,包括:第二训练部件,用于使用损失函数,根据所述不带深度标记的真实双目数据对训练后的第二双目匹配神经网络模型进行无监督训练,以调整所述训练后的第二双目匹配神经网络模型的权值,得到第一双目匹配神经网络模型。

20.根据权利要求19所述的装置,其特征在于,所述装置还包括:第一确定模块,用于利用公式Lstereo-unsupft=Lphoto+γ1Labs+γ2Lrel确定所述损失函数,其中,所述Lstereo-unsupft表示损失函数,所述Lphoto表示重建误差,所述Labs表示所述第一双目匹配网络模型输出的视差图与所述训练后的第二双目匹配网络模型输出的视差图相比偏离较小,所述Lrel表示约束所述第一双目匹配网络模型的输出梯度与所述训练后的第二双目匹配网络模型的输出梯度一致,所述γ1和γ2表示强度系数。

21.根据权利要求20所述的装置,其特征在于,所述装置还包括:第二确定模块,用于利用公式

或, 确定所述重建误差,其中,所述N表示图片中像素的个数,所述 表示所述训练后的第二双目匹配网络模型输出的遮挡图的像素值,所述 表示不带深度标记的真实双目数据中的左图的像素值,所述 表示不带深度标记的真实双目数据中的右图的像素值,所述 表示将右图采样后合成的图片的像素值,所述 表示将左图采样后合成的图片的像素值,所述 表示不带深度标记的真实双目数据中的左图经第一双目匹配网络模型输出的视差图的像素值,所述 表示不带深度标记的真实双目数据中的右图经第一双目匹配网络模型输出的视差图的像素值,所述ij表示像素点的像素坐标。

22.根据权利要求20所述的装置,其特征在于,所述装置还包括:第三确定模块,用于利用公式 或,确定所述第一双目匹配网络模型输出的视差图与所述训练后的第二双目匹配网络模型输出的视差图相比偏离较小,其中,所述N表示图片中像素的个数,所述 表示所述训练后的第二双目匹配网络模型输出的遮挡图的像素值,所述 表示不带深度标记的真实双目数据中的左图经第一双目匹配网络模型输出的视差图的像素值,所述 表示不带深度标记的真实双目数据中的右图经第一双目匹配网络模型输出的视差图的像素值,所述 表示左图经训练后的第二双目匹配网络模型输出的视差图的像素值,所述 表示右图经训练后的第二双目匹配网络模型输出的视差图的像素值,所述ij表示像素点的像素坐标,所述γ3表示强度系数。

23.根据权利要求20所述的装置,其特征在于,所述装置还包括:第四确定模块,用于利用公式 或,确定所述第一双目匹配网络模型的输出梯度与所述第二双目匹配网络模型的输出梯度一致,其中,所述N表示图片中像素的个数,所述 表示不带深度标记的真实双目数据中的左图经第一双目匹配网络模型输出的视差图的梯度,所述 表示不带深度标记的真实双目数据中的右图经第一双目匹配网络模型输出的视差图的梯度,所述 表示左图经训练后的第二双目匹配网络模型输出的视差图的梯度,所述 表示右图经训练后的第二双目匹配网络模型输出的视差图的梯度,所述ij表示像素点的像素坐标。

24.根据权利要求17所述的装置,其特征在于,所述带深度标记的真实双目数据包括左图和右图,对应地,所述装置还包括:第三训练模块,用于获取所述带深度标记的真实双目数据中的左图或右图作为训练样本;根据所述带深度标记的真实双目数据中的左图或右图对单目深度估计网络模型进行训练。

25.根据权利要求18至23任一项所述的装置,其特征在于,所述不带深度标记的真实双目数据包括左图和右图,对应地,所述装置还包括:第三训练模块,用于将所述不带深度标记的真实双目数据输入到所述第一双目匹配神经网络模型,得到对应的视差图;根据所述对应的视差图、拍摄所述不带深度标记的真实双目数据的摄像机的镜头基线距离和拍摄所述不带深度标记的真实双目数据的摄像机的镜头焦距,确定所述视差图对应的深度图;将所述不带深度标记的真实双目数据中的左图或右图作为样本数据,根据所述视差图对应的深度图对单目深度估计网络模型进行监督,从而训练所述单目深度估计网络模型。

26.根据权利要求25所述的装置,其特征在于,所述待处理图像的分析结果包括所述单目深度估计网络模型输出的视差图,对应地,所述装置还包括:第五确定模块,用于根据所述单目深度估计网络模型输出的视差图、拍摄输入所述单目深度估计网络模型的图片的摄像机的镜头基线距离和拍摄输入所述单目深度估计网络模型的图片的摄像机的镜头焦距,确定所述视差图对应的深度图;

第一输出模块,用于输出所述视差图对应的深度图。

27.一种单目深度估计设备,包括存储器和处理器,所述存储器存储有可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现权利要求1至13任一项所述单目深度估计方法中的步骤。

28.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时实现权利要求1至13任一项所述单目深度估计方法中的步骤。

说明书 :

一种单目深度估计方法及其装置、设备和存储介质

技术领域

[0001] 本发明涉及人工智能领域,尤其涉及一种单目深度估计方法及其装置、设备和存储介质。

背景技术

[0002] 单目深度估计是计算机视觉中的重要问题,单目深度估计的具体任务指的是预测一张图片中每个像素点的深度。其中,由每个像素点的深度值组成的图片又称为深度图。单
目深度估计对于自动驾驶中的障碍物检测、三维场景重建,场景立体分析有着重要的意义。
另外单目深度估计可以间接地提高其他计算机视觉任务的性能,比如物体检测、目标跟踪
与目标识别。
[0003] 目前存在的问题是训练用于单目深度估计的神经网络需要大量标记的数据,但是获取标记数据成本很大。在室外环境下标记数据可以通过激光雷达获取,但是获取的标记
数据是非常稀疏的,用这样的标记数据训练得到的单目深度估计网络没有清晰的边缘以及
不能捕捉细小物体的正确深度信息。

发明内容

[0004] 有鉴于此,本发明实施例为解决现有技术中存在的至少一个问题而提供一种单目深度估计方法及其装置、设备和存储介质。
[0005] 本申请实施例的技术方案是这样实现的:
[0006] 本发明实施例提供一种单目深度估计方法,所述方法包括:
[0007] 获取待处理图像;
[0008] 将所述待处理图像输入至经过训练得到的单目深度估计网络模型,得到所述待处理图像的分析结果,其中,所述单目深度估计网络模型是通过第一双目匹配神经网络模型
输出的视差图进行监督训练的;
[0009] 输出所述待处理图像的分析结果。
[0010] 在本发明实施例中,所述第一双目匹配神经网络模型的训练过程,包括:
[0011] 根据获取的合成样本数据训练第二双目匹配神经网络模型;
[0012] 根据获取的真实样本数据对训练后的第二双目匹配神经网络模型的参数进行调整,得到第一双目匹配神经网络模型。
[0013] 在本发明实施例中,所述方法还包括:
[0014] 获取有深度标记的合成的双目图片作为所述合成样本数据,其中,所述合成的双目图片包括合成的左图和合成的右图。
[0015] 在本发明实施例中,所述根据获取的合成样本数据训练第二双目匹配神经网络模型,包括:
[0016] 根据所述合成的双目图片对第二双目匹配神经网络模型进行训练,得到训练后的第二双目匹配神经网络模型,其中,所述训练后的第二双目匹配神经网络模型的输出为视
差图和遮挡图,所述视差图描述了所述左图中每个像素点与所述右图中对应的像素点的视
差距离,所述视差距离以像素为单位;所述遮挡图描述了所述左图中每个像素点在所述右
图中对应的像素点是否被物体遮挡。
[0017] 在本发明实施例中,所述根据获取的真实样本数据对训练后的第二双目匹配神经网络模型的参数进行调整,得到第一双目匹配神经网络模型,包括:
[0018] 根据获取的带深度标记的真实双目数据对训练后的第二双目匹配神经网络模型进行监督训练,以调整所述训练后的第二双目匹配神经网络模型的权值,得到第一双目匹
配神经网络模型。
[0019] 在本发明实施例中,所述根据获取的真实样本数据对训练后的第二双目匹配神经网络模型的参数进行调整,得到第一双目匹配神经网络模型,还包括:
[0020] 根据获取的不带深度标记的真实双目数据对训练后的第二双目匹配神经网络模型进行无监督训练,以调整所述训练后的第二双目匹配神经网络模型的权值,得到第一双
目匹配神经网络模型。
[0021] 在本发明实施例中,所述根据获取的不带深度标记的真实双目数据对训练后的第二双目匹配神经网络模型进行无监督训练,以调整所述训练后的第二双目匹配神经网络模
型的权值,得到第一双目匹配神经网络模型,包括:
[0022] 使用损失函数,根据所述不带深度标记的真实双目数据对训练后的第二双目匹配神经网络模型进行无监督训练,以调整所述训练后的第二双目匹配神经网络模型的权值,
得到第一双目匹配神经网络模型。
[0023] 在本发明实施例中,所述方法还包括:
[0024] 利用公式Lstereo-unsupft=Lphoto+γ1Labs+γ2Lrel确定所述损失函数,其中,所述Lstereo-unsupft表示损失函数,所述Lphoto表示重建误差,所述Labs表示所述第一双目匹配网络
模型输出的视差图与所述训练后的第二双目匹配网络模型输出的视差图相比偏离较小,所
述Lrel表示约束所述第一双目匹配网络模型的输出梯度与所述训练后的第二双目匹配网络
模型的输出梯度一致,所述γ1和γ2表示强度系数。
[0025] 在本发明实施例中,所述方法还包括:
[0026] 利用公式 或,确定所述重建误差,其中,所述N表示
图片中像素的个数,所述 表示所述训练后的第二双目匹配网络模型输出的遮挡图的
像素值,所述 表示不带深度标记的真实双目数据中的左图的像素值,所述 表示不带深
度标记的真实双目数据中的右图的像素值,所述 表示将右图采样后合成的图片的像素
值,所述 表示将左图采样后合成的图片的像素值,所述 表示不带深度标记的真实双目
数据中的左图经第一双目匹配网络模型输出的视差图的像素值,所述 表示不带深度标
记的真实双目数据中的右图经第一双目匹配网络模型输出的视差图的像素值,所述ij表示
像素点的像素坐标。
[0027] 在本发明实施例中,所述方法还包括:
[0028] 利用公式 或,确定所述第一双目匹配网络模型输出的视差图与所
述训练后的第二双目匹配网络模型输出的视差图相比偏离较小,其中,所述N表示图片中像
素的个数,所述 表示所述训练后的第二双目匹配网络模型输出的遮挡图的像素值,所
述 表示不带深度标记的真实双目数据中的左图经第一双目匹配网络模型输出的视差图
的像素值,所述 表示不带深度标记的真实双目数据中的右图经第一双目匹配网络模型
输出的视差图的像素值,所述 表示左图经训练后的第二双目匹配网络模型输出的视
差图的像素值,所述 表示右图经训练后的第二双目匹配网络模型输出的视差图的像
素值,所述ij表示像素点的像素坐标,所述γ3表示强度系数。
[0029] 在本发明实施例中,所述方法还包括:
[0030] 利用公式 或, 确定所述第一双目匹配网络模型的输出梯度与所述第二双目匹配网络模型的输出梯度一致,其中,所述N
表示图片中像素的个数,所述 表示不带深度标记的真实双目数据中的左图经第一双目
匹配网络模型输出的视差图的梯度,所述 表示不带深度标记的真实双目数据中的右图
经第一双目匹配网络模型输出的视差图的梯度,所述 表示左图经训练后的第二双目
匹配网络模型输出的视差图的梯度,所述 表示右图经训练后的第二双目匹配网络模
型输出的视差图的梯度,所述ij表示像素点的像素坐标。
[0031] 在本发明实施例中,所述带深度标记的真实双目数据包括左图和右图,对应地,所述单目深度估计网络模型的训练过程,包括:
[0032] 获取所述带深度标记的真实双目数据中的左图或右图作为训练样本;
[0033] 根据所述带深度标记的真实双目数据中的左图或右图对单目深度估计网络模型进行训练。
[0034] 在本发明实施例中,所述不带深度标记的真实双目数据包括左图和右图,对应地,所述单目深度估计网络模型的训练过程,包括:
[0035] 将所述不带深度标记的真实双目数据输入到所述第一双目匹配神经网络模型,得到对应的视差图;
[0036] 根据所述对应的视差图、拍摄所述不带深度标记的真实双目数据的摄像机的镜头基线距离和拍摄所述不带深度标记的真实双目数据的摄像机的镜头焦距,确定所述视差图
对应的深度图;
[0037] 将所述不带深度标记的真实双目数据中的左图或右图作为样本数据,根据所述视差图对应的深度图对单目深度估计网络模型进行监督,从而训练所述单目深度估计网络模
型。
[0038] 在本发明实施例中,所述待处理图像的分析结果包括所述单目深度估计网络模型输出的视差图,对应地,所述方法还包括:
[0039] 根据所述单目深度估计网络模型输出的视差图、拍摄输入所述单目深度估计网络模型的图片的摄像机的镜头基线距离和拍摄输入所述单目深度估计网络模型的图片的摄
像机的镜头焦距,确定所述视差图对应的深度图;
[0040] 输出所述视差图对应的深度图。
[0041] 本发明实施例提供一种单目深度估计装置,所述装置包括:获取模块、执行模块和输出模块,其中:
[0042] 所述获取模块,用于获取待处理图像;
[0043] 所述执行模块,用于将所述待处理图像输入至经过训练得到的单目深度估计网络模型,得到所述待处理图像的分析结果,其中,所述单目深度估计网络模型是通过第一双目
匹配神经网络模型输出的视差图进行监督训练的;
[0044] 所述输出模块,用于输出所述待处理图像的分析结果。
[0045] 在本发明实施例中,所述装置还包括:
[0046] 第一训练模块,用于根据获取的合成样本数据训练第二双目匹配神经网络模型;
[0047] 第二训练模块,用于根据获取的真实样本数据对训练后的第二双目匹配神经网络模型的参数进行调整,得到第一双目匹配神经网络模型。
[0048] 在本发明实施例中,所述装置还包括:
[0049] 第一获取模块,用于获取有深度标记的合成的双目图片作为所述合成样本数据,其中,所述合成的双目图片包括合成的左图和合成的右图。
[0050] 在本发明实施例中,所述第一训练模块,包括:
[0051] 第一训练单元,用于根据所述合成的双目图片对第二双目匹配神经网络模型进行训练,得到训练后的第二双目匹配神经网络模型,其中,所述训练后的第二双目匹配神经网
络模型的输出为视差图和遮挡图,所述视差图描述了所述左图中每个像素点与所述右图中
对应的像素点的视差距离,所述视差距离以像素为单位;所述遮挡图描述了所述左图中每
个像素点在所述右图中对应的像素点是否被物体遮挡。
[0052] 在本发明实施例中,所述第二训练模块,包括:
[0053] 第二训练单元,用于根据获取的带深度标记的真实双目数据对训练后的第二双目匹配神经网络模型进行监督训练,以调整所述训练后的第二双目匹配神经网络模型的权
值,得到第一双目匹配神经网络模型。
[0054] 在本发明实施例中,所述第二训练单元,还用于:
[0055] 根据获取的不带深度标记的真实双目数据对训练后的第二双目匹配神经网络模型进行无监督训练,以调整所述训练后的第二双目匹配神经网络模型的权值,得到第一双
目匹配神经网络模型。
[0056] 在本发明实施例中,所述第二训练单元,包括:
[0057] 第二训练部件,用于使用损失函数,根据所述不带深度标记的真实双目数据对训练后的第二双目匹配神经网络模型进行无监督训练,以调整所述训练后的第二双目匹配神
经网络模型的权值,得到第一双目匹配神经网络模型。
[0058] 在本发明实施例中,所述装置还包括:
[0059] 第一确定模块,用于利用公式Lstereo-unsupft=Lphoto+γ1Labs+γ2Lrel确定所述损失函数,其中,所述Lstereo-unsupft表示损失函数,所述Lphoto表示重建误差,所述Labs表示所述第一
双目匹配网络模型输出的视差图与所述训练后的第二双目匹配网络模型输出的视差图相
比偏离较小,所述Lrel表示约束所述第一双目匹配网络模型的输出梯度与所述训练后的第
二双目匹配网络模型的输出梯度一致,所述γ1和γ2表示强度系数。
[0060] 在本发明实施例中,所述装置还包括:
[0061] 第二确定模块,用于利用公式或, 确定所述重建误差,其中,所述N
表示图片中像素的个数,所述 表示所述训练后的第二双目匹配网络模型输出的遮挡
图的像素值,所述 表示不带深度标记的真实双目数据中的左图的像素值,所述 表示不
带深度标记的真实双目数据中的右图的像素值,所述 表示将右图采样后合成的图片的
像素值,所述 表示将左图采样后合成的图片的像素值,所述 表示不带深度标记的真实
双目数据中的左图经第一双目匹配网络模型输出的视差图的像素值,所述 表示不带深
度标记的真实双目数据中的右图经第一双目匹配网络模型输出的视差图的像素值,所述ij
表示像素点的像素坐标。
[0062] 在本发明实施例中,所述装置还包括:
[0063] 第三确定模块,用于利用公式 或,确定所述第一双目匹配网络模型输出的视差图与所
述训练后的第二双目匹配网络模型输出的视差图相比偏离较小,其中,所述N表示图片中像
素的个数,所述 表示所述训练后的第二双目匹配网络模型输出的遮挡图的像素值,
所述 表示不带深度标记的真实双目数据中的左图经第一双目匹配网络模型输出的视差
图的像素值,所述 表示不带深度标记的真实双目数据中的右图经第一双目匹配网络模型
输出的视差图的像素值,所述 表示左图经训练后的第二双目匹配网络模型输出的视
差图的像素值,所述 表示右图经训练后的第二双目匹配网络模型输出的视差图的像
素值,所述ij表示像素点的像素坐标,所述γ3表示强度系数。
[0064] 在本发明实施例中,所述装置还包括:
[0065] 第四确定模块,用于利用公式 或,确定所述第一双目匹配网络模型的输出梯度与所述第二双目匹
配网络模型的输出梯度一致,其中,所述N表示图片中像素的个数,所述 表示不带深度
标记的真实双目数据中的左图经第一双目匹配网络模型输出的视差图的梯度,所述 表
示不带深度标记的真实双目数据中的右图经第一双目匹配网络模型输出的视差图的梯度,
所述 表示左图经训练后的第二双目匹配网络模型输出的视差图的梯度,所述
表示右图经训练后的第二双目匹配网络模型输出的视差图的梯度,所述ij表示像素
点的像素坐标。
[0066] 在本发明实施例中,所述带深度标记的真实双目数据包括左图和右图,对应地,所述装置还包括:
[0067] 第三训练模块,用于获取所述带深度标记的真实双目数据中的左图或右图作为训练样本;根据所述带深度标记的真实双目数据中的左图或右图对单目深度估计网络模型进
行训练。
[0068] 在本发明实施例中,所述不带深度标记的真实双目数据包括左图和右图,对应地,所述装置还包括:
[0069] 第三训练模块,用于将所述不带深度标记的真实双目数据输入到所述第一双目匹配神经网络模型,得到对应的视差图;根据所述对应的视差图、拍摄所述不带深度标记的真
实双目数据的摄像机的镜头基线距离和拍摄所述不带深度标记的真实双目数据的摄像机
的镜头焦距,确定所述视差图对应的深度图;将所述不带深度标记的真实双目数据中的左
图或右图作为样本数据,根据所述视差图对应的深度图对单目深度估计网络模型进行监
督,从而训练所述单目深度估计网络模型。
[0070] 在本发明实施例中,所述待处理图像的分析结果包括所述单目深度估计网络模型输出的视差图,对应地,所述装置还包括:
[0071] 第五确定模块,用于根据所述单目深度估计网络模型输出的视差图、拍摄输入所述单目深度估计网络模型的图片的摄像机的镜头基线距离和拍摄输入所述单目深度估计
网络模型的图片的摄像机的镜头焦距,确定所述视差图对应的深度图;
[0072] 第一输出模块,用于输出所述视差图对应的深度图。
[0073] 本发明实施例提供一种单目深度估计设备,包括存储器和处理器,所述存储器存储有可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如上
所述单目深度估计方法中的步骤。
[0074] 本发明实施例提供一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时实现如上所述单目深度估计方法中的步骤。
[0075] 本发明实施例提供一种单目深度估计方法及其装置、设备和存储介质,其中,获取待处理图像;将所述待处理图像输入至经过训练得到的单目深度估计网络模型,得到所述
待处理图像的分析结果,其中,所述单目深度估计网络模型是通过第一双目匹配神经网络
模型输出的视差图进行监督训练的;输出所述待处理图像的分析结果;如此,能够使用更少
或者不使用有深度图标记的数据训练单目深度估计网络,并且提出了一种更有效的无监督
微调双目视差网络的方法,从而间接提高了单目深度估计的效果。

附图说明

[0076] 图1A为本发明实施例单目深度估计方法的实现流程示意图一;
[0077] 图1B为本发明实施例单个图片深度估计示意图;
[0078] 图1C为本发明实施例训练第二双目匹配神经网络模型示意图;
[0079] 图1D为本发明实施例训练单目深度估计网络模型示意图;
[0080] 图1E为本发明实施例损失函数相关图片示意图;
[0081] 图2A为本发明实施例单目深度估计方法的实现流程示意图二;
[0082] 图2B为本发明实施例损失函数效果示意图;
[0083] 图2C为本发明实施例可视化深度估计结果示意图;
[0084] 图3为本发明实施例单目深度估计装置的组成结构示意图;
[0085] 图4为本发明实施例单目深度估计设备的一种硬件实体示意图。

具体实施方式

[0086] 为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对发明的具体技术方案做进一步详细描述。以下实施例用于说明本发明,但不用
来限制本发明的范围。
[0087] 在后续的描述中,使用用于表示元件的诸如“模块”、“部件”或“单元”的后缀仅为了有利于本发明的说明,其本身没有特定的意义。因此,“模块”、“部件”或“单元”可以混合
地使用。
[0088] 一般地,利用深度神经网络来预测单张图片的深度图,仅需要一张图片即可以对图片对应的场景进行三维建模,得到每个像素点的深度。本发明实施例提出的单目深度估
计方法使用神经网络训练得到,训练数据来自双目匹配输出的视差图数据,而不需要昂贵
的深度采集设备如激光雷达。提供训练数据的双目匹配算法也是通过神经网络实现,该网
络通过渲染引擎渲染的大量虚拟双目图片对进行预训练即可达到很好的效果,另外可以在
真实数据上再进行微调训练以达到更好的效果。
[0089] 下面结合附图和实施例对本发明的技术方案进一步详细阐述。
[0090] 本发明实施例提供一种单目深度估计方法,该方法应用于计算设备,该方法所实现的功能可以通过服务器中的处理器调用程序代码来实现,当然程序代码可以保存在计算
机存储介质中,可见,该服务器至少包括处理器和存储介质。图1A为本发明实施例单目深度
估计方法的实现流程示意图一,如图1A所示,该方法包括:
[0091] 步骤S101、获取待处理图像;
[0092] 这里,可以由移动终端来获取待处理图像,所述待处理图像,可以包含任意场景的图片。
[0093] 一般来说,移动终端在实施的过程中可以为各种类型的具有信息处理能力的设备,例如所述移动终端可以包括手机、个人数字助理(Personal Digital Assistant,PDA)、
导航仪、数字电话、视频电话、智能手表、智能手环、可穿戴设备、平板电脑等。服务器在实现
的过程中可以是移动终端如手机、平板电脑、笔记本电脑,固定终端如个人计算机和服务器
集群等具有信息处理能力的计算设备。
[0094] 步骤S102、将所述待处理图像输入至经过训练得到的单目深度估计网络模型,得到所述待处理图像的分析结果,其中,所述单目深度估计网络模型是通过第一双目匹配神
经网络模型输出的视差图进行监督训练的;
[0095] 本发明实施例中,所述单目深度估计网络模型主要是通过以下三个步骤获取的:第一步是使用渲染引擎渲染的合成双目数据预训练一个双目匹配神经网络;第二步是使用
真实场景的数据对第一步得到的双目匹配神经网络进行微调训练;第三步是使用第二步得
到的双目匹配神经网络对单目深度估计网络提供监督,从而训练得到单目深度估计网络。
[0096] 现有技术中,单目深度估计一般使用大量的真实标记数据进行训练,或者使用无监督的方法训练单目深度估计网络。但是,大量的真实标记数据获取成本很高,直接用无监
督的方法训练单目深度估计网络又无法处理遮挡区域的深度估计,得到的效果较差。而本
发明中所述单目深度估计网络模型的样本数据来自第一双目匹配神经网络模型输出的视
差图,也就是说,本发明利用了双目视差来指导单目深度的预测。因此,本发明中的方法无
需大量的标记数据,并且可以得到较好的训练效果。
[0097] 步骤S103、输出所述待处理图像的分析结果。
[0098] 这里,所述待处理图像的分析结果,指的是所述待处理图像对应的深度图。获取待处理图像后,将所述待处理图像输入至经过训练得到的单目深度估计网络模型,所述单目
深度估计网络模型一般输出的是所述待处理图像对应的视差图,而不是深度图;因此,还需
要根据所述单目深度估计网络模型输出的视差图、拍摄待处理图像的摄像机的镜头基线距
离和拍摄待处理图像的摄像机的镜头焦距,确定所述待处理图像对应的深度图。
[0099] 图1B为本发明实施例单个图片深度估计示意图,如图1B所示,标号为11的图片11为待处理图像,标号为12的图片12为标号为11的图片11对应的深度图。
[0100] 在实际应用中,可以将所述镜头基线距离和所述镜头焦距的乘积,与所述输出的待处理图像对应的视差图的比值,确定为所述待处理图像对应的深度图。
[0101] 在本发明实施例提供的单目深度估计方法中,通过获取待处理图像;将所述待处理图像输入至经过训练得到的单目深度估计网络模型,得到所述待处理图像的分析结果,
其中,所述单目深度估计网络模型是通过第一双目匹配神经网络模型输出的视差图进行监
督训练的;输出所述待处理图像的分析结果;如此,能够使用更少或者不使用有深度图标记
的数据训练单目深度估计网络,并且提出了一种更有效的无监督微调双目视差网络的方
法,从而间接提高了单目深度估计的效果。
[0102] 基于上述方法实施例,本发明实施例再提供一种单目深度估计方法,该方法包括:
[0103] 步骤S111、获取有深度标记的合成的双目图片作为合成样本数据,其中,所述合成的双目图片包括合成的左图和合成的右图;
[0104] 在其他实施例中,所述方法还包括:
[0105] 步骤S11、通过渲染引擎构造虚拟3D场景;
[0106] 步骤S12、通过两个虚拟的摄像机将所述3D场景映射成双目图片;
[0107] 步骤S13、根据构造所述虚拟3D场景时的位置、构造所述虚拟3D场景时的方向和所述虚拟的摄像机的镜头焦距获取所述合成双目图片的深度数据;
[0108] 步骤S14、根据所述深度数据标记所述双目图片,得到所述合成的双目图片。
[0109] 步骤S112、根据获取的合成样本数据训练第二双目匹配神经网络模型;
[0110] 这里,在实际应用中,所述步骤S112可以通过以下步骤实现:
[0111] 步骤S1121、根据所述合成的双目图片对第二双目匹配神经网络模型进行训练,得到训练后的第二双目匹配神经网络模型,其中,所述训练后的第二双目匹配神经网络模型
的输出为视差图和遮挡图,所述视差图描述了所述左图中每个像素点与所述右图中对应的
像素点的视差距离,所述视差距离以像素为单位;所述遮挡图描述了所述左图中每个像素
点在所述右图中对应的像素点是否被物体遮挡。
[0112] 图1C为本发明实施例训练第二双目匹配神经网络模型示意图,如图1C所示,标号为11的图片11为合成的双目图片的左图,标号为12的图片12为合成的双目图片的右图,IL
为标号为11的左图图片11中包含的所有像素点的像素值,IR为标号为12的右图图片12中包
含的所有像素点的像素值;标号为13的图片13为第二双目匹配神经网络模型经过训练后输
出的遮挡图,标号为14的图片14为第二双目匹配神经网络模型经过训练后输出的视差图,
标号为15的图片15为第二双目匹配神经网络模型。
[0113] 步骤S113、根据获取的真实样本数据对训练后的第二双目匹配神经网络模型的参数进行调整,得到第一双目匹配神经网络模型;
[0114] 这里,所述步骤S113可以通过两种方式实现,其中,
[0115] 第一种实现方式按照以下步骤实现:
[0116] 步骤S1131a、根据获取的带深度标记的真实双目数据对训练后的第二双目匹配神经网络模型进行监督训练,以调整所述训练后的第二双目匹配神经网络模型的权值,得到
第一双目匹配神经网络模型。
[0117] 这里,获取的是带有深度标记的真实双目数据,这样,就可以直接用带有深度标记的真实双目数据,对步骤S112中训练后的第二双目匹配神经网络进行监督训练,以调整所
述训练后的第二双目匹配神经网络模型的权值,进一步提高训练后的第二双目匹配神经网
络模型的效果,得到第一双目匹配神经网络模型。
[0118] 在这一部分中,双目视差网络需要对真实数据进行适配。可以使用真实的带有深度标记的双目数据,通过有监督的训练对双目视差网络直接进行微调训练调整网络权值。
[0119] 第二种实现方式按照以下步骤实现:
[0120] 步骤S1131b、根据获取的不带深度标记的真实双目数据对训练后的第二双目匹配神经网络模型进行无监督训练,以调整所述训练后的第二双目匹配神经网络模型的权值,
得到第一双目匹配神经网络模型。
[0121] 本发明实施例中,还可以使用不带深度标记的真实双目数据对训练后的第二双目匹配神经网络模型进行无监督训练,以调整所述训练后的第二双目匹配神经网络模型的权
值,得到第一双目匹配神经网络模型。这里无监督训练指的是在没有深度数据标记的情况
下,仅仅使用双目数据进行训练,可以使用无监督微调方法对此过程进行实现。
[0122] 步骤S114、通过所述第一双目匹配神经网络模型输出的视差图对单目深度估计网络模型进行监督,从而训练所述单目深度估计网络模型;
[0123] 这里,所述步骤S114以通过两种方式实现,其中,
[0124] 第一种实现方式按照以下步骤实现:
[0125] 步骤S1141a、获取所述带深度标记的真实双目数据中的左图或右图作为训练样本,其中,所述带深度标记的真实双目数据包括左图和右图;
[0126] 步骤S1142a、根据所述带深度标记的真实双目数据中的左图或右图对单目深度估计网络模型进行训练。
[0127] 这里,利用深度神经网络来预测单张图片的深度图,仅需要一张图片即可以对图片对应的场景进行三维建模,得到每个像素点的深度。因此,可以根据所述带深度标记的真
实双目数据中的左图或右图对单目深度估计网络模型进行训练,其中,所述带深度标记的
真实双目数据为步骤S1131a中使用的带深度标记的真实双目数据。
[0128] 第二种实现方式按照以下步骤实现:
[0129] 步骤S1141b、所述不带深度标记的真实双目数据输入到所述第一双目匹配神经网络模型,得到对应的视差图,其中,所述不带深度标记的真实双目数据包括左图和右图;
[0130] 步骤S1142b、根据所述对应的视差图、拍摄所述不带深度标记的真实双目数据的摄像机的镜头基线距离和拍摄所述不带深度标记的真实双目数据的摄像机的镜头焦距,确
定所述视差图对应的深度图;
[0131] 步骤S1143b、所述不带深度标记的真实双目数据中的左图或右图作为样本数据,根据所述视差图对应的深度图对单目深度估计网络模型进行监督,从而训练所述单目深度
估计网络模型。
[0132] 这里,利用深度神经网络来预测单张图片的深度图,仅需要一张图片即可以对图片对应的场景进行三维建模,得到每个像素点的深度。因此,可以根据步骤S1131b中使用的
不带深度标记的真实双目数据中的左图或右图作为样本数据,也是步骤S1141b中使用的不
带深度标记的真实双目数据中的左图或右图作为样本数据,根据步骤S1141b中输出的视差
图对应的深度图对单目深度估计网络模型进行监督,从而训练所述单目深度估计网络模
型,得到训练后的单目深度估计网络模型。
[0133] 图1D为本发明实施例训练单目深度估计网络模型示意图,如图1D所示,图(a)表示了将不带深度标记的真实双目数据输入到所述第一双目匹配神经网络模型,得到对应的标
号为13的视差图图片13,其中,所述不带深度标记的真实双目数据包括标号为11的左图图
片11和标号为12的右图图片12,标号为15的图片15为第一双目匹配神经网络模型。图1D中
的图(b)表示了将所述不带深度标记的真实双目数据中的左图或右图作为样本数据,根据
所述标号为13的视差图图片13对应的深度图对单目深度估计网络模型进行监督,从而训练
所述单目深度估计网络模型,其中所述样本数据经过所述单目深度估计网络模型的输出为
标号为14的视差图图片14,标号为16的图片16为单目深度估计网络模型。
[0134] 步骤S115、获取待处理图像;
[0135] 这里,在得到训练后的单目深度估计网络模型后,就可以使用此单目深度估计网络模型。即利用此单目深度估计网络模型,获取待处理图像对应的深度图。
[0136] 步骤S116、将所述待处理图像输入至经过训练得到的单目深度估计网络模型,得到所述待处理图像的分析结果,其中,所述单目深度估计网络模型是通过第一双目匹配神
经网络模型输出的视差图进行监督训练的;
[0137] 步骤S117、输出所述待处理图像的分析结果,其中,所述待处理图像的分析结果包括所述单目深度估计网络模型输出的视差图;
[0138] 步骤S118、根据所述单目深度估计网络模型输出的视差图、拍摄输入所述单目深度估计网络模型的图片的摄像机的镜头基线距离和拍摄输入所述单目深度估计网络模型
的图片的摄像机的镜头焦距,确定所述视差图对应的深度图;
[0139] 步骤S119、输出所述视差图对应的深度图。
[0140] 基于上述方法实施例,本发明实施例再提供一种单目深度估计方法,该方法包括:
[0141] 步骤S121、获取有深度标记的合成的双目图片作为合成样本数据,其中,所述合成的双目图片包括合成的左图和合成的右图。
[0142] 步骤S122、根据获取的合成样本数据训练第二双目匹配神经网络模型;
[0143] 这里,使用合成数据用于训练第二双目匹配神经网络模型具有更好的泛化能力。
[0144] 步骤S123、利用公式(1)确定所述损失函数;
[0145] Lstereo-unsupft=Lphoto+γ1Labs+γ2Lrel   (1);
[0146] 其中,所述Lstereo-unsupft表示本发明实施例提出的损失函数;所述Lphoto表示重建误差,所述Labs表示所述第一双目匹配网络模型输出的视差图与所述训练后的第二双目匹配
网络模型输出的视差图相比偏离较小;所述Lrel表示约束所述第一双目匹配网络模型的输
出梯度与所述训练后的第二双目匹配网络模型的输出梯度一致;所述γ1和γ2表示强度系
数。
[0147] 这里,Labs和Lrel为正则项。
[0148] 在其他实施例中,步骤S123中的公式(1)还可以通过以下步骤中的公式进行细化,即所述方法还包括:
[0149] 步骤S1231、利用公式(2)或公式(3)确定所述重建误差;
[0150]
[0151]
[0152] 其中,所述N表示图片中像素的个数;所述 表示所述训练后的第二双目匹配网络模型输出的遮挡图的像素值;所述 表示不带深度标记的真实双目数据中的左图的像
素值;所述 表示不带深度标记的真实双目数据中的右图的像素值;所述 表示将右图采
样后合成的图片的像素值,即重建的左图;所述 表示将左图采样后合成的图片的像素
值,即重建的右图;所述 表示不带深度标记的真实双目数据中的左图经第一双目匹配网
络模型输出的视差图的像素值;所述 表示不带深度标记的真实双目数据中的右图经第
一双目匹配网络模型输出的视差图的像素值;所述ij表示像素点的像素坐标;所述old表示
训练后的第二双目匹配网络模型的输出;所述R表示右图或右图的相关数据,所述L表示左
图或左图的相关数据;所述I表示图片像素点的RGB(Red Green Blue,红色、绿色和蓝色)
值。
[0153] 步骤S1232、利用公式(4)或公式(5)确定所述第一双目匹配网络模型输出的视差图与所述训练后的第二双目匹配网络模型输出的视差图相比偏离较小;
[0154]
[0155]
[0156] 其中,所述N表示图片中像素的个数,所述 表示所述训练后的第二双目匹配网络模型输出的遮挡图的像素值,所述 表示样本数据中的左图经训练后的第二双目
匹配网络输出的视差图的像素值,所述 表示样本数据中的右图经训练后的第二双目
匹配网络输出的视差图的像素值,所述 表示不带深度标记的真实双目数据中的左图经第
一双目匹配网络输出的视差图的像素值,所述 表示不带深度标记的真实双目数据中的
右图经第一双目匹配网络输出的视差图的像素值,所述ij表示像素点的像素坐标,所述old
表示训练后的第二双目匹配网络模型的输出,所述R表示右图或右图的相关数据,所述L表
示左图或左图的相关数据,所述γ3表示强度系数。
[0157] 步骤S1233、利用公式(6)或公式(7)确定所述第一双目匹配网络模型的输出梯度与所述第二双目匹配网络模型的输出梯度一致;
[0158]
[0159]
[0160] 其中,所述N表示图片中像素的个数,所述 表示不带深度标记的真实双目数据中的左图经第一双目匹配网络输出的视差图的梯度,所述 表示不带深度标记的真实双
目数据中的右图经第一双目匹配网络输出的视差图的梯度,所述 表示样本数据中的
左图经训练后的第二双目匹配网络输出的视差图的梯度,所述 表示样本数据中的右
图经训练后的第二双目匹配网络输出的视差图的梯度,所述old表示训练后的第二双目匹
配网络模型的输出,所述R表示右图或右图的相关数据,所述L表示左图或左图的相关数据。
[0161] 步骤S124、使用损失函数(Loss),根据所述不带深度标记的真实双目数据对训练后的第二双目匹配神经网络模型进行无监督训练,以调整所述训练后的第二双目匹配神经
网络模型的权值,得到第一双目匹配神经网络模型。
[0162] 这里,所述损失函数(Loss)利用了步骤S122中训练后的第二双目匹配神经网络的输出对微调训练进行正则化,避免了现有技术中的无监督微调普遍存在的预测变模糊的问
题,提高了微调得到的第一双目匹配网络的效果,从而间接提高了第一双目匹配网络监督
得到的单目深度网络的效果。
[0163] 图1E为本发明实施例损失函数相关图片示意图,如图1E所示,图(a)为不带深度标记的真实双目数据的左图;图1E中的图(b)为不带深度标记的真实双目数据的右图;图1E中
的图(c)为将图(a)和图(b)组成的不带深度标记的真实双目图片输入至经过训练后的第二
双目匹配神经网络模型输出的视差图;图1E中的图(d)为将图(b)表示的右图进行采样后,
结合图(c)表示的视差图,对左图进行重建后的图片;图1E中的图(e)为将图(a)表示的左图
中的像素与图(d)表示的重建后的左图中的对应像素做差得到的图片,即左图的重建误差
图;图1E中的图(f)为将图(a)和图(b)组成的不带深度标记的真实双目图片输入至经过训
练后的第二双目匹配神经网络模型输出的遮挡图。其中,图(d)中所有的红框11表示所述重
建后的左图与图(a)标识的真实左图有差异的部分,图(e)中所有的红框12表示所述重建误
差图中有误差的部分,即被遮挡的部分。
[0164] 这里,实现步骤S124中描述的用无监督微调训练双目视差网络时,需要使用右图对左图进行重建,但是有遮挡区域是无法重建正确的,因此,用遮挡图来清理这一部分的错
误训练信号来提高无监督微调训练的效果。
[0165] 步骤S125、通过所述第一双目匹配神经网络模型输出的视差图对所述单目深度估计网络模型进行监督,从而训练所述单目深度估计网络模型。
[0166] 这里,所述单目深度估计网络模型的样本图片,可以是不带深度标记的真实双目数据中的左图,也可以是不带深度标记的真实双目数据中的右图。其中,如果使用左图作为
样本图片,则通过公式(1)、公式(2)、公式(4)和公式(6)来确定损失函数;如果使用右图作
为样本图片,则通过公式(1)、公式(3)、公式(5)和公式(7)来确定损失函数。
[0167] 本发明实施例中,所述通过所述第一双目匹配神经网络模型输出的视差图对所述单目深度估计网络模型进行监督,从而训练所述单目深度估计网络模型,指的是通过所述
第一双目匹配神经网络模型输出的视差图对应的深度图对所述单目深度估计网络模型进
行监督,也即使提供监督信息,从而训练所述单目深度估计网络模型。
[0168] 步骤S126、获取待处理图像;
[0169] 步骤S127、将所述待处理图像输入至经过训练得到的单目深度估计网络模型,得到所述待处理图像的分析结果,其中,所述单目深度估计网络模型是通过第一双目匹配神
经网络模型输出的视差图进行监督训练的;
[0170] 步骤S128、输出所述待处理图像的分析结果,其中,所述待处理图像的分析结果包括所述单目深度估计网络模型输出的视差图。
[0171] 步骤S129、根据所述单目深度估计网络模型输出的视差图、拍摄输入所述单目深度估计网络模型的图片的摄像机的镜头基线距离和拍摄输入所述单目深度估计网络模型
的图片的摄像机的镜头焦距,确定所述视差图对应的深度图;
[0172] 步骤S130、输出所述视差图对应的深度图。
[0173] 本发明实施例中,当所述待处理图像为街景图片时,就可以使用所述训练后的单目深度估计网络模型预测所述街景图片的深度。
[0174] 基于上述的方法实施例,本发明实施例再提供一种单目深度估计方法,图2A为本发明实施例单目深度估计方法的实现流程示意图二,如图2A所示,该方法包括:
[0175] 步骤S201、使用渲染引擎渲染的合成数据训练双目匹配网络,得到双目图片的视差图;
[0176] 这里,所述双目匹配网络的输入为:一对双目图片(包含左图和右图),所述双目匹配网络的输出为:视差图、遮挡图,即双目匹配网络使用双目图片作为输入,输出视差图和
遮挡图。其中,视差图用于描述左图中每个像素点与右图中对应的像素点的视差距离,以像
素为单位;遮挡图用于描述左图每个像素在右图中对应的像素点是否被其他物体遮挡。由
于视角的变化,左图中的一些区域在右图中会被其他物体遮挡,遮挡图则是用于标记左图
中的像素是否在右图中被遮挡。
[0177] 这一部分,双目匹配网络使用计算机渲染引擎产生的合成数据进行训练,首先通过渲染引擎构造一些虚拟3D场景,然后通过两个虚拟的摄像机将3D场景映射成双目图片,
从而获得合成数据,同时正确的深度数据和相机焦距等数据也可以从渲染引擎中得到,所
以双目匹配网络可以直接通过这些标记数据进行监督训练。
[0178] 步骤S202、利用损失函数,通过无监督微调方法在真实双目图片数据上对步骤S201得到的双目匹配网络进行微调;
[0179] 在这一部分中,双目视差网络需要对真实数据进行适配。即使用不带深度标记的真实双目数据对双目视差网络进行无监督训练。这里无监督训练指的是在没有深度数据标
记的情况下,仅仅使用双目数据进行训练。本发明实施例提出了一种新的无监督微调方法,
即使用上述实施例中的损失函数进行无监督微调。本发明实施例提出的损失函数的主要目
的是希望在不降低预训练效果的情况下在真实双目数据上对双目视差网络进行微调,微调
过程中借助了步骤S201得到的预训练双目视差网络的初步输出进行指导和正则化。
[0180] 图2B为本发明实施例损失函数效果示意图,如图2B所示,标号为21的图片21为使用现有技术中的损失函数时得到的视差图,标号为22的图片22为使用本发明实施例提出的
损失函数时得到的视差图。现有技术的损失函数没有单独考虑遮挡区域,会将遮挡区域的
图像重建误差也优化为零,这样会导致遮挡区域的预测视差错误,视差图的边缘也会模糊,
而本发明中的损失函数用遮挡图来清理这一部分的错误训练信号来提高无监督微调训练
的效果。
[0181] 步骤S203、使用步骤S202得到的双目匹配网络在真实数据上对单目深度估计进行监督,最终得到单目深度估计网络。
[0182] 这里,所述单目深度估计网络的输入为:单张单目图片,所述单目深度估计网络的输出为:深度图。在步骤S202中得到了在真实数据上微调过的双目视差网络,对于每一对双
目图片,双目视差网络预测得到视差图,通过视差图D、双目镜头基线距离b以及镜头焦距f,
可以计算得到视差图对应的深度图,即通过公式(8),可以计算得到视差图对应的深度图d:
[0183] d=bf/D(8);
[0184] 为了训练单目深度网络预测得到深度图,可以使用双目图片对中的左图作为单目深度网路的输入,然后使用双目视差网络输出计算得到的深度图进行监督,从而训练单目
深度网路,得到最终结果。
[0185] 在实际应用中,可以本发明实施例中的单目深度估计方法训练得到用于无人驾驶的深度估计模块,从而对场景进行三维重建或者障碍物检测。且本发明实施例提出的无监
督微调方法提高了双目视差网络的性能。
[0186] 在本发明实施例提供的单目深度估计方法中,通过使用渲染引擎渲染的合成数据训练双目匹配网络,得到双目图片的视差图;利用损失函数,通过无监督微调方法在真实双
目图片数据上对步骤S201得到的双目匹配网络进行微调;使用步骤S202得到的双目匹配网
络在真实数据上对单目深度估计进行监督,最终得到单目深度估计网络;如此,能够使用更
少或者不使用有深度图标记的数据训练单目深度估计网络,并且提出了一种更有效的无监
督微调双目视差网络的方法,从而间接提高了单目深度估计的效果。
[0187] 现有技术中,有监督的单目深度估计方法,获取准确的标记数据是非常有限也是非常难的。基于重建误差的无监督方法的性能通常受到像素匹配歧义的限制。为了解决这
些问题,本发明实施例提出了一种新的单目深度估计方法,解决了现有技术中监督和无监
督深度估计方法存在的局限性。
[0188] 本发明实施例中的方法是使用一个双目匹配网络在跨模态合成数据上训练,并用来监督单目深度估计网络。所述双目匹配网络是基于左右图的像素匹配关系来获得视差,
而不是从语义特征中提取,因此,双目匹配网络可以很好地从合成数据泛化到真实数据。本
发明实施例的方法主要包括三个步骤。第一,用合成数据对双目匹配网络进行训练,从双目
图片中预测遮挡图和视差图。第二,根据可用的真实数据,在有监督或者无监督的情况下,
对训练后的双目匹配网络有选择性地进行调整。第三,在第二步得到的用真实数据微调训
练后的双目匹配网络的监督下,训练单目深度估计网络。这样可以间接利用双目匹配网络
来使单目深度估计更好地利用合成数据来提高性能。
[0189] 第一步、利用合成数据对双目匹配网络进行训练,包括:
[0190] 目前由图形渲染引擎可以生成很多的包含深度信息的合成图像。但是,直接将这些合成图像数据与真实数据合并来训练单目深度估计网络得到的性能通常较差,因为单目
深度估计对输入场景的语义信息非常敏感。合成数据和真实数据之间的巨大模态差距使得
使用合成数据辅助训练变得毫无用处。然而,双目匹配网络有更好的泛化能力,使用合成数
据训练的双目匹配网络在真实数据上也能得到较好的视差图输出。因此,本发明实施例将
双目匹配网络训练作为在合成数据和真实数据之间的桥梁来提高单目深度训练的性能。
[0191] 首先利用大量的合成双目数据对双目匹配网络进行预训练。与传统的结构不同,实施例中的双目匹配网络在视差图的基础上,还估计了多尺度遮挡图。其中,遮挡图表示在
正确的图像中,左侧图像像素的在右图中的对应像素点是否被其他物体遮挡。在接下来的
步骤中,无监督的微调方法会使用到所述遮挡图,以避免错误的估计。
[0192] 其中,可以使用左右视差一致性检验方法,利用公式(9)从正确标记的视差图中得到有正确标记的遮挡图
[0193]
[0194] 其中,下标i表示图像中第i行的值,下标j表示图像中第j列的值。D*L/R表示左右幅图像的视差图,D*wR是用右图重建后的左图的视差图,对于非遮挡区域,左视差图和利用右
图重建后的左图的视差图是一致的。一致性检查的阈值设置为1。遮挡图在遮挡区域为0,非
遮挡区域为1。
[0195] 因此,本实施例使用以下公式(10)计算使用合成数据训练双目匹配网络的损失(Loss),在此阶段,损失函数Lstereo由两部分组成,即视差图估计误差Ldisp和遮挡图估计误
差Locc。双目视差网络的多尺度中间层也产生了视差和遮挡预测,并直接应用于多尺度预测
的损失权重wm, 表示每一层对应的视差图估计误差, 表示每一层对应的遮挡图估计
误差,m表示第m层:
[0196]
[0197] 为了训练视差图,采用L1损失函数来避免异常值的影响,使训练过程更加鲁棒。为了训练遮挡图,利用公式(11)来表示遮挡图估计误差Locc,采用二元交叉熵损失作为一种分
类任务来训练遮挡图:
[0198]
[0199] 其中,N是图像中像素的总数, 表示有正确标记的遮挡图, 表示经训练后的双目匹配网络输出的遮挡图。
[0200] 第二步、使用有监督或无监督的微调方法在真实数据上训练第一步得到的训练后的双目匹配网络,包括:
[0201] 本发明实施例以两种方式对训练后的双目匹配网络进行微调。
[0202] 其中,有监督的微调方法,仅采用多尺度的L1回归损失函数Lstereo-supft,即视差图估计误差Ldisp来改进之前像素匹配预测的误差,见公式(12):
[0203]
[0204] 结果表明,使用少量的监督数据,例如100幅图片,双目匹配网络也能够从合成模态数据适应到真实模态数据。
[0205] 无监督的微调方法。对于无监督的网络调优,现有技术中的无监督微调方法得到的视差图模糊,性能较差,如图2B中的图片21所示。这是由于无监督损失的局限性以及与只
有RGB值的像素匹配的歧义性导致的。因此,本发明实施例引入额外的正则项约束来提高性
能。
[0206] 利用真实数据,从没有进行微调的训练后的双目匹配网络中得到了相应的遮挡图和视差图,并且,将其分别标记为 和 这两个数据用于帮助规范训练过程。进一步
的,本发明实施例提出的无监督的微调损失函数,即损失函数Lstereo-unsupft的获取可以参见
前面实施例中的描述。
[0207] 第三步、训练单目深度估计网络,包括:
[0208] 到目前为止,我们已经通过大量的合成数据对双目匹配网络进行了跨模态训练,并使用真实数据进行了微调。为了训练最终的单目深度估计网络,本发明实施例采用训练
后的双目匹配网络预测的视差图提供训练数据。单目深度估计的损失Lmono由以下几个部分
给出,参见公式(13):
[0209]
[0210] 这里,N为像素点的总和, 指的是单目深度估计网络输出的视差图, 指的是训练后的双目匹配网络输出的视差图,或者,将训练后的双目匹配网络进行微调,微调后的网
络输出的视差图。
[0211] 需要指出的是,公式(9)至公式(13)都是以单目深度估计网络使用真实数据中的左图作为训练样本为例,进行说明的。
[0212] 实验:由于单目深度估计网络对视角变化敏感,所以不对训练数据使用裁剪和缩放。所述单目深度估计网络的输入和用于监督单目深度估计网络的视差图都是来自训练后
的双目匹配网络。
[0213] 图2C为本发明实施例可视化深度估计结果示意图,如图2C所示,图2C中展示了使用现有技术和本发明实施例中的单目深度估计方法,获取的三幅不同的街景图片对应的深
度图,其中,第一行为单目深度估计网络的输入,即三幅不同的街景图片;第二行为使用最
近邻算法对稀疏激光雷达深度图插值得到的深度数据,第三行至第五行为现有技术中的三
种不同的单目深度估计方法分别得到的三幅输入图片对应的深度图;本发明的结果见最后
三行,直接利用本发明实施例中第一步得到的使用合成数据训练得到的双目匹配网络,对
单目深度估计网络进行监督,得到的单目深度网络的三幅输入图片对应的深度图,即标号
为21的图片21、标号为22的图片22、标号为23的图片23;利用本发明实施例提出的无监督损
失函数,对训练后的双目匹配网络进行微调,将微调后的网络输出的视差图,作为单目深度
估计网络的训练数据,得到的单目深度网络的三幅输入图片对应的深度图,即标号为24的
图片24、标号为25的图片25、标号为26的图片26;对训练后的双目匹配网络进行有监督的微
调,将微调后的网络输出的视差图,作为单目深度估计网络的训练数据,得到的单目深度网
络的三幅输入图片对应的深度图,即标号为27的图片27、标号为28的图片28、标号为29的图
片29;从标号为21的图片21至标号为29的图片29可以看出,本发明实施例中的单目深度估
计方法获得的模型可以捕捉到更细节的场景结构。
[0214] 本发明实施例提供一种单目深度估计装置,图3为本发明实施例单目深度估计装置的组成结构示意图,如图3所示,所述装置300包括:获取模块301、执行模块302和输出模
块303,其中:
[0215] 所述获取模块301,用于获取待处理图像;
[0216] 所述执行模块302,用于将所述待处理图像输入至经过训练得到的单目深度估计网络模型,得到所述待处理图像的分析结果,其中,所述单目深度估计网络模型是通过第一
双目匹配神经网络模型输出的视差图进行监督训练的;
[0217] 所述输出模块303,用于输出所述待处理图像的分析结果。
[0218] 在其他实施例中,所述装置还包括:
[0219] 第三训练模块,用于通过所述第一双目匹配神经网络模型输出的视差图对所述单目深度估计网络模型进行监督,从而训练所述单目深度估计网络模型。
[0220] 在其他实施例中,所述装置还包括:
[0221] 第一训练模块,用于根据获取的合成样本数据训练第二双目匹配神经网络模型;
[0222] 第二训练模块,用于根据获取的真实样本数据对训练后的第二双目匹配神经网络模型的参数进行调整,得到第一双目匹配神经网络模型。
[0223] 在其他实施例中,所述装置还包括:
[0224] 第一获取模块,用于获取有深度标记的合成的双目图片作为所述合成样本数据,其中,所述合成的双目图片包括合成的左图和合成的右图。
[0225] 在其他实施例中,所述第一训练模块,包括:
[0226] 第一训练单元,用于根据所述合成的双目图片对第二双目匹配神经网络模型进行训练,得到训练后的第二双目匹配神经网络模型,其中,所述训练后的第二双目匹配神经网
络模型的输出为视差图和遮挡图,所述视差图描述了所述左图中每个像素点与所述右图中
对应的像素点的视差距离,所述视差距离以像素为单位;所述遮挡图描述了所述左图中每
个像素点在所述右图中对应的像素点是否被物体遮挡。
[0227] 在其他实施例中,所述装置还包括:
[0228] 构造模块,用于通过渲染引擎构造虚拟3D场景;
[0229] 映射模块,用于通过两个虚拟的摄像机将所述3D场景映射成双目图片;
[0230] 第二获取模块,用于根据构造所述虚拟3D场景时的位置、构造所述虚拟3D场景时的方向和所述虚拟的摄像机的镜头焦距获取所述合成双目图片的深度数据;
[0231] 第三获取模块,用于根据所述深度数据标记所述双目图片,得到所述合成的双目图片。
[0232] 在其他实施例中,所述第二训练模块,包括:
[0233] 第二训练单元,用于根据获取的带深度标记的真实双目数据对训练后的第二双目匹配神经网络模型进行监督训练,以调整所述训练后的第二双目匹配神经网络模型的权
值,得到第一双目匹配神经网络模型。
[0234] 在其他实施例中,所述第二训练模块中的第二训练单元,还用于:
[0235] 根据获取的不带深度标记的真实双目数据对训练后的第二双目匹配神经网络模型进行无监督训练,以调整所述训练后的第二双目匹配神经网络模型的权值,得到第一双
目匹配神经网络模型。
[0236] 在其他实施例中,所述第二训练模块中的第二训练单元,包括:
[0237] 第二训练部件,用于使用损失函数,根据所述不带深度标记的真实双目数据对训练后的第二双目匹配神经网络模型进行无监督训练,以调整所述训练后的第二双目匹配神
经网络模型的权值,得到第一双目匹配神经网络模型。
[0238] 在其他实施例中,所述装置还包括:
[0239] 第一确定模块,用于利用公式(14)确定所述损失函数;
[0240] Lstereo-unsupft=Lphoto+γ1Labs+γ2Lrel   (14);
[0241] 其中,所述Lstereo-unsupft表示损失函数,所述Lphoto表示重建误差,所述Labs表示所述第一双目匹配网络模型输出的视差图与所述训练后的第二双目匹配网络模型输出的视差
图相比偏离较小,所述Lrel表示约束所述第一双目匹配网络模型的输出梯度与所述训练后
的第二双目匹配网络模型的输出梯度一致,所述γ1和γ2表示强度系数。
[0242] 在其他实施例中,所述装置还包括:
[0243] 第二确定模块,用于利用公式(15)或公式(16)确定所述重建误差;
[0244]
[0245]
[0246] 其中,所述N表示图片中像素的个数,所述 表示所述训练后的第二双目匹配网络模型输出的遮挡图的像素值,所述 表示不带深度标记的真实双目数据中的左图的像
素值,所述 表示不带深度标记的真实双目数据中的右图的像素值,所述 表示将右图采
样后合成的图片的像素值,所述 表示将左图采样后合成的图片的像素值,所述 表示不
带深度标记的真实双目数据中的左图经第一双目匹配网络模型输出的视差图的像素值,所
述 表示不带深度标记的真实双目数据中的右图经第一双目匹配网络模型输出的视差图
的像素值,ij表示像素点的像素坐标。
[0247] 在其他实施例中,所述装置还包括:
[0248] 第三确定模块,用于利用公式(17)或公式(18)确定所述第一双目匹配网络模型输出的视差图与所述训练后的第二双目匹配网络模型输出的视差图相比偏离较小;
[0249]
[0250]
[0251] 其中,所述 表示样本数据中的左图经训练后的第二双目匹配网络模型输出的视差图的像素值,所述 表示样本数据中的右图经训练后的第二双目匹配网络模型
输出的视差图的像素值,所述γ3表示强度系数。
[0252] 在其他实施例中,所述装置还包括:
[0253] 第四确定模块,用于利用公式(19),或公式(20),确定所述第一双目匹配网络模型的输出梯度与所述第二双目匹配网络模型的输出梯度一致;
[0254]
[0255]
[0256] 其中,所述 表示不带深度标记的真实双目数据中的左图经第一双目匹配网络模型输出的视差图的梯度,所述 表示不带深度标记的真实双目数据中的右图经第一双
目匹配网络模型输出的视差图的梯度,所述 表示样本数据中的左图经训练后的第二
双目匹配网络模型输出的视差图的梯度,所述 表示样本数据中的右图经训练后的第
二双目匹配网络模型输出的视差图的梯度。
[0257] 在其他实施例中,所述带深度标记的真实双目数据包括左图和右图,对应地,所述第三训练模块,包括:
[0258] 第一获取单元,用于获取所述带深度标记的真实双目数据中的左图或右图作为训练样本;
[0259] 第一训练单元,用于根据所述带深度标记的真实双目数据中的左图或右图对单目深度估计网络模型进行训练。
[0260] 在其他实施例中,所述不带深度标记的真实双目数据包括左图和右图,对应地,所述第三训练模块,还包括:
[0261] 第二获取单元,用于将所述不带深度标记的真实双目数据输入到所述第一双目匹配神经网络模型,得到对应的视差图;
[0262] 第一确定单元,用于根据所述对应的视差图、拍摄所述不带深度标记的真实双目数据的摄像机的镜头基线距离和拍摄所述不带深度标记的真实双目数据的摄像机的镜头
焦距,确定所述视差图对应的深度图;
[0263] 第二训练单元,用于将所述不带深度标记的真实双目数据中的左图或右图作为样本数据,根据所述视差图对应的深度图对单目深度估计网络模型进行监督,从而训练所述
单目深度估计网络模型。
[0264] 在其他实施例中,所述待处理图像的分析结果包括所述单目深度估计网络模型输出的视差图,对应地,所述装置还包括:
[0265] 第五确定模块,用于根据所述单目深度估计网络模型输出的视差图、拍摄输入所述单目深度估计网络模型的图片的摄像机的镜头基线距离和拍摄输入所述单目深度估计
网络模型的图片的摄像机的镜头焦距,确定所述视差图对应的深度图;
[0266] 第一输出模块,用于输出所述视差图对应的深度图。
[0267] 这里需要指出的是:以上装置实施例的描述,与上述方法实施例的描述是类似的,具有同方法实施例相似的有益效果。对于本发明装置实施例中未披露的技术细节,请参照
本发明方法实施例的描述而理解。
[0268] 本发明实施例中,如果以软件功能模块的形式实现上述的单目深度估计方法,并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。基于这样的
理解,本发明实施例的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品
的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台
计算设备执行本发明各个实施例所述方法的全部或部分。而前述的存储介质包括:U盘、移
动硬盘、ROM(Read Only Memory,只读存储器)、磁碟或者光盘等各种可以存储程序代码的
介质。这样,本发明实施例不限制于任何特定的硬件和软件结合。
[0269] 对应地,本发明实施例提供一种单目深度估计设备,该设备包括存储器和处理器,所述存储器存储有可在处理器上运行的计算机程序,所述处理器执行所述程序时实现单目
深度估计方法中的步骤。
[0270] 对应地,本发明实施例提供一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现单目深度估计方法中的步骤。
[0271] 这里需要指出的是:以上存储介质和设备实施例的描述,与上述方法实施例的描述是类似的,具有同方法实施例相似的有益效果。对于本发明存储介质和设备实施例中未
披露的技术细节,请参照本发明方法实施例的描述而理解。
[0272] 需要说明的是,图4为本发明实施例单目深度估计设备的一种硬件实体示意图,如图4所示,该单目深度估计设备400的硬件实体包括:存储器401、通信总线402和处理器403,
其中,
[0273] 存储器401配置为存储由处理器403可执行的指令和应用,还可以缓存待处理器403以及单目深度估计设备400中各模块待处理或已经处理的数据,可以通过FLASH(闪存)
或RAM(Random Access Memory,随机访问存储器)实现。
[0274] 通信总线402可以使单目深度估计设备400通过网络与其他终端或服务器通信,还可以实现处理器403和存储器401之间的连接通信。
[0275] 处理器403通常控制单目深度估计设备400的总体操作。
[0276] 需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而
且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有
的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该
要素的过程、方法、物品或者装置中还存在另外的相同要素。
[0277] 通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下
前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做
出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质
(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服
务器,空调器,或者网络设备等)执行本发明各个实施例所描述的方法。
[0278] 本发明是参照根据本发明实施例的方法、设备(装置)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流
程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序
指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产
生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实
现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
[0279] 这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指
令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或
多个方框中指定的功能。
[0280] 这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或
其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一
个方框或多个方框中指定的功能的步骤。
[0281] 以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技
术领域,均同理包括在本发明的专利保护范围内。