一种基于跨模态融合的水下视觉目标测距方法及装置转让专利

申请号 : CN202310557817.8

文献号 : CN116309781B

文献日 :

基本信息:

PDF:

法律信息:

相似专利:

发明人 : 姜宇王跃航魏枫林齐红赵明浩张凯欣李志强华聪

申请人 : 吉林大学

摘要 :

本申请公开了一种基于跨模态融合的水下视觉目标测距方法及装置,属于水下机器视觉技术领域,包括:获取水下的事件序列和RGB帧;通过体素网格方式对事件序列进行分段表征;对事件序列和RGB帧进行特征编码得到相应的特征描述子;通过自注意力机制对事件序列和RGB帧进行空间关系提取,得到用于描述局部事件与时空全局事件之间关系的依赖关系;根据特征描述子和依赖关系对事件序列和RGB帧进行特征融合,得到跨模态融合信息;根据跨模态融合信息进行预测并得到水下视觉目标距离。通过将事件和RGB两种数据模态跨模态融合,有效提升水下视觉目标距离估计的准确率。适用于为水下三维重建、目标检测、识别追踪等任务提供新的数据表达。

权利要求 :

1.一种基于跨模态融合的水下视觉目标测距方法,其特征在于,包括:获取水下的事件序列和RGB帧;

针对所述事件序列的异步稀疏性,通过体素网格方式对所述事件序列进行分段表征;

对所述事件序列和所述RGB帧进行特征编码,得到分别与所述事件序列和所述RGB帧对应的特征描述子;

通过自注意力机制对所述事件序列和所述RGB帧进行空间关系提取,得到用于描述局部事件与时空全局事件之间关系的依赖关系;

根据所述特征描述子和所述依赖关系对所述事件序列和所述RGB帧进行特征融合,得到跨模态融合信息;

根据所述跨模态融合信息进行预测,得到水下视觉目标距离;

其中,所述通过自注意力机制对所述事件序列和所述RGB帧进行空间关系提取之后还包括:得到用于描述局部像素信息与全局像素信息之间关系的RGB帧依赖关系;

所述根据所述特征描述子和所述依赖关系对所述事件序列和所述RGB帧进行特征融合包括:根据所述特征描述子、所述依赖关系和所述RGB帧依赖关系对所述事件序列和所述RGB帧进行特征融合;

所述根据所述特征描述子、所述依赖关系和所述RGB帧依赖关系对所述事件序列和所述RGB帧进行特征融合包括:根据所述特征描述子和所述依赖关系,对所述事件序列进行三尺度特征融合,得到具有不同空间分辨率的事件映射;根据所述特征描述子和所述RGB帧依赖关系,对所述RGB帧进行三尺度特征融合,得到具有不同空间分辨率的帧特征映射;通过聚合操作将各个所述事件映射和所述帧特征映射融合,得到跨模态融合信息。

2.如权利要求1所述的水下视觉目标测距方法,其特征在于,所述获取水下的事件序列包括:通过事件相机获取水下的异步事件序列;

将所述异步事件序列转换为同步事件序列,并将所述同步事件序列作为所述事件序列。

3.如权利要求1所述的水下视觉目标测距方法,其特征在于,所述针对所述事件序列的异步稀疏性,通过体素网格方式对所述事件序列进行分段表征包括:根据预设的时间周期对所述事件序列的进行均匀划分,得到多个事件窗口,其中,每个事件窗口均包括若干事件单元;

将所述事件序列中每个事件单元的微秒级时间戳进行正则化,得到每个事件单元的正则化时间戳;

根据所述正则化时间戳确定每个事件单元与每个事件窗口的对应关系,并通过体素网格方式对每个事件窗口进行体素网格表征。

4.如权利要求1所述的水下视觉目标测距方法,其特征在于,所述对所述事件序列和所述RGB帧进行特征编码包括:通过预训练的ResNet‑50网络分别提取所述事件序列和所述RGB帧中具有不同空间分辨率的特征,并通过以下公式进行计算,得到所述特征描述子;

式中, 表示RGB帧, 表示ResNet‑50网络,表示RGB帧的特征描述子,表示事件序列, 表示事件序列的特征描述子。

5.如权利要求1所述的水下视觉目标测距方法,其特征在于,所述根据所述跨模态融合信息进行预测包括:构建预测模型,通过有监督方式对所述预测模型进行训练,同时使用逐像素的L1损失函数约束训练,得到目标预测模型;

根据所述跨模态融合信息,通过所述目标预测模型进行预测,得到度量深度图;

将所述度量深度图转换为对数深度图,通过所述对数深度图得到所述水下视觉目标距离。

6.一种基于跨模态融合的水下视觉目标测距装置,其特征在于,包括:相机模块,用于获取水下的事件序列和RGB帧;

体素网格事件表征模块,用于针对所述事件序列的异步稀疏性,通过体素网格方式对所述事件序列进行分段表征;

特征编码模块,用于对所述事件序列和所述RGB帧进行特征编码,得到分别与所述事件序列和所述RGB帧对应的特征描述子;

自注意力模块,用于通过自注意力机制对所述事件序列和所述RGB帧进行空间关系提取,得到用于描述局部事件与时空全局事件之间关系的依赖关系;

特征融合模块,用于根据所述特征描述子和所述依赖关系对所述事件序列和所述RGB帧进行特征融合,得到跨模态融合信息;

预测模块,用于根据所述跨模态融合信息进行预测,得到水下视觉目标距离;

其中,所述自注意力模块,还用于在通过自注意力机制对所述事件序列和所述RGB帧进行空间关系提取之后,得到用于描述局部像素信息与全局像素信息之间关系的RGB帧依赖关系;

所述特征融合模块,用于根据所述特征描述子、所述依赖关系和所述RGB帧依赖关系对所述事件序列和所述RGB帧进行特征融合;

所述特征融合模块具体用于:根据所述特征描述子和所述依赖关系,对所述事件序列进行三尺度特征融合,得到具有不同空间分辨率的事件映射;根据所述特征描述子和所述RGB帧依赖关系,对所述RGB帧进行三尺度特征融合,得到具有不同空间分辨率的帧特征映射;通过聚合操作将各个所述事件映射和所述帧特征映射融合,得到跨模态融合信息。

7.一种电子设备,包括:存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至5任一项所述方法的步骤。

8.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至5任一项所述方法的步骤。

说明书 :

一种基于跨模态融合的水下视觉目标测距方法及装置

技术领域

[0001] 本申请涉及一种基于跨模态融合的水下视觉目标测距方法及装置,属于水下机器视觉技术领域。

背景技术

[0002] 随着科技的进步和发展,人类逐渐向海洋探索,开展海洋环境与生物的科学研究。在海洋探索中,水下视觉目标距离对水下目标检测,水下激光雷达,水下三维重建都有着重要意义。水下视觉目标距离通常由水下深度图像进行反应,深度图像也称为距离影像,也就是图像中记录拍摄设备到场景中各点的距离,反映了场景中物体的几何形状。目前,大多数水下距离估计方法都使用RGB图像进行距离估计,但由于水下视觉光照严重不足,视觉相机拍摄的水下场景往往暗淡模糊,因此仅仅依靠RGB图像很难估计出准确的水下距离。
[0003] 事件相机是一种新型的基于仿生学的动态视觉传感器,具有低功耗、高动态范围以及高时空分辨率的特点,不同于传统相机捕获全局固定帧率图像,事件相机以异步方式在微秒级别上记录光度的变化信息,并将触发的事件流保存为稀疏离散的四元组数据,即(x,y,t,p),分别代表坐标、微秒级时间戳和极性。由于事件相机高动态范围以及高时空分辨率的特点,在机器视觉领域受到越来越多的关注,通常被应用于低光场景重建、目标检测、目标追踪、高动态范围成像、高速目标识别和轨迹恢复等领域。目前有部分方法将事件相机应用到具有挑战性的场景重建任务中,例如室外夜晚的低光场景或阳光充足的过曝光场景等,但这些基于事件相机的方法缺少足够充分的视觉信息,例如无法获取图像的初始像素值、只能针对亮度的变化信息进行处理,进而导致无法计算图像中每个像素的绝对值。因此,基于事件相机对水下目标距离进行估计还存在困难。此外,对于低光场景下的视觉信息表示,尤其对水下场景的视觉应用中,事件相机的潜力还尚未完全挖掘。

发明内容

[0004] 本申请的目的在于提供一种基于跨模态融合的水下视觉目标测距方法及装置,通过跨模态融合的方法,利用事件序列和RGB帧实现水下视觉目标距离估计,为水下的三维重建、目标检测、识别和追踪等任务提供新的数据表达。
[0005] 为实现上述目的,本申请第一方面提供了一种基于跨模态融合的水下视觉目标测距方法,包括:
[0006] 获取水下的事件序列和RGB帧;
[0007] 针对所述事件序列的异步稀疏性,通过体素网格方式对所述事件序列进行分段表征;
[0008] 对所述事件序列和所述RGB帧进行特征编码,得到分别与所述事件序列和所述RGB帧对应的特征描述子;
[0009] 通过自注意力机制对所述事件序列和所述RGB帧进行空间关系提取,得到用于描述局部事件与时空全局事件之间关系的依赖关系;
[0010] 根据所述特征描述子和所述依赖关系对所述事件序列和所述RGB帧进行特征融合,得到跨模态融合信息;
[0011] 根据所述跨模态融合信息进行预测,得到水下视觉目标距离。
[0012] 在一种实施方式中,所述获取水下的事件序列包括:
[0013] 通过事件相机获取水下的异步事件序列;
[0014] 将所述异步事件序列转换为同步事件序列,并将所述同步事件序列作为所述事件序列。
[0015] 在一种实施方式中,所述针对所述事件序列的异步稀疏性,通过体素网格方式对所述事件序列进行分段表征包括:
[0016] 根据预设的时间周期对所述事件序列的进行均匀划分,得到多个事件窗口,其中,每个事件窗口均包括若干事件单元;
[0017] 将所述事件序列中每个事件单元的微秒级时间戳进行正则化,得到每个事件单元的正则化时间戳;
[0018] 根据所述正则化时间戳确定每个事件单元与每个事件窗口的对应关系,并通过体素网格方式对每个事件窗口进行体素网格表征。
[0019] 在一种实施方式中,所述对所述事件序列和所述RGB帧进行特征编码包括:
[0020] 通过预训练的ResNet‑50网络分别提取所述事件序列和所述RGB帧中具有不同空间分辨率的特征,并通过以下公式进行计算,得到所述特征描述子;
[0021]
[0022] 式中, 表示RGB帧, 表示ResNet‑50网络, 表示RGB帧的特征描述子,表示事件序列, 表示事件序列的特征描述子。
[0023] 在一种实施方式中,所述通过自注意力机制对所述事件序列和所述RGB帧进行空间关系提取之后还包括:
[0024] 得到用于描述局部像素信息与全局像素信息之间关系的RGB帧依赖关系;
[0025] 所述根据所述特征描述子和所述依赖关系对所述事件序列和所述RGB帧进行特征融合包括:
[0026] 根据所述特征描述子、所述依赖关系和所述RGB帧依赖关系对所述事件序列和所述RGB帧进行特征融合。
[0027] 在一种实施方式中,所述根据所述特征描述子、所述依赖关系和所述RGB帧依赖关系对所述事件序列和所述RGB帧进行特征融合包括:
[0028] 根据所述特征描述子和所述依赖关系,对所述事件序列进行三尺度特征融合,得到具有不同空间分辨率的事件映射;
[0029] 根据所述特征描述子和所述RGB帧依赖关系,对所述RGB帧进行三尺度特征融合,得到具有不同空间分辨率的帧特征映射;
[0030] 通过聚合操作将各个所述事件映射和所述帧特征映射融合,得到跨模态融合信息。
[0031] 在一种实施方式中,所述根据所述跨模态融合信息进行预测包括:
[0032] 构建预测模型,通过有监督方式对所述预测模型进行训练,同时使用逐像素的L1损失函数约束训练,得到目标预测模型;
[0033] 根据所述跨模态融合信息,通过所述目标预测模型进行预测,得到度量深度图;
[0034] 将所述度量深度图转换为对数深度图,通过所述对数深度图得到所述水下视觉目标距离。
[0035] 本申请第二方面提供了一种基于跨模态融合的水下视觉目标测距装置,包括:
[0036] 相机模块,用于获取水下的事件序列和RGB帧;
[0037] 体素网格事件表征模块,用于针对所述事件序列的异步稀疏性,通过体素网格方式对所述事件序列进行分段表征;
[0038] 特征编码模块,用于对所述事件序列和所述RGB帧进行特征编码,得到分别与所述事件序列和所述RGB帧对应的特征描述子;
[0039] 自注意力模块,用于通过自注意力机制对所述事件序列和所述RGB帧进行空间关系提取,得到用于描述局部事件与时空全局事件之间关系的依赖关系;
[0040] 特征融合模块,用于根据所述特征描述子和所述依赖关系对所述事件序列和所述RGB帧进行特征融合,得到跨模态融合信息;
[0041] 预测模块,用于根据所述跨模态融合信息进行预测,得到水下视觉目标距离。
[0042] 本申请第三方面提供了一种电子设备,包括:存储器、处理器以及存储在存储器中并可在处理器上运行的计算机程序,该处理器执行计算机程序时实现上述第一方面或者上述第一方面的任一实施方式中的步骤。
[0043] 本申请第四方面提供了一种计算机可读存储介质,上述计算机可读存储介质存储有计算机程序,上述计算机程序被处理器执行时实现上述第一方面或者上述第一方面的任一实施方式中的步骤。
[0044] 由上可见,本申请提供了一种基于跨模态融合的水下视觉目标测距方法及装置,首先获取水下的事件序列和RGB帧,并通过体素网格方式对事件序列进行分段表征;对事件序列和RGB帧进行特征编码得到相应的特征描述子,然后通过自注意力机制对事件序列和RGB帧进行空间关系提取,得到用于描述局部事件与时空全局事件之间关系的依赖关系,再根据特征描述子和依赖关系对事件序列和RGB帧进行特征融合,得到跨模态融合信息,进而可根据跨模态融合信息进行预测并得到水下视觉目标距离。通过本申请提出的水下视觉目标测距方法,将事件和RGB两种数据模态进行深度的跨模态融合,得到更高层次的跨模态融合信息,进而对事件序列和RGB帧以端到端的方式进行水下视觉目标距离估计,得到更为准确的水下视觉目标距离,为水下的三维重建、目标检测、识别和追踪等任务提供新的数据表达,且能够有效提升上述应用任务的准确率。

附图说明

[0045] 为了更清楚地说明本申请实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
[0046] 图1为本申请实施例提供的一种基于跨模态融合的水下视觉目标测距方法的流程示意图;
[0047] 图2为本申请实施例提供的一种对事件序列和RGB帧进行特征融合的流程示意图。

具体实施方式

[0048] 以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本申请实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其他实施例中也可以实现本申请。在其它情况下,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本申请的描述。
[0049] 应当理解,当在本说明书和所附权利要求书中使用时,术语“包括”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
[0050] 还应当理解,在本申请说明书中所使用的术语仅仅是出于描述特定实施例的目的而并不意在限制本申请。如在本申请说明书和所附权利要求书中所使用的那样,除非上下文清楚地指明其它情况,否则单数形式的“一”、“一个”及“该”意在包括复数形式。
[0051] 下面结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请的一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本申请保护的范围。
[0052] 在下面的描述中阐述了很多具体细节以便于充分理解本申请,但是本申请还可以采用其它不同于在此描述的其它方式来实施,本领域技术人员可以在不违背本申请内涵的情况下做类似推广,因此本申请不受下面公开的具体实施例的限制。
[0053] 实施例一
[0054] 本申请实施例提供了一种基于跨模态融合的水下视觉目标测距方法,如图1所示,该水下视觉目标测距方法包括:
[0055] 步骤11:获取水下的事件序列和RGB帧;
[0056] 可选的,所述获取水下的事件序列包括:
[0057] 通过事件相机实时获取水下的异步事件序列;
[0058] 将所述异步事件序列转换为同步事件序列,并将所述同步事件序列作为所述事件序列。
[0059] 可选的,获取水下的RGB帧包括:通过RGB相机实时获取水下的RGB帧(也称RGB图像)。
[0060] 步骤12:针对所述事件序列的异步稀疏性,通过体素网格方式对所述事件序列进行分段表征;
[0061] 在一种实施方式中,本申请实施例通过构建卷积神经网络对水下视觉目标距离进行估计,由于卷积神经网络仅接受同步形式的输入,因此首先将获取的异步事件序列转换为同步形式的事件序列,然后针对事件序列的异步稀疏性,通过卷积神经网络的体素网格事件表征模块对每一场景的事件序列采用体素网格方式进行分段表征,并将表征后的结果作为事件张量图,以便于能够适配卷积神经网络的输入。
[0062] 可选的,所述针对所述事件序列的异步稀疏性,通过体素网格方式对所述事件序列进行分段表征包括:
[0063] 根据预设的时间周期对所述事件序列的进行均匀划分,得到多个事件窗口,其中,每个事件窗口均包括若干事件单元;
[0064] 将所述事件序列中每个事件单元的微秒级时间戳进行正则化,得到每个事件单元的正则化时间戳;
[0065] 根据所述正则化时间戳确定每个事件单元与每个事件窗口的对应关系,并通过体素网格方式对每个事件窗口进行体素网格表征。
[0066] 具体的,根据预设的时间周期对事件序列的时间戳(即微秒级时间戳)进行均匀划分,得到多个事件窗口,进而可将事件序列中的每个事件单元按照时间戳所在的事件窗口,对目标子数据进行划分,以确定事件序列中每个事件单元的所对应的事件窗口编号。
[0067] 在一种实施方式中,根据预设的时间周期,结合事件序列总体时间长度,确定划分的事件窗口数量为 ;随后,通过以下公式将事件序列的每个事件单元的微秒级时间戳进行正则化:
[0068]
[0069] 式中,为当前处理事件单元的时间戳,为输出的正则化时间戳, 和 代表当前执行的事件窗口的最大时间戳和最小时间戳。
[0070] 进一步地,对事件序列的每个事件窗口执行体素网格化过程,其计算公式如下:
[0071]
[0072] 式中, 为经过体素网格表征后得到的事件张量图,其输入为事件单元的四元组数据: ,分别代表事件窗口中第个事件单元的坐标信息、时间戳和极性。其中, 代表当前事件窗口中第个事件单元所在位置的亮度增加,并达到了预设增量阈值; 则代表相反的过程。
[0073] 步骤13:对所述事件序列和所述RGB帧进行特征编码,得到分别与所述事件序列和所述RGB帧对应的特征描述子;
[0074] 在一种实施方式中,当通过上述卷积神经网络对水下视觉目标距离进行估计时,可在卷积神经网络设置一特征编码模块,以对所述事件序列和所述RGB帧进行特征编码,其中,该特征编码模块可以是在ImageNet上预训练的ResNet‑50网络,也可以是其他网络,此处不做限定。
[0075] 可选的,所述对所述事件序列和所述RGB帧进行特征编码包括:
[0076] 通过预训练的ResNet‑50网络分别提取所述事件序列和所述RGB帧中具有不同空间分辨率的特征,并通过以下公式进行计算,得到所述特征描述子;
[0077]
[0078] 式中, 表示RGB帧, 表示ResNet‑50网络, 表示RGB帧的特征描述子,表示事件序列, 表示事件序列的特征描述子。
[0079] 步骤14:通过自注意力机制对所述事件序列和所述RGB帧进行空间关系提取,得到用于描述局部事件与时空全局事件之间关系的依赖关系;
[0080] 在一种实施方式中,当通过上述卷积神经网络对水下视觉目标距离进行估计时,可通过卷积神经网络中的全连接网络充当自注意力模块,以对所述事件序列和所述RGB帧进行空间关系提取。
[0081] 可选的,所述通过自注意力机制对所述事件序列和所述RGB帧进行空间关系提取之后还包括:
[0082] 得到用于描述局部像素信息与全局像素信息之间关系的RGB帧依赖关系;
[0083] 所述根据所述特征描述子和所述依赖关系对所述事件序列和所述RGB帧进行特征融合包括:
[0084] 根据所述特征描述子、所述依赖关系和所述RGB帧依赖关系对所述事件序列和所述RGB帧进行特征融合。
[0085] 步骤15:根据所述特征描述子和所述依赖关系对所述事件序列和所述RGB帧进行特征融合,得到跨模态融合信息;
[0086] 可选的,所述根据所述特征描述子、所述依赖关系和所述RGB帧依赖关系对所述事件序列和所述RGB帧进行特征融合包括:
[0087] 根据所述特征描述子和所述依赖关系,对所述事件序列进行三尺度特征融合,得到具有不同空间分辨率的事件映射;
[0088] 根据所述特征描述子和所述RGB帧依赖关系,对所述RGB帧进行三尺度特征融合,得到具有不同空间分辨率的帧特征映射;
[0089] 通过聚合操作将各个所述事件映射和所述帧特征映射融合,得到跨模态融合信息。
[0090] 在一种实施方式中,如图2所示,当通过上述卷积神经网络对水下视觉目标距离进行估计时,可在卷积神经网络中构建一特征融合模块,该特征融合模块包括RGB三尺度融合编码模块和事件三尺度融合编码模块。对于RGB帧,分别将RGB特征编码集(即与RGB帧对应的特征描述子)缩放为[1/8, 1/16, 1/32],输入到所述RGB三尺度融合编码模块中;对于事件序列,分别将事件特征编码集(即与事件序列对应的特征描述子)缩放为[1/2, 1/4],得到两个尺度的事件。然后,将RGB三尺度融合编码模块的输出缩放为1/8,将其和两个尺度的事件输入到事件三尺度融合编码模块中,得到RGB与事件跨模态融合的特征融合集,作为所述跨模态融合信息。
[0091] 步骤16:根据所述跨模态融合信息进行预测,得到水下视觉目标距离。
[0092] 在一种实施方式中,当通过上述卷积神经网络对水下视觉目标距离进行估计时,可在卷积神经网络中构建一个预测模块,将上述特征融合集输入,即可得到输出水下深度图像,该水下深度图像可以是度量深度图或对数深度图,进而可根据水下深度图像得到效果良好的水下视觉目标距离结果。
[0093] 可选的,所述根据所述跨模态融合信息进行预测包括:
[0094] 构建预测模型,通过有监督方式对所述预测模型进行训练,同时使用逐像素的L1损失函数约束训练,得到目标预测模型;
[0095] 根据所述跨模态融合信息,通过所述目标预测模型进行预测,得到度量深度图;
[0096] 将所述度量深度图转换为对数深度图,通过所述对数深度图得到所述水下视觉目标距离。
[0097] 具体的,可先设置若干包含水下深度图像和相应的样本标签深度图像的训练集,然后以有监督方式对所述预测模型进行训练,同时使用逐像素的L1损失函数约束训练,得到目标预测模型,其中,L1损失函数的计算公式如下:
[0098]
[0099] 式中, 代表全部的训练集数量, 为第j张估计的水下深度图像,代表相应的样本标签深度图像。
[0100] 进一步的,由于对数深度图具有自适应学习显著的深度变化的优势,因此在所述目标预测模型输出度量深度图后,还可通过该模型根据度量深度图预测相应的对数深度图,以得到更为准确的水下视觉目标距离,具体计算公式如下:
[0101]
[0102] 式中, 表示对数深度图, 表示度量深度图, 表示最大度量深度图,表示控制系数,可根据实际情况进行设置,本申请实施例中设置为5.7。
[0103] 由上可见,本申请实施例提供了一种基于跨模态融合的水下视觉目标测距方法,将事件和RGB两种数据模态进行深度的跨模态融合,得到更高层次的跨模态融合信息,进而对事件序列和RGB帧以端到端的方式进行水下视觉目标距离估计,得到更为准确的水下视觉目标距离,为水下的三维重建、目标检测、识别和追踪等任务提供新的数据表达,且能够有效提升上述应用任务的准确率。
[0104] 实施例二
[0105] 本申请实施例提供了一种基于跨模态融合的水下视觉目标测距装置,该水下视觉目标测距装置包括相机模块、体素网格事件表征模块、特征编码模块、自注意力模块、特征融合模块以及预测模块:
[0106] 其中,相机模块用于获取水下的事件序列和RGB帧;
[0107] 体素网格事件表征模块用于针对所述事件序列的异步稀疏性,通过体素网格方式对所述事件序列进行分段表征;
[0108] 特征编码模块用于对所述事件序列和所述RGB帧进行特征编码,得到分别与所述事件序列和所述RGB帧对应的特征描述子;
[0109] 自注意力模块用于通过自注意力机制对所述事件序列和所述RGB帧进行空间关系提取,得到用于描述局部事件与时空全局事件之间关系的依赖关系;
[0110] 特征融合模块用于根据所述特征描述子和所述依赖关系对所述事件序列和所述RGB帧进行特征融合,得到跨模态融合信息;
[0111] 预测模块用于根据所述跨模态融合信息进行预测,得到水下视觉目标距离。
[0112] 可选的,所述相机模块包括用于实时获取水下事件序列的事件相机,和用于实时获取水下RGB帧的RGB相机。
[0113] 由上可见,本申请实施例提供的一种基于跨模态融合的水下视觉目标测距装置,将事件和RGB两种数据模态进行深度的跨模态融合,得到更高层次的跨模态融合信息,进而对事件序列和RGB帧以端到端的方式进行水下视觉目标距离估计,得到更为准确的水下视觉目标距离,为水下的三维重建、目标检测、识别和追踪等任务提供新的数据表达,且能够有效提升上述应用任务的准确率。
[0114] 实施例三
[0115] 本申请实施例提供了一种电子设备,该电子设备包括存储器、处理器以及存储在上述存储器中并可在上述处理器上运行的计算机程序,其中,存储器用于存储软件程序以及模块,处理器通过运行存储在存储器的软件程序以及模块,从而执行各种功能应用以及数据处理。存储器和处理器通过总线连接。具体地,处理器通过运行存储在存储器的上述计算机程序时实现上述实施例一中的任一步骤。
[0116] 应当理解,在本申请实施例中,所称处理器可以是中央处理单元(Central Processing Unit,CPU),该处理器还可以是其他通用处理器、数字信号处理器 (Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field‑Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
[0117] 存储器可以包括只读存储器、快闪存储器和随机存储器,并向处理器提供指令和数据。存储器的一部分或全部还可以包括非易失性随机存取存储器。
[0118] 由上可见,本申请实施例提供的一种电子设备,通过运行计算机程序实现实施例一中所述的水下视觉目标测距方法,将事件和RGB两种数据模态进行深度的跨模态融合,得到更高层次的跨模态融合信息,进而对事件序列和RGB帧以端到端的方式进行水下视觉目标距离估计,得到更为准确的水下视觉目标距离,为水下的三维重建、目标检测、识别和追踪等任务提供新的数据表达,且能够有效提升上述应用任务的准确率。
[0119] 应当理解,上述集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读存储介质中。基于这样的理解,本申请实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,上述计算机程序可存储于以计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,上述计算机程序包括计算机程序代码,上述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。上述计算机可读介质可以包括:能够携带上述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read‑Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,上述计算机可读存储介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减。
[0120] 对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本申请。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本申请的精神或范围的情况下,在其它实施例中实现。因此,本申请将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
[0121] 所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将上述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
[0122] 需要说明的是,上述实施例所提供的方法及其细节举例可结合至实施例提供的装置和设备中,相互参照,不再赘述。
[0123] 本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各实例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟是以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同的方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
[0124] 在本申请所提供的实施例中,应该理解到,所揭露的装置/终端设备和方法,可以通过其他的方式实现。例如,以上所描述的装置/设备实施例仅仅是示意性的,例如,上述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以由另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。
[0125] 上述实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围,均应包含在本申请的保护范围之内。