一种路侧传感器的标定方法、装置、设备及介质转让专利

申请号 : CN202210978034.2

文献号 : CN115082561B

文献日 :

基本信息:

PDF:

法律信息:

相似专利:

发明人 : 赵晓萌张如高李发成虞正华

申请人 : 江苏魔视智能科技有限公司

摘要 :

本发明公开了一种路侧传感器的标定方法、装置、设备及介质,涉及车辆技术领域,该方法包括:确定多个待标定传感器在预设时段内采集的具有目标物体的感知数据,并对感知数据进行帧率同步,确定待标定传感器对应的素材数据;基于每一帧素材数据的场景深度,将素材数据转换为三维点云数据;对三维点云数据进行体素化映射,将三维点云数据转换得到体数据;对任意两个待标定传感器对应的体数据进行迭代处理,标定两个待标定传感器之间的相对位姿,得到标定后相对位姿;基于标定后相对位姿,标定相对位姿对应的待标定传感器的外参数,得到标定后外参数。本发明在提升结算得到的外参数的准确性的同时,提高了标定的效率。

权利要求 :

1.一种路侧传感器的标定方法,其特征在于,方法包括:

确定多个待标定传感器在预设时段内采集的具有目标物体的感知数据,并对感知数据进行帧率同步,确定待标定传感器对应的素材数据;不同待标定传感器分别对应的素材数据的帧数相同;

基于每一帧素材数据的场景深度,将素材数据转换为三维点云数据;

对三维点云数据进行体素化映射,将三维点云数据转换得到体数据;

对任意两个待标定传感器对应的体数据进行迭代处理,标定两个待标定传感器之间的相对位姿,得到标定后相对位姿;

基于标定后相对位姿,标定相对位姿对应的待标定传感器的外参数,得到标定后外参数;外参数包括两个待标定传感器之间的旋转矩阵和平移向量;

当待标定传感器为激光雷达传感器时,累计每一帧素材数据得到的三维点云数据;

当待标定传感器为视觉类传感器时,基于每一帧素材数据的场景深度,将对应帧的素材数据转换为三维点云数据;

当待标定传感器中仅存在视觉类传感器时,基于每一帧素材数据的场景深度,将素材数据转换为三维点云数据,具体包括:将素材数据输入至场景深度预测模型中,得到场景深度预测模型输出的每一帧素材数据对应的场景深度;场景深度预测模型是基于样本图像数据、样本图像数据的样本场景深度以及样本图像数据与样本图像数据之间的相对位姿信息训练得到的;

基于场景深度以及待标定传感器的内参数,将素材数据转换为三维点云数据;

当待标定传感器中存在视觉类传感器以及激光雷达传感器时,基于每一帧素材数据的场景深度,将素材数据转换为三维点云数据,具体包括:将视觉类的待标定传感器对应的素材数据输入至场景深度预测模型中,得到场景深度预测模型输出的每一帧素材数据对应的第一场景深度;场景深度预测模型是基于样本图像数据、样本图像数据的样本场景深度以及样本图像数据与样本图像数据之间的相对位姿信息训练得到的;

确定视觉类的待标定传感器的光心投影至地平面的光心投影距离;地平面是基于随机抽样一致技术拟合得到的;

确定视觉类的待标定传感器对应的每一帧素材数据投影至地平面的第一投影距离,并确定第一投影距离的中位数得到第二投影距离;

确定雷达类的待标定传感器对应的每一帧素材数据投影至地平面的第三投影距离,并确定第三投影距离的中位数得到第四投影距离;

基于第四投影距离与第二投影距离,确定尺度比例;

基于尺度比例以及第一场景深度,确定第二场景深度;

基于第二场景深度以及待标定传感器的内参数,将视觉类的待标定传感器的素材数据转换为视觉类的待标定传感器的三维点云数据,累计雷达类的待标定传感器每一帧素材数据,得到雷达类的待标定传感器的三维点云数据。

2.根据权利要求1的路侧传感器的标定方法,其特征在于,确定多个待标定传感器在预设时段内采集的具有目标物体的感知点,并对感知数据进行帧率同步,确定待标定传感器对应的素材数据,具体包括:确定多个待标定传感器在预设时段对应采集的观测数据;

确定目标物体,并将具有目标物体的观测数据作为待标定传感器的感知数据;

基于间隔抽帧处理,对感知数据进行帧率同步,确定素材数据;间隔抽帧为同帧数间隔抽帧或者同时间间隔抽帧。

3.根据权利要求1的路侧传感器的标定方法,其特征在于,对任意两个待标定传感器对应的体数据进行迭代处理,标定两个待标定传感器之间的相对位姿,得到标定后相对位姿,具体包括:当进行两个雷达类的待标定传感器之间的标定时,基于迭代最近点算法,得到标定后相对位姿;

当进行雷达类和视觉类的待标定传感器之间的标定时,基于尺度迭代最近点算法,得到标定后相对位姿;

当进行两个视觉类的待标定传感器之间的标定时,基于尺度迭代最近点算法,得到标定后相对位姿。

4.根据权利要求1的路侧传感器的标定方法,其特征在于,基于标定后相对位姿,标定相对位姿对应的待标定传感器的外参数,得到标定后外参数,具体包括:将其中一个待标定传感器确定为基准传感器;

基于标定后相对位姿和世界坐标系,标定基准传感器的外参数;世界坐标系的坐标原点为基准传感器安装位置的坐标位置点;

将标定后相对位姿传递至世界坐标系,标定非基准传感器的外参数。

5.一种路侧传感器的标定装置,其特征在于,装置包括:

数据采集模块,用于确定多个待标定传感器在预设时段内采集的具有目标物体的感知数据,并对感知数据进行帧率同步,确定待标定传感器对应的素材数据;不同待标定传感器分别对应的素材数据的帧数相同;

第一转换模块,用于基于每一帧素材数据的场景深度,将素材数据转换为三维点云数据;当待标定传感器为激光雷达传感器时,累计每一帧素材数据得到的三维点云数据;当待标定传感器为视觉类传感器时,基于每一帧素材数据的场景深度,将对应帧的素材数据转换为三维点云数据;

当待标定传感器中仅存在视觉类传感器时,第一转换模块具体包括:将素材数据输入至场景深度预测模型中,得到场景深度预测模型输出的每一帧素材数据对应的场景深度;场景深度预测模型是基于样本图像数据、样本图像数据的样本场景深度以及样本图像数据与样本图像数据之间的相对位姿信息训练得到的;

基于场景深度以及待标定传感器的内参数,将素材数据转换为三维点云数据;

当待标定传感器中存在视觉类传感器以及激光雷达传感器时,第一转换模块具体包括:将视觉类的待标定传感器对应的素材数据输入至场景深度预测模型中,得到场景深度预测模型输出的每一帧素材数据对应的第一场景深度;场景深度预测模型是基于样本图像数据、样本图像数据的样本场景深度以及样本图像数据与样本图像数据之间的相对位姿信息训练得到的;

确定视觉类的待标定传感器的光心投影至地平面的光心投影距离;地平面是基于随机抽样一致技术拟合得到的;

确定视觉类的待标定传感器对应的每一帧素材数据投影至地平面的第一投影距离,并确定第一投影距离的中位数得到第二投影距离;

确定雷达类的待标定传感器对应的每一帧素材数据投影至地平面的第三投影距离,并确定第三投影距离的中位数得到第四投影距离;

基于第四投影距离与第二投影距离,确定尺度比例;

基于尺度比例以及第一场景深度,确定第二场景深度;

基于第二场景深度以及待标定传感器的内参数,将视觉类的待标定传感器的素材数据转换为视觉类的待标定传感器的三维点云数据,累计雷达类的待标定传感器每一帧素材数据,得到雷达类的待标定传感器的三维点云数据;

第二转换模块,用于对三维点云数据进行体素化映射,将三维点云数据转换得到体数据;

第一标定模块,用于对任意两个待标定传感器对应的体数据进行迭代处理,标定两个待标定传感器之间的相对位姿,得到标定后相对位姿;

第二标定模块,用于基于标定后相对位姿,标定相对位姿对应的待标定传感器的外参数,得到标定后外参数;外参数包括两个待标定传感器之间的旋转矩阵和平移向量。

6.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,处理器执行程序时实现如权利要求1至4任一项路侧传感器的标定方法的步骤。

7.一种非暂态计算机可读存储介质,其上存储有计算机程序,其特征在于,计算机程序被处理器执行时实现如权利要求1至4任一项路侧传感器的标定方法的步骤。

说明书 :

一种路侧传感器的标定方法、装置、设备及介质

技术领域

[0001] 本发明涉及车辆技术领域,具体涉及一种路侧传感器的标定方法、装置、设备及介质。

背景技术

[0002] 车联网(Vehicle to X,V2X)方案中,需要部署车载模块、路侧模块和网络设施,路侧模块中的感知系统需要搭载多个不同的传感器来感知所需的数据,多个传感器各自具有不同的观测模态,而通过融合多观测模态获取到的观测数据内容,可以大幅提升路侧数据的感知精度和鲁棒性,更好地实现车路协同。
[0003] 融合多观测模态的观测数据的前提是传感器的外参数需要标定后再使用,而目前都是需要人工在路侧设置指定的标定物,来进行待标定传感器相对于标定物的外参数标定以及进行外参数的解算。该过程需要的需要投入较多的人力与时间成本,给多观测模态的观测数据融合带来了不便。

发明内容

[0004] 有鉴于此,本发明实施例提供了一种路侧传感器的标定方法、装置、设备及介质,以解决路侧所采用的静态地标定传感器的外参数费事费力的问题。
[0005] 根据第一方面,本发明实施例提供了一种路侧传感器的标定方法,方法包括:
[0006] 确定多个待标定传感器在预设时段内采集的具有目标物体的感知数据,并对感知数据进行帧率同步,确定待标定传感器对应的素材数据;不同待标定传感器分别对应的素材数据的帧数相同;
[0007] 基于每一帧素材数据的场景深度,将素材数据转换为三维点云数据;
[0008] 对三维点云数据进行体素化映射,将三维点云数据转换得到体数据;
[0009] 对任意两个待标定传感器对应的体数据进行迭代处理,标定两个待标定传感器之间的相对位姿,得到标定后相对位姿;
[0010] 基于标定后相对位姿,标定相对位姿对应的待标定传感器的外参数,得到标定后外参数;外参数包括两个待标定传感器之间的旋转矩阵和平移向量。
[0011] 结合第一方面,在第一方面第一实施方式中,确定多个待标定传感器在预设时段内采集的具有目标物体的感知点,并对感知数据进行帧率同步,确定待标定传感器对应的素材数据,具体包括:
[0012] 确定多个待标定传感器在预设时段对应采集的观测数据;
[0013] 确定目标物体,并将具有目标物体的观测数据作为待标定传感器的感知数据;
[0014] 基于间隔抽帧处理,对感知数据进行帧率同步,确定素材数据;间隔抽帧为同帧数间隔抽帧或者同时间间隔抽帧。
[0015] 结合第一方面,在第一方面第二实施方式中,当待标定传感器为激光雷达传感器时,累计每一帧素材数据得到的三维点云数据;
[0016] 当待标定传感器为视觉类传感器时,基于每一帧素材数据的场景深度,将对应帧的素材数据转换为三维点云数据。
[0017] 结合第一方面第二实施方式,在第一方面第三实施方式中,当待标定传感器中仅存在视觉类传感器时,基于每一帧素材数据的场景深度,将素材数据转换为三维点云数据,具体包括:
[0018] 将素材数据输入至场景深度预测模型中,得到场景深度预测模型输出的每一帧素材数据对应的场景深度;场景深度预测模型是基于样本图像数据、样本图像数据的样本场景深度以及样本图像数据与样本图像数据之间的相对位姿信息训练得到的;
[0019] 基于场景深度以及待标定传感器的内参数,将素材数据转换为三维点云数据。
[0020] 结合第一方面第二实施方式,在第一方面第四实施方式中,当待标定传感器中存在视觉类传感器以及激光雷达传感器时,基于每一帧素材数据的场景深度,将素材数据转换为三维点云数据,具体包括:
[0021] 将视觉类的待标定传感器对应的素材数据输入至场景深度预测模型中,得到场景深度预测模型输出的每一帧素材数据对应的第一场景深度;场景深度预测模型是基于样本图像数据、样本图像数据的样本场景深度以及样本图像数据与样本图像数据之间的相对位姿信息训练得到的;
[0022] 确定视觉类的待标定传感器的光心投影至地平面的光心投影距离;地平面是基于随机抽样一致技术拟合得到的;
[0023] 确定视觉类的待标定传感器对应的每一帧素材数据投影至地平面的第一投影距离,并确定第一投影距离的中位数得到第二投影距离;
[0024] 确定雷达类的待标定传感器对应的每一帧素材数据投影至地平面的第三投影距离,并确定第三投影距离的中位数得到第四投影距离;
[0025] 基于第四投影距离与第二投影距离,确定尺度比例;
[0026] 基于尺度比例以及第一场景深度,确定第二场景深度;
[0027] 基于第二场景深度以及待标定传感器的内参数,将视觉类的待标定传感器的素材数据转换为视觉类的待标定传感器的三维点云数据;
[0028] 累计雷达类的待标定传感器每一帧素材数据,得到雷达类的待标定传感器的三维点云数据。
[0029] 结合第一方面第四实施方式,在第一方面第五实施方式中,对任意两个待标定传感器对应的体数据进行迭代处理,标定两个待标定传感器之间的相对位姿,得到标定后相对位姿,具体包括:
[0030] 当进行两个雷达类的待标定传感器之间的标定时,基于迭代最近点算法,得到标定后相对位姿;
[0031] 当进行雷达类和视觉类的待标定传感器之间的标定时,基于尺度迭代最近点算法,得到标定后相对位姿;
[0032] 当进行两个视觉类的待标定传感器之间的标定时,基于尺度迭代最近点算法,得到标定后相对位姿。
[0033] 结合第一方面,在第一方面第六实施方式中,基于标定后相对位姿,标定相对位姿对应的待标定传感器的外参数,得到标定后外参数,具体包括:
[0034] 将其中一个待标定传感器确定为基准传感器;
[0035] 基于标定后相对位姿和世界坐标系,标定基准传感器的外参数;世界坐标系的坐标原点为基准传感器安装位置的坐标位置点;
[0036] 将标定后相对位姿传递至世界坐标系,标定非基准传感器的外参数。
[0037] 第二方面,本发明实施例还提供一种路侧传感器的标定装置,装置包括:
[0038] 数据采集模块,用于确定多个待标定传感器在预设时段内采集的具有目标物体的感知数据,并对感知数据进行帧率同步,确定待标定传感器对应的素材数据;不同待标定传感器分别对应的素材数据的帧数相同;
[0039] 第一转换模块,用于基于每一帧素材数据的场景深度,将素材数据转换为三维点云数据;
[0040] 第二转换模块,用于对三维点云数据进行体素化映射,将三维点云数据转换得到体数据;
[0041] 第一标定模块,用于对任意两个待标定传感器对应的体数据进行迭代处理,标定两个待标定传感器之间的相对位姿,得到标定后相对位姿;
[0042] 第二标定模块,用于基于标定后相对位姿,标定相对位姿对应的待标定传感器的外参数,得到标定后外参数;外参数包括两个待标定传感器之间的旋转矩阵和平移向量。
[0043] 第三方面, 本发明实施例还提供一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行程序时实现如上述任一种路侧传感器的标定方法的步骤。
[0044] 第四方面, 本发明实施例还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如上述任一种路侧传感器的标定方法的步骤。
[0045] 第五方面, 本发明实施例还提供一种计算机程序产品,包括计算机程序,计算机程序被处理器执行时实现如上述任一种路侧传感器的标定方法的步骤。
[0046] 本发明提供的路侧传感器的标定方法、装置、设备及介质,通过确定待标定传感器在预设时间内采集具有目标物体的感知数据,目标物体可以是多个,也可以是移动的物体也可以是固定的物体,因此不要人工标定物体;通过两两待标定传感器之间进行相互标定,因此标定时不依赖绝对的地理坐标;通过帧率同步,抽取同帧数的素材数据,之后基于场景深度,将时域的素材数据转换为三维点云数据,对时域叠加的三维点云数据降采样处理得到体数据,对体数据进行处理得到标定后相对位姿,并进一步处理得到标定后外参数,在提升结算得到的外参数的准确性的同时,提高了标定的效率。

附图说明

[0047] 通过参考附图会更加清楚的理解本发明的特征和优点,附图是示意性的而不应理解为对本发明进行任何限制,在附图中:
[0048] 图1示出了本发明提供的路侧传感器的标定方法的流程示意图;
[0049] 图2示出了本发明提供的路侧传感器的标定方法中步骤S110具体的流程示意图;
[0050] 图3示出了本发明提供的路侧传感器的标定方法中步骤S120具体的流程示意图之一;
[0051] 图4示出了本发明提供的路侧传感器的标定方法中步骤S120具体的流程示意图之二;
[0052] 图5示出了本发明提供的路侧传感器的标定方法中步骤S150具体的流程示意图;
[0053] 图6示出了本发明提供的路侧传感器的标定装置的结构示意图;
[0054] 图7示出了本发明提供的路侧传感器的标定装置中数据采集模块具体的结构示意图;
[0055] 图8示出了本发明提供的路侧传感器的标定装置中第一转换模块具体的结构示意图之一;
[0056] 图9示出了本发明提供的路侧传感器的标定装置中第二转换模块具体的结构示意图之一;
[0057] 图10示出了本发明提供的路侧传感器的标定装置中第二标定模块具体的结构示意图;
[0058] 图11示出了本发明提供的电子设备的结构示意图。

具体实施方式

[0059] 为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
[0060] 车路协同是指采用先进的无线通信和新一代互联网等技术,全方位实施车车、车路动态实时信息交互,并在全时空动态交通信息采集与融合的基础上开展车辆主动安全控制和道路协同管理,充分实现人车路的有效协同,保证交通安全,并提高通行效率,从而形成的安全、高效和环保的道路交通系统。车路协同的技术要点有三点:一是强调人‑车‑路系统协同;二是强调区域大规模联网联控;三是强调利用多模式交通网络与信息交互。车路协同是信息技术与汽车和交通两大行业相融合的结果,目前,若想要实现未来交通的智能,就不再是单车智能那么简单。无论单车智能的研发还是公路建设,都是将各自的数据割裂开来,智能也只是局限的智能,大多数汽车产生的数据都不能够有效的被采用,而车路协同是将车、路、人、云有效的结合,各自产生的数据能够被灵活的运用,不仅有效的解决用户所遇到的处行问题,同时对公路上产生的各种交通状况也能够提处一个合理的解决方案。车路协同将是智能交通、智慧高速的核心。
[0061] 目前的V2X方案中,需要部署车载模块、路侧模块和网络设施,且车载模块、路侧模块和网络设施三者之间的关系为:车辆中的车载模块识别并采集车辆数据,并将采集的车辆数据发送至路侧模块或网络设施,路侧模块采集并生成道路上的车况信息,并将车辆数据和车况数据信息转发至网络设施,网络设施接收撤了数据和车况数据,进行综合分析及协同处理后再反馈给路侧模块,并由路侧模块转发至相应车辆中的车载模块,实现相应的车路协同。
[0062] 在路侧模块中感知系统中通过搭载各类传感器感知即采集相关的数据,目前常规使用的传感器包括视觉类传感器(包括单目、双目立体视觉、全景视觉及红外相机)和雷达类测距传感器(包括激光雷达、毫米波雷达、超声波雷达等),比如在前碰撞系统(Front Collision Warning System,FCWS)在会使用到激光雷达传感器和视觉类传感器,激光雷达通过对目标物发送激光并接收回波来获得目标物体的距离、速度和角度,视觉类传感器例如各类相机需要先进行目标识别,然后根据目标物在图像中的像素大小来估算目标的距离,因此,在FCWS中雷达类测距传感器适用于辅助视觉类传感器,通过将雷达类测距传感器返回的目标点投影至视觉类传感器采集的图像上,围绕该点并结合先验知识,生成一个感兴趣区域,之后只需要对该区域内进行目标检测,迅速地排除大量不会有目标的区域,极大地提高目标的识别速度。
[0063] 基于上述的实现原理,建立精确的雷达坐标系、三维世界坐标系、相机坐标系、图像坐标系和像素坐标系之间的坐标转换关系,是实现各类传感器数据融合的关键,也是车路协同的基础,路侧模块中搭载的各类传感器在空间的融合就是将不同传感器坐标系的测量值转换到同一个坐标系中,也就是对传感器进行标定。
[0064] 下面结合图1描述本发明的路侧传感器的标定方法,该方法包括以下步骤:
[0065] S110、确定多个待标定传感器在预设时段内采集的具有目标物体的感知数据。并对已确定的感知数据进行帧率同步,确定待标定传感器对应的素材数据。在本实施例中,进行帧率同步后,不同待标定传感器分别对应的素材数据的帧数相同,即,所有待标定传感器经过帧率同步后帧数都是相同的。
[0066] 待标定传感器的安装位置也就是搭载位置是固定的。需要说明的是,待标定传感器准确的内参数是已经确定的了,并且能够获取到待标定传感器不准确的初始外参数。可以理解的是,初始外参数也就是需要标定的参数,通过标定可以得到数值更为准确的外参数。初始外参数包括待标定传感器之间的初始旋转矩阵和初始平移向量。
[0067] 现有技术中,当待标定传感器为多个时,需要人工在路侧设置指定的标定物,并且需要对待标定传感器逐一进行相对于标定物的外参数标定以及进行外参数的解算。
[0068] 在本发明的方法中,目标物体可以是固定在某个位置的标定物体,也可以是移动的物体。
[0069] 为了提高后续传感器标定时的效率,在本发明的方法中待标定传感器两两之间存在公共检测区域,且公共检测区域占比所有待标定传感器的检测区域并集也就是所有待标定传感器的检测区域之和超过预设比例,公共检测区域为较平坦区域,如一般道路路侧或路口场景的路面区域。优选的,预设比例为50%。
[0070] 在本实施例中,待标定传感器为视觉类传感器和/或激光雷达传感器。比如,对于一般道路路侧或路口场景的路面区域,对于同一地点架设需要标定的多个待标定传感器,这些传感器可通过人工的方式设置初始外参数,之后在预设时间例如1‑3分钟时间内进行目标物体的数据采集,得出各个待标定传感器的观测数据,如激光雷达传感器采集到目标物体的三维点云数据,各类相机采集目标物体的图像数据。即,待标定传感器为是激光雷达传感器时其采集到的感知数据是三维点云数据,待标定传感器为是视觉类传感器时其采集到的感知数据是图像数据。
[0071] 在步骤S110中各个待标定传感器在采集目标物体的观测数据时无需精确同步,即,并不需要均在同一时间段内进行数据的采集,只要能确保各个待标定传感器的采集时间重叠时段的比例超过预设素材采集比例即可。优选的,预设素材采集比例为80%,也就是各个待标定传感器的采集时间重叠时段比例超过80%即可。
[0072] 作为本发明一些可能的实施例,间隔抽帧为同帧数间隔抽帧或者同时间间隔抽帧,
[0073] 例如,间隔抽帧采用同帧数间隔的方式,可以是每50、100、200等经过相同间隔的帧数后截取每个待标定传感器的感知数据,得到素材数据。
[0074] 又例如,间隔抽帧采用同时间间隔的方式,可以是每5、10、15等经过相同间隔的时段后截取每个待标定传感器的感知数据,得到素材数据。
[0075] S120、基于每一帧素材数据的场景深度,将素材数据转换为三维点云数据。
[0076] 在本实施例中,当待标定传感器为激光雷达传感器时,累计每一帧素材数据得到的三维点云数据;当待标定传感器为视觉类传感器时,基于每一帧素材数据的场景深度,将对应帧的素材数据转换为三维点云数据。
[0077] 因此,步骤S120会对相关数据进行时域叠加。
[0078] S130、对三维点云数据进行体素化映射,将三维点云数据转换得到体数据。
[0079] 由于激光雷达传感器的三维点云数据与视觉类的传感器采集的图像的转换得到的三维点云数据在分布形式差异较大,步骤S120的时域叠加可增强点云的稠密性,步骤S130对稠密化后的三维点云数据进行降采样处理,对各个待标定传感器对应的三维点云数据进行体素化映射,得到各自的体数据。优选的,体素化映射过程可以设置单位为米的体素尺寸与体素范围。
[0080] S140、对任意两个待标定传感器对应的体数据进行迭代处理,标定两个待标定传感器之间的相对位姿,得到标定后相对位姿。
[0081] 本发明的方法是两两待标定传感器之间进行相互标定,并且可以基于这样的标定方式,完成所有待标定传感器的外参数标定。需要说明的是,已标定的传感器还可以在后续过程中作为两两标定过程时的待标定传感器。
[0082] 在本实施例中,根据两两待标定传感器的类型,可以分为三种情况:
[0083] 当进行两个雷达类的待标定传感器之间的标定时,基于迭代最近点算法(iterative closest point, ICP),得到标定后相对位姿 ;
[0084] 当进行雷达类和视觉类的待标定传感器之间的标定时,基于尺度迭代最近点算法(scale iterative closest point,SICP),得到标定后相对位姿 ;
[0085] 当进行两个视觉类的待标定传感器之间的标定时,基于SICP,得到标定后相对位姿 。
[0086] S150、基于标定后相对位姿,标定相对位姿对应的待标定传感器的外参数,得到标定后外参数。标定后外参数包括标定后两个待标定传感器之间的旋转矩阵和平移向量。
[0087] 本发明的路侧传感器的标定方法,通过确定待标定传感器在预设时间内采集具有目标物体的感知数据,目标物体可以是多个,也可以是移动的物体也可以是固定的物体,因此不要人工标定物体;通过两两待标定传感器之间进行相互标定,因此标定时不依赖绝对的地理坐标;通过帧率同步,抽取同帧数的素材数据,之后基于场景深度,将时域的素材数据转换为三维点云数据,对时域叠加的三维点云数据降采样处理得到体数据,对体数据进行处理得到标定后相对位姿,并进一步处理得到标定后外参数,在提升结算得到的外参数的准确性的同时,提高了标定的效率。
[0088] 下面参阅图2描述本发明的路侧传感器的标定方法,步骤S110具体包括:
[0089] S111、确定多个待标定传感器在预设时段对应采集的观测数据。
[0090] 在步骤S111中各个待标定传感器在采集目标物体的观测数据时无需精确同步,即,并不需要均在同一时间段内进行数据的采集,只要能确保各个待标定传感器的采集时间重叠时段的比例超过预设素材采集比例即可。优选的,预设素材采集比例为80%,也就是各个待标定传感器的采集时间重叠时段比例超过80%即可。
[0091] 采用上述技术方案,本发明的方法在采集观测数据以及感知数据时不需要多传感器做较准确的时间同步。
[0092] S112、确定目标物体,并将具有目标物体的观测数据作为待标定传感器的感知数据。
[0093] 在本发明的方法中,目标物体可以是固定在某个位置的标定物体,也可以是移动的物体。
[0094] 需要说明的是,在本实施例中,目标物体可以是多个,并且当目标物体确定为多个时,各个待标定传感器观测到的目标也可以是多个。因此需要累计各个待标定传感器的感知数据,即累计所有目标物体被待标定传感器观测到的数据信息。
[0095] S113、基于间隔抽帧处理,对感知数据进行帧率同步,确定素材数据。
[0096] 作为本发明一些可能的实施例,间隔抽帧为同帧数间隔抽帧或者同时间间隔抽帧,
[0097] 例如,间隔抽帧采用同帧数间隔的方式,可以是每50、100、200等经过相同间隔的帧数后截取每个待标定传感器的感知数据,得到素材数据。
[0098] 又例如,间隔抽帧采用同时间间隔的方式,可以是每5、10、15等经过相同间隔的时段后截取每个待标定传感器的感知数据,得到素材数据。
[0099] 在本发明的方法中,由于激光雷达传感器采集到的观测数据本身就是三维的点云数据,因此当待标定传感器为激光雷达传感器时,在本实施例中,累计每一帧素材数据得到的三维点云数据;又因为视觉类传感器采集到的观测数据为二维的图像数据,因此当待标定传感器为视觉类传感器时,在本实施例中,基于每一帧素材数据的场景深度,将对应帧的素材数据转换为三维点云数据。
[0100] 在本发明一些可能的实施例中,下面参阅图3描述本发明的路侧传感器的标定方法,当待标定传感器中仅存在视觉类传感器时,步骤S120具体包括:
[0101] S121、将素材数据输入至场景深度预测模型中,得到场景深度预测模型输出的每一帧素材数据对应的场景深度。
[0102] 场景深度预测模型是基于样本图像数据、样本图像数据的样本场景深度以及样本图像数据与样本图像数据之间的相对位姿信息训练得到的。其中,样本图像数据之间的相对位姿信息可以为相邻帧的样本图像数据例如某一帧与前一帧或者后一帧样本图像数据之间的相对位姿信息。
[0103] 在本发明一些可能的实施例中,场景深度预测模型还可以是基于样本图像数据、样本图像数据的样本场景深度训练得到的。
[0104] 在本实施例中,场景预测模型为单目深度神经网络模型,单目深度神经网络模型可以是基于无监督的训练方式训练得到的,也可以是基于有监督的训练方式训练得到的。
[0105] 具体的,通过单目深度神经网络模型预测场景深度的计算方式为:
[0106]
[0107] 其中, 为视觉类传感器第 帧的感知数据即第 帧的图像数据; 为视觉类传感器第 帧的感知数据的深度图,深度图中每个像素的值定义为像素所表示的三维点至视觉类传感器的光心的距离的Z值分量,也就能够得到场景深度; 为单目深度神经网络模型的前向传播推断函数, 为已训练好的神经网络权重,用来预测单张图像数据的深度值。
[0108] S122、基于场景深度以及待标定传感器的内参数,将素材数据转换为三维点云数据。
[0109] 此时,视觉类的待标定传感器的素材数据转换为三维点云数据具体计算方式为:
[0110]
[0111] 其中, 为视觉类传感器第 帧的感知数据在相机坐标系下的三维点云数据;是感知数据中像素在像素坐标系下的横坐标值,是感知数据中像素在像素坐标系下的纵坐标值,即, 和 为像素的索引, 表示对应位置的像素; 为齐次坐标转换映射, 为视觉类的待标定传感器内参数的投影函数, 表示将二维像素坐标反投影至三维的相机坐标系下的三维方向向量。
[0112] 可以理解的是,对于视觉类的待标定传感器,其三维点云数据也就是相机坐标系下的三维点云数据,其中,相机坐标系是以视觉类的待标定传感器的安装位置的坐标位置点为坐标原点建立的三维坐标系。为了确定视觉类的待标定传感器的安装位置的坐标位置点,可以将固定后视觉类的待标定传感器的中心点作为其安装位置的坐标位置点。
[0113] 由于通过深度预测模型比如说单目深度神经网络模型输出也就是预测得到的场景深度不具备明确尺度单位,当待标定传感器中存在激光雷达传感器时,需要对维度不同的感知数据进行尺度单位的统一。
[0114] 在本发明一些可能的实施例中,下面参阅图4描述本发明的路侧传感器的标定方法,当待标定传感器中存在视觉类传感器以及激光雷达传感器时,步骤S120具体包括:
[0115] S123、将视觉类的待标定传感器对应的素材数据输入至场景深度预测模型中,得到场景深度预测模型输出的每一帧素材数据对应的第一场景深度。
[0116] 场景深度预测模型是基于样本图像数据、样本图像数据的样本场景深度以及样本图像数据与样本图像数据之间的相对位姿信息训练得到的。其中,样本图像数据之间的相对位姿信息可以为相邻帧的样本图像数据例如某一帧与前一帧或者后一帧样本图像数据之间的相对位姿信息。
[0117] 在本发明一些可能的实施例中,场景深度预测模型还可以是基于样本图像数据、样本图像数据的样本场景深度训练得到的。
[0118] 在本实施例中,场景预测模型为单目深度神经网络模型,单目深度神经网络模型可以是基于无监督的训练方式训练得到的,也可以是基于有监督的训练方式训练得到的。
[0119] 与步骤S121一致,具体的,通过单目深度神经网络模型预测第一场景深度的计算方式为:
[0120]
[0121] S124、确定视觉类的待标定传感器的光心投影至地平面的光心投影距离。
[0122] 在本实施例中,为了便于计算投影距离,是基于随机采样一致性(Random Sample Consensus,RANSAC)原理拟合得到地平面的,拟合过程为:
[0123]
[0124] 在拟合到地平面后,视觉类的待标定传感器的光心 投影至拟合的地平面的光心投影距离的计算方式为:
[0125]
[0126] 其中,表示第 帧的感知数据;表示拟合的地平面; 、 、 分别表示拟合的地平面的三个法向量, 表示拟合的地平面的截距。
[0127] S125、确定视觉类的待标定传感器对应的每一帧素材数据投影至地平面的第一投影距离,并确定第一投影距离的中位数得到第二投影距离。
[0128] 计算得到每一帧素材数据的投影距离,从而得到投影距离集合:
[0129]
[0130] 其中, 为视觉类传感器第 帧的感知数据至拟合的地平面的第一投影距离;为视觉类的待标定传感器全部素材数据至拟合的地平面的第一投影距离的集合; 为帧率同步后的帧数。
[0131] 在得到第一投影距离的集合后,统计第一投影距离的中位数,得到第二投影距离。
[0132] S126、确定雷达类的待标定传感器对应的每一帧素材数据投影至地平面的第三投影距离,并确定第三投影距离的中位数得到第四投影距离。
[0133] 在本实施例中,选择其中单次扫描三维点云数目最多也就是采集到的感知数据最多的雷达激光传感器,同步骤S124和步骤S125,统计出该激光雷达传感器采集的每一帧感知数据至拟合的地平面的第三投影距离的中位数,得到第四投影距离 。
[0134] S127、基于第四投影距离与第二投影距离,确定尺度比例。
[0135] 之后,具体的,计算第四投影距离与第二投影距离的比值(比例),得到尺度比例 。
[0136]
[0137] S128、基于尺度比例以及第一场景深度,确定第二场景深度。
[0138] 在得到尺度比例后,可以将第一场景深度转换至同激光雷达传感器一致或者是近似的深度,转换的计算方式为:
[0139]
[0140] 其中, 为视觉类传感器第 帧的感知数据的第二场景深度。
[0141] S129、基于第二场景深度以及待标定传感器的内参数,将视觉类的待标定传感器的素材数据转换为视觉类的待标定传感器的三维点云数据,累计雷达类的待标定传感器每一帧素材数据,得到雷达类的待标定传感器的三维点云数据。
[0142] 视觉类的待标定传感器的素材数据转换为三维点云数据的计算方式为:
[0143]
[0144] 针对待标定传感器每一帧的三维点云数据,进行时域叠加,得到总的三维点云数据。
[0145] 具体的,对于视觉类的待标定传感器,叠加预设时段且帧率同步后数据集的每一帧三维点云数据,得到总的三维点云数据 , 。
[0146] 又具体的,对于雷达类的待标定传感器,叠加预设时段且帧率同步后确定(采集)的每一帧三维点云数据,得到总的三维点云数据 , 。
[0147] 下面参阅图5描述本发明的路侧传感器的标定方法,步骤S150具体包括:
[0148] S151、将其中一个待标定传感器确定为基准传感器。
[0149] S152、基于标定后相对位姿和世界坐标系,标定基准传感器的外参数。
[0150] 其中,世界坐标系是以其中一个待标定传感器的安装位置的坐标位置点为坐标原点建立的三维坐标系。为了确定基准坐标系的安装位置的坐标位置点,可以将固定后基准传感器的中心点作为其安装位置的坐标位置点。此时,世界坐标系 与基准传感器 重合,则有基准传感器的外参数SE3矩阵为4X4维单位阵 。
[0151] S153、将标定后相对位姿传递至世界坐标系,标定非基准传感器的外参数。
[0152] 将两两待标定传感器之间的标定后相对位姿 传递到基准传感器下的世界坐标系 ,即求解出待标定传感器相对于世界坐标系 的外参数 。
[0153] 下面对本发明提供的路侧传感器的标定装置进行描述,下文描述的路侧传感器的标定装置与上文描述的路侧传感器的标定方法可相互对应参照。
[0154] 下面结合图6描述本发明的路侧传感器的标定装置,该装置包括:
[0155] 数据采集模块110,用于确定多个待标定传感器在预设时段内采集的具有目标物体的感知数据。并对已确定的感知数据进行帧率同步,确定待标定传感器对应的素材数据。在本实施例中,进行帧率同步后,不同待标定传感器分别对应的素材数据的帧数相同,即,所有待标定传感器经过帧率同步后帧数都是相同的。
[0156] 待标定传感器的安装位置也就是搭载位置是固定的。需要说明的是,待标定传感器准确的内参数是已经确定的了,并且能够获取到待标定传感器不准确的初始外参数。可以理解的是,初始外参数也就是需要标定的参数,通过标定可以得到数值更为准确的外参数。初始外参数包括待标定传感器之间的初始旋转矩阵和初始平移向量。
[0157] 现有技术中,当待标定传感器为多个时,需要人工在路侧设置指定的标定物,并且需要对待标定传感器逐一进行相对于标定物的外参数标定以及进行外参数的解算。
[0158] 在本发明的方法中,目标物体可以是固定在某个位置的标定物体,也可以是移动的物体。
[0159] 为了提高后续传感器标定时的效率,在本发明的方法中待标定传感器两两之间存在公共检测区域,且公共检测区域占比所有待标定传感器的检测区域并集也就是所有待标定传感器的检测区域之和超过预设比例,公共检测区域为较平坦区域,如一般道路路侧或路口场景的路面区域。优选的,预设比例为50%。
[0160] 在本实施例中,待标定传感器为视觉类传感器和/或激光雷达传感器。比如,对于一般道路路侧或路口场景的路面区域,对于同一地点架设需要标定的多个待标定传感器,这些传感器可通过人工的方式设置初始外参数,之后在预设时间例如1‑3分钟时间内进行目标物体的数据采集,得出各个待标定传感器的观测数据,如激光雷达传感器采集到目标物体的三维点云数据,各类相机采集目标物体的图像数据。即,待标定传感器为是激光雷达传感器时其采集到的感知数据是三维点云数据,待标定传感器为是视觉类传感器时其采集到的感知数据是图像数据。
[0161] 在数据采集模块110中各个待标定传感器在采集目标物体的观测数据时无需精确同步,即,并不需要均在同一时间段内进行数据的采集,只要能确保各个待标定传感器的采集时间重叠时段的比例超过预设素材采集比例即可。优选的,预设素材采集比例为80%,也就是各个待标定传感器的采集时间重叠时段比例超过80%即可。
[0162] 作为本发明一些可能的实施例,间隔抽帧为同帧数间隔抽帧或者同时间间隔抽帧,
[0163] 例如,间隔抽帧采用同帧数间隔的方式,可以是每50、100、200等经过相同间隔的帧数后截取每个待标定传感器的感知数据,得到素材数据。
[0164] 又例如,间隔抽帧采用同时间间隔的方式,可以是每5、10、15等经过相同间隔的时段后截取每个待标定传感器的感知数据,得到素材数据。
[0165] 第一转换模块120,用于基于每一帧素材数据的场景深度,将素材数据转换为三维点云数据。
[0166] 在本实施例中,当待标定传感器为激光雷达传感器时,累计每一帧素材数据得到的三维点云数据;当待标定传感器为视觉类传感器时,基于每一帧素材数据的场景深度,将对应帧的素材数据转换为三维点云数据。因此,第一转换模块120会对相关数据进行时域叠加。
[0167] 第二转换模块130,用于对三维点云数据进行体素化映射,将三维点云数据转换得到体数据。
[0168] 由于激光雷达传感器的三维点云数据与视觉类的传感器采集的图像的转换得到的三维点云数据在分布形式差异较大,第一转换模块120的时域叠加可增强点云的稠密性,第二转换模块130对稠密化后的三维点云数据进行降采样处理,对各个待标定传感器对应的三维点云数据进行体素化映射,得到各自的体数据。优选的,体素化映射过程可以设置单位为米的体素尺寸与体素范围。
[0169] 第一标定模块140,用于对任意两个待标定传感器对应的体数据进行迭代处理,标定两个待标定传感器之间的相对位姿,得到标定后相对位姿。
[0170] 本发明的方法是两两待标定传感器之间进行相互标定,并且可以基于这样的标定方式,完成所有待标定传感器的外参数标定。需要说明的是,已标定的传感器还可以在后续过程中作为两两标定过程时的待标定传感器。
[0171] 在本实施例中,根据两两待标定传感器的类型,可以分为三种情况:
[0172] 当进行两个雷达类的待标定传感器之间的标定时,基于ICP,得到标定后相对位姿;
[0173] 当进行雷达类和视觉类的待标定传感器之间的标定时,基于SICP,得到标定后相对位姿 ;
[0174] 当进行两个视觉类的待标定传感器之间的标定时,基于SICP,得到标定后相对位姿 。
[0175] 第二标定模块150,用于基于标定后相对位姿,标定相对位姿对应的待标定传感器的外参数,得到标定后外参数。标定后外参数包括标定后两个待标定传感器之间的旋转矩阵和平移向量。
[0176] 本发明的路侧传感器的标定方法,通过确定待标定传感器在预设时间内采集具有目标物体的感知数据,目标物体可以是多个,也可以是移动的物体也可以是固定的物体,因此不要人工标定物体;通过两两待标定传感器之间进行相互标定,因此标定时不依赖绝对的地理坐标;通过帧率同步,抽取同帧数的素材数据,之后基于场景深度,将时域的素材数据转换为三维点云数据,对时域叠加的三维点云数据降采样处理得到体数据,对体数据进行处理得到标定后相对位姿,并进一步处理得到标定后外参数,在提升结算得到的外参数的准确性的同时,提高了标定的效率。
[0177] 下面参阅图7描述本发明的路侧传感器的标定方法,数据采集模块110具体包括:
[0178] 第一采集单元111,用于确定多个待标定传感器在预设时段对应采集的观测数据。
[0179] 在第一采集单元111中各个待标定传感器在采集目标物体的观测数据时无需精确同步,即,并不需要均在同一时间段内进行数据的采集,只要能确保各个待标定传感器的采集时间重叠时段的比例超过预设素材采集比例即可。优选的,预设素材采集比例为80%,也就是各个待标定传感器的采集时间重叠时段比例超过80%即可。
[0180] 采用上述技术方案,本发明的方法在采集观测数据以及感知数据时不需要多传感器做较准确的时间同步。
[0181] 第二采集单元112,用于确定目标物体,并将具有目标物体的观测数据作为待标定传感器的感知数据。
[0182] 在本发明的方法中,目标物体可以是固定在某个位置的标定物体,也可以是移动的物体。
[0183] 需要说明的是,在本实施例中,目标物体可以是多个,并且当目标物体确定为多个时,各个待标定传感器观测到的目标也可以是多个。因此需要累计各个待标定传感器的感知数据,即累计所有目标物体被待标定传感器观测到的数据信息。
[0184] 第三采集单元113,用于基于间隔抽帧处理,对感知数据进行帧率同步,确定素材数据。
[0185] 作为本发明一些可能的实施例,间隔抽帧为同帧数间隔抽帧或者同时间间隔抽帧,
[0186] 例如,间隔抽帧采用同帧数间隔的方式,可以是每50、100、200等经过相同间隔的帧数后截取每个待标定传感器的感知数据,得到素材数据。
[0187] 又例如,间隔抽帧采用同时间间隔的方式,可以是每5、10、15等经过相同间隔的时段后截取每个待标定传感器的感知数据,得到素材数据。
[0188] 在本发明的方法中,由于激光雷达传感器采集到的观测数据本身就是三维的点云数据,因此当待标定传感器为激光雷达传感器时,在本实施例中,累计每一帧素材数据得到的三维点云数据;又因为视觉类传感器采集到的观测数据为二维的图像数据,因此当待标定传感器为视觉类传感器时,在本实施例中,基于每一帧素材数据的场景深度,将对应帧的素材数据转换为三维点云数据。
[0189] 在本发明一些可能的实施例中,下面参阅图8描述本发明的路侧传感器的标定方法,当待标定传感器中仅存在视觉类传感器时,第一转换模块120具体包括:
[0190] 第一转换单元121,用于将素材数据输入至场景深度预测模型中,得到场景深度预测模型输出的每一帧素材数据对应的场景深度。
[0191] 场景深度预测模型是基于样本图像数据、样本图像数据的样本场景深度以及样本图像数据与样本图像数据之间的相对位姿信息训练得到的。其中,样本图像数据之间的相对位姿信息可以为相邻帧的样本图像数据例如某一帧与前一帧或者后一帧样本图像数据之间的相对位姿信息。
[0192] 在本发明一些可能的实施例中,场景深度预测模型还可以是基于样本图像数据、样本图像数据的样本场景深度训练得到的。
[0193] 在本实施例中,场景预测模型为单目深度神经网络模型,单目深度神经网络模型可以是基于无监督的训练方式训练得到的,也可以是基于有监督的训练方式训练得到的。
[0194] 第二转换单元122,用于基于场景深度以及待标定传感器的内参数,将素材数据转换为三维点云数据。
[0195] 可以理解的是,对于视觉类的待标定传感器,其三维点云数据也就是相机坐标系下的三维点云数据,其中,相机坐标系是以视觉类的待标定传感器的安装位置的坐标位置点为坐标原点建立的三维坐标系。为了确定视觉类的待标定传感器的安装位置的坐标位置点,可以将固定后视觉类的待标定传感器的中心点作为其安装位置的坐标位置点。
[0196] 由于通过深度预测模型比如说单目深度神经网络模型输出也就是预测得到的场景深度不具备明确尺度单位,当待标定传感器中存在激光雷达传感器时,需要对维度不同的感知数据进行尺度单位的统一。
[0197] 在本发明一些可能的实施例中,下面参阅图9描述本发明的路侧传感器的标定方法,当待标定传感器中存在视觉类传感器以及激光雷达传感器时,第一转换模块120具体包括:
[0198] 第三转换单元123,用于将视觉类的待标定传感器对应的素材数据输入至场景深度预测模型中,得到场景深度预测模型输出的每一帧素材数据对应的第一场景深度。
[0199] 场景深度预测模型是基于样本图像数据、样本图像数据的样本场景深度以及样本图像数据与样本图像数据之间的相对位姿信息训练得到的。其中,样本图像数据之间的相对位姿信息可以为相邻帧的样本图像数据例如某一帧与前一帧或者后一帧样本图像数据之间的相对位姿信息。
[0200] 在本发明一些可能的实施例中,场景深度预测模型还可以是基于样本图像数据、样本图像数据的样本场景深度训练得到的。
[0201] 在本实施例中,场景预测模型为单目深度神经网络模型,单目深度神经网络模型可以是基于无监督的训练方式训练得到的,也可以是基于有监督的训练方式训练得到的。
[0202] 与第一转换单元121一致,具体的,通过单目深度神经网络模型预测第一场景深度。
[0203] 第四转换单元124,用于确定视觉类的待标定传感器的光心投影至地平面的光心投影距离。
[0204] 在本实施例中,为了便于计算投影距离,是基于RANSAC原理拟合得到地平面的。
[0205] 第五转换单元125,用于确定视觉类的待标定传感器对应的每一帧素材数据投影至地平面的第一投影距离,并确定第一投影距离的中位数得到第二投影距离。
[0206] 在得到第一投影距离的集合后,统计第一投影距离的中位数,得到第二投影距离。
[0207] 第六转换单元126,用于确定雷达类的待标定传感器对应的每一帧素材数据投影至地平面的第三投影距离,并确定第三投影距离的中位数得到第四投影距离。
[0208] 在本实施例中,选择其中单次扫描三维点云数目最多也就是采集到的感知数据最多的雷达激光传感器,同第四转换单元124和第五转换单元125,统计出该激光雷达传感器采集的每一帧感知数据至拟合的地平面的第三投影距离的中位数,得到第四投影距离 。
[0209] 第七转换单元127,用于基于第四投影距离与第二投影距离,确定尺度比例。
[0210] 之后,具体的,计算第四投影距离与第二投影距离的比值(比例),得到尺度比例 。
[0211] 第八转换单元128,用于基于尺度比例以及第一场景深度,确定第二场景深度。在得到尺度比例后,可以将第一场景深度转换至同激光雷达传感器一致或者是近似的深度。
[0212] 第九转换单元129,用于基于第二场景深度以及待标定传感器的内参数,将视觉类的待标定传感器的素材数据转换为视觉类的待标定传感器的三维点云数据,累计雷达类的待标定传感器每一帧素材数据,得到雷达类的待标定传感器的三维点云数据。
[0213] 针对待标定传感器每一帧的三维点云数据,进行时域叠加,得到总的三维点云数据。
[0214] 具体的,对于视觉类的待标定传感器,叠加预设时段且帧率同步后数据集的每一帧三维点云数据,得到总的三维点云数据 。
[0215] 又具体的,对于雷达类的待标定传感器,叠加预设时段且帧率同步后确定(采集)的每一帧三维点云数据,得到总的三维点云数据 。
[0216] 下面参阅图10描述本发明的路侧传感器的标定装置,第二标定模块具体包括:
[0217] 第一标定单元151,用于将其中一个待标定传感器确定为基准传感器。
[0218] 第二标定单元152,用于基于标定后相对位姿和世界坐标系,标定基准传感器的外参数。
[0219] 其中,世界坐标系是以其中一个待标定传感器的安装位置的坐标位置点为坐标原点建立的三维坐标系。为了确定基准坐标系的安装位置的坐标位置点,可以将固定后基准传感器的中心点作为其安装位置的坐标位置点。此时,世界坐标系 与基准传感器 重合,则有基准传感器的外参数SE3矩阵为 维单位阵 。
[0220] 第三标定单元153,用于将标定后相对位姿传递至世界坐标系,标定非基准传感器的外参数。
[0221] 将两两待标定传感器之间的标定后相对位姿 传递到基准传感器下的世界坐标系 ,即求解出待标定传感器相对于世界坐标系 的外参数 。
[0222] 图11示例了一种电子设备的实体结构示意图,如图11所示,该电子设备可以包括:处理器(processor)210、通信接口(Communications Interface)220、存储器(memory)230和通信总线240,其中,处理器210,通信接口220,存储器230通过通信总线240完成相互间的通信。处理器210可以调用存储器230中的逻辑命令,以执行路侧传感器的标定方法,该方法包括:
[0223] 确定多个待标定传感器在预设时段内采集的具有目标物体的感知数据,并对感知数据进行帧率同步,确定待标定传感器对应的素材数据;不同待标定传感器分别对应的素材数据的帧数相同;
[0224] 基于每一帧素材数据的场景深度,将素材数据转换为三维点云数据;
[0225] 对三维点云数据进行体素化映射,将三维点云数据转换得到体数据;
[0226] 对任意两个待标定传感器对应的体数据进行迭代处理,标定两个待标定传感器之间的相对位姿,得到标定后相对位姿;
[0227] 基于标定后相对位姿,标定相对位姿对应的待标定传感器的外参数,得到标定后外参数;外参数包括两个待标定传感器之间的旋转矩阵和平移向量。
[0228] 此外,上述的存储器230中的逻辑命令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干命令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read‑Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
[0229] 另一方面,本发明还提供一种计算机程序产品,计算机程序产品包括计算机程序,计算机程序可存储在非暂态计算机可读存储介质上,计算机程序被处理器执行时,计算机能够执行上述各方法所提供的路侧传感器的标定方法,该方法包括:
[0230] 确定多个待标定传感器在预设时段内采集的具有目标物体的感知数据,并对感知数据进行帧率同步,确定待标定传感器对应的素材数据;不同待标定传感器分别对应的素材数据的帧数相同;
[0231] 基于每一帧素材数据的场景深度,将素材数据转换为三维点云数据;
[0232] 对三维点云数据进行体素化映射,将三维点云数据转换得到体数据;
[0233] 对任意两个待标定传感器对应的体数据进行迭代处理,标定两个待标定传感器之间的相对位姿,得到标定后相对位姿;
[0234] 基于标定后相对位姿,标定相对位姿对应的待标定传感器的外参数,得到标定后外参数;外参数包括两个待标定传感器之间的旋转矩阵和平移向量。
[0235] 又一方面,本发明还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现以执行上述各方法提供的路侧传感器的标定方法,该方法包括:
[0236] 确定多个待标定传感器在预设时段内采集的具有目标物体的感知数据,并对感知数据进行帧率同步,确定待标定传感器对应的素材数据;不同待标定传感器分别对应的素材数据的帧数相同;
[0237] 基于每一帧素材数据的场景深度,将素材数据转换为三维点云数据;
[0238] 对三维点云数据进行体素化映射,将三维点云数据转换得到体数据;
[0239] 对任意两个待标定传感器对应的体数据进行迭代处理,标定两个待标定传感器之间的相对位姿,得到标定后相对位姿;
[0240] 基于标定后相对位姿,标定相对位姿对应的待标定传感器的外参数,得到标定后外参数;外参数包括两个待标定传感器之间的旋转矩阵和平移向量。
[0241] 以上所描述的装置实施例仅仅是示意性的,其中作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
[0242] 通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干命令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分的方法。
[0243] 最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。