一种车辆跟踪方法、装置、电子设备及存储介质转让专利

申请号 : CN202110450913.3

文献号 : CN112990124B

文献日 :

基本信息:

PDF:

法律信息:

相似专利:

发明人 : 郑炜栋

申请人 : 湖北亿咖通科技有限公司

摘要 :

本申请实施例提供了一种车辆跟踪方法、装置、电子设备及存储介质,方法包括:对实时采集的图像帧进行车辆检测,得到每帧图像的检测车辆的车辆像素位置;针对当前图像帧,基于当前图像帧的检测车辆与上一帧确定的跟踪车辆的相似度,匹配检测车辆和跟踪车辆;针对与检测车辆匹配成功的跟踪车辆,基于该跟踪车辆的状态信息、该检测车辆的车辆像素位置,采用滤波算法更新该跟踪车辆的状态信息,状态信息包括车辆的物理位置、速度信息、尺寸信息和航向角;其中,滤波算法采用的非线性变换函数表示车辆的状态信息与车辆像素位置的非线性映射关系。能够实现准确、稳定的车辆跟踪。

权利要求 :

1.一种车辆跟踪方法,其特征在于,所述方法包括:基于神经网络模型对实时采集的图像帧进行车辆检测,得到每帧图像的检测车辆的车辆像素位置;所述车辆像素位置包括:左边界、左分界线、右边界、右分界线、上边界、下边界和接地线;

针对当前图像帧,基于当前图像帧的检测车辆与上一帧确定的跟踪车辆的相似度,匹配检测车辆和跟踪车辆;

针对与检测车辆匹配成功的跟踪车辆,基于该跟踪车辆的状态信息、该检测车辆的车辆像素位置,采用滤波算法更新该跟踪车辆的状态信息,所述状态信息包括车辆的物理位置、速度信息、尺寸信息和航向角;其中,所述滤波算法采用的非线性变换函数表示车辆的状态信息与车辆像素位置的非线性映射关系;

所述针对与检测车辆匹配成功的跟踪车辆,基于该跟踪车辆的状态信息、该检测车辆的车辆像素位置,采用滤波算法更新该跟踪车辆的状态信息的步骤,包括:针对与检测车辆匹配成功的跟踪车辆,基于该跟踪车辆的状态信息构造预设数目个状态信息采样点,并确定各个状态信息采样点的权值;

基于预设的状态信息转移矩阵,对每个状态信息采样点进行状态信息预测,并基于状态信息与车辆像素位置的映射关系,将所预测的状态信息映射为车辆像素位置;

基于各个状态信息采样点的权值,对映射得到的车辆像素位置进行加权,得到所述跟踪车辆的车辆像素位置的预测量;

基于所述跟踪车辆的车辆像素位置的预测量与所述检测车辆的车辆像素位置的差值,更新所述跟踪车辆的状态信息。

2.根据权利要求1所述的方法,其特征在于,所述方法还包括:根据左分界线与左边界的左部偏差,右分界线与右边界的右部偏差以及预设的边界偏差阈值,确定检测车辆的侧身状态;所述侧身状态包括左侧身、右侧身和完全侧身;

当侧身状态为左侧身时,调整右分界线等同于右边界;

当侧身状态为右侧身时,调整左分界线等同于左边界;

当侧身状态为完全侧身时,调整左分界线等同于左边界,并调整右分界线等同于右边界;

所述方法还包括:若所述接地线不处于上边界和下边界之间,调整接地线等同于下边界。

3.根据权利要求2所述的方法,其特征在于,所述针对当前图像帧,基于当前图像帧的检测车辆与上一帧确定的跟踪车辆的相似度,匹配检测车辆和跟踪车辆的步骤,包括:基于当前图像帧的检测车辆的车辆像素位置和上一帧确定的跟踪车辆的车辆像素位置,获取每一检测车辆与每一跟踪车辆的图像位置相似度;

基于当前图像帧的检测车辆的物理位置和上一帧确定的跟踪车辆的物理位置,计算每一检测车辆与每一跟踪车辆的物理位置相似度;其中,所述检测车辆的物理位置是根据检测车辆的车辆像素位置、以及跟踪车辆的尺寸信息和航向角,采用三角测距原理计算得到的;

对所述图像位置相似度和所述物理位置相似度进行加权求和,得到每一检测车辆与每一跟踪车辆的相似系数,并判断该相似系数是否满足预设条件,若是,则确定检测车辆与跟踪车辆匹配成功。

4.根据权利要求1所述的方法,其特征在于,所述基于状态信息与车辆像素位置的映射关系,将所预测的状态信息映射为车辆像素位置的步骤,包括:基于实时确定的车身坐标系与全局坐标系的转换矩阵,将所预测的状态信息中的位置信息转换到车身坐标系;

根据所预测的状态信息中的尺寸信息、航向角和转换后的位置信息,生成所述跟踪车辆的惯性测量单元IMU坐标系下的多个预测角点;

基于相机标定参数,将所述多个预测角点映射到图像平面,得到多个图像角点;

将所述多个图像角点转换为车辆像素位置。

5.根据权利要求1所述的方法,其特征在于,所述方法还包括:针对与跟踪车辆匹配不成功的检测车辆,初始化该检测车辆的状态信息,并将该检测车辆确定为当前图像帧的跟踪车辆。

6.根据权利要求5所述的方法,其特征在于,所述初始化该检测车辆的状态信息的步骤,包括:

获取该检测车辆的车辆类别,并基于车辆类别初始化该检测车辆的尺寸信息;

根据该检测车辆的车辆像素位置、以及车载相机标定参数,计算该检测车辆的航向角;

根据该检测车辆的车辆像素位置、该检测车辆的尺寸信息、以及该检测车辆的航向角,采用三角测距原理计算该检测车辆的位置信息。

7.根据权利要求6所述的方法,其特征在于,所述根据该检测车辆的车辆像素位置、以及车载相机标定参数,计算该检测车辆的航向角的步骤,包括:基于该检测车辆的车辆像素位置,确定下边界角点的像素坐标和接地角点的像素坐标;

根据车载相机标定参数,分别将所述下边界角点的像素坐标和所述接地角点的像素坐标映射为IMU坐标系下的第一坐标和第二坐标;

根据IMU坐标系下的第一坐标和第二坐标,计算该检测车辆的航向角。

8.一种车辆跟踪装置,其特征在于,所述装置包括:检测模块,用于基于神经网络模型对实时采集的图像帧进行车辆检测,得到每帧图像的检测车辆的车辆像素位置;所述车辆像素位置包括:左边界、左分界线、右边界、右分界线、上边界、下边界和接地线;

匹配模块,用于针对当前图像帧,基于当前图像帧的检测车辆与上一帧确定的跟踪车辆的相似度,匹配检测车辆和跟踪车辆;

更新模块,用于针对与检测车辆匹配成功的跟踪车辆,基于该跟踪车辆的状态信息、该检测车辆的车辆像素位置,采用滤波算法更新该跟踪车辆的状态信息,所述状态信息包括车辆的物理位置、速度信息、尺寸信息和航向角;其中,所述滤波算法采用的非线性变换函数表示车辆的状态信息与车辆像素位置的非线性映射关系;

所述更新模块,具体用于:

针对与检测车辆匹配成功的跟踪车辆,基于该跟踪车辆的状态信息构造预设数目个状态信息采样点,并确定各个状态信息采样点的权值;

基于预设的状态信息转移矩阵,对每个状态信息采样点进行状态信息预测,并基于状态信息与车辆像素位置的映射关系,将所预测的状态信息映射为车辆像素位置;

基于各个状态信息采样点的权值,对映射得到的车辆像素位置进行加权,得到所述跟踪车辆的车辆像素位置的预测量;

基于所述跟踪车辆的车辆像素位置的预测量与所述检测车辆的车辆像素位置的差值,更新所述跟踪车辆的状态信息。

9.一种电子设备,其特征在于,包括处理器、通信接口、存储器和通信总线,其中,处理器,通信接口,存储器通过通信总线完成相互间的通信;

存储器,用于存放计算机程序;

处理器,用于执行存储器上所存放的程序时,实现权利要求1‑7任一所述的方法步骤。

10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现权利要求1‑7任一所述的方法步骤。

说明书 :

一种车辆跟踪方法、装置、电子设备及存储介质

技术领域

[0001] 本申请涉及智能车辆技术领域,特别是涉及一种车辆跟踪方法、装置、电子设备及存储介质。

背景技术

[0002] 在自动驾驶感知领域,感知车辆周围的其他车辆是一项非常重要的技术,准确的感知其他车辆的相对位置以及运动状态是自动驾驶车辆安全行驶的重要前提。
[0003] 目前,车辆检测的常规方法是:获取车载摄像头实时拍摄到的图像,利用神经网络检测模型定位车辆在图像中的位置,再通过图像多目标跟踪算法,计算各个目标相对于本
车位置和运动状态。
[0004] 图像多目标跟踪是指在图像序列中逐帧检测图像中的感兴趣目标,然后不断更新这些目标在移动过程中的运动信息,从而得到这些目标完整的运动轨迹。
[0005] 目前常规的车辆跟踪算法中,确定目标车辆在图像中的接地点位置,假设车辆所在地面是一个平面,根据车载摄像头的标定参数计算得到目标相对于车辆的位置。
[0006] 然而,车身可能存在俯仰且道路可能存在不同程度的坡度,因此所检测的车辆所在平面可能存在一定误差,导致目标跟踪状态不够准确、稳定。

发明内容

[0007] 本申请实施例的目的在于提供一种车辆跟踪方法、装置、电子设备、及存储介质,以实现准确、稳定的车辆跟踪。具体技术方案如下:
[0008] 为实现上述目的,本申请实施例提供了一种车辆跟踪方法,所述方法包括:
[0009] 对实时采集的图像帧进行车辆检测,得到每帧图像的检测车辆的车辆像素位置;
[0010] 针对当前图像帧,基于当前图像帧的检测车辆与上一帧确定的跟踪车辆的相似度,匹配检测车辆和跟踪车辆;
[0011] 针对与检测车辆匹配成功的跟踪车辆,基于该跟踪车辆的状态信息、该检测车辆的车辆像素位置,采用滤波算法更新该跟踪车辆的状态信息,所述状态信息包括车辆的物
理位置、速度信息、尺寸信息和航向角;其中,所述滤波算法采用的非线性变换函数表示车
辆的状态信息与车辆像素位置的非线性映射关系。
[0012] 可选的,所述车辆像素位置包括:左边界、左分界线、右边界、右分界线、上边界、下边界和接地线;所述方法还包括:
[0013] 根据左分界线与左边界的左部偏差,右分界线与右边界的右部偏差以及预设的边界偏差阈值,确定检测车辆的侧身状态;所述侧身状态包括左侧身、右侧身和完全侧身;
[0014] 当侧身状态为左侧身时,调整右分界线等同于右边界;
[0015] 当侧身状态为右侧身时,调整左分界线等同于左边界;
[0016] 当侧身状态为完全侧身时,调整左分界线等同于左边界,并调整右分界线等同于右边界;
[0017] 所述方法还包括:若所述接地线不处于上边界和下边界之间,调整接地线等同于下边界。
[0018] 可选的,所述针对当前图像帧,基于当前图像帧的检测车辆与上一帧确定的跟踪车辆的相似度,匹配检测车辆和跟踪车辆的步骤,包括:
[0019] 基于当前图像帧的检测车辆的车辆像素位置和上一帧确定的跟踪车辆的车辆像素位置,获取每一检测车辆与每一跟踪车辆的图像位置相似度;
[0020] 基于当前图像帧的检测车辆的物理位置和上一帧确定的跟踪车辆的物理位置,计算每一检测车辆与每一跟踪车辆的物理位置相似度;其中,所述检测车辆的物理位置是根
据检测车辆的车辆像素位置、以及跟踪车辆的尺寸信息和航向角,采用三角测距原理计算
得到的;
[0021] 对所述图像位置相似度和所述物理位置相似度进行加权求和,得到每一检测车辆与每一跟踪车辆的相似系数,并判断该相似系数是否满足预设条件,若是,则确定检测车辆
与跟踪车辆匹配成功。
[0022] 可选的,所述针对与检测车辆匹配成功的跟踪车辆,基于该跟踪车辆的状态信息、该检测车辆的车辆像素位置,采用滤波算法更新该跟踪车辆的状态信息的步骤,包括:
[0023] 针对与检测车辆匹配成功的跟踪车辆,基于该跟踪车辆的状态信息构造预设数目个状态信息采样点,并确定各个状态信息采样点的权值;
[0024] 基于预设的状态信息转移矩阵,对每个状态信息采样点进行状态信息预测,并基于状态信息与车辆像素位置的映射关系,将所预测的状态信息映射为车辆像素位置;
[0025] 基于各个状态信息采样点的权值,对映射得到的车辆像素位置进行加权,得到所述跟踪车辆的车辆像素位置的预测量;
[0026] 基于所述跟踪车辆的车辆像素位置的预测量与所述检测车辆的车辆像素位置的差值,更新所述跟踪车辆的状态信息。
[0027] 可选的,所述基于状态信息与车辆像素位置的映射关系,将所预测的状态信息映射为车辆像素位置的步骤,包括:
[0028] 基于实时确定的车身坐标系与全局坐标系的转换矩阵,将所预测的状态信息中的位置信息转换到车身坐标系;
[0029] 根据所预测的状态信息中的尺寸信息、航向角和转换后的位置信息,生成所述跟踪车辆的惯性测量单元IMU坐标系下的多个预测角点;
[0030] 基于相机标定参数,将所述多个预测角点映射到图像平面,得到多个图像角点;
[0031] 将所述多个图像角点转换为车辆像素位置。
[0032] 可选的,所述方法还包括:
[0033] 针对与跟踪车辆匹配不成功的检测车辆,初始化该检测车辆的状态信息,并将该检测车辆确定为当前图像帧的跟踪车辆。
[0034] 可选的,所述初始化该检测车辆的状态信息的步骤,包括:
[0035] 获取该检测车辆的车辆类别,并基于车辆类别初始化该检测车辆的尺寸信息;
[0036] 根据该检测车辆的车辆像素位置、以及车载相机标定参数,计算该检测车辆的航向角;
[0037] 根据该检测车辆的车辆像素位置、该检测车辆的尺寸信息、以及该检测车辆的航向角,采用三角测距原理计算该检测车辆的位置信息。
[0038] 可选的,所述根据该检测车辆的车辆像素位置、以及车载相机标定参数,计算该检测车辆的航向角的步骤,包括:
[0039] 基于该检测车辆的车辆像素位置,确定下边界角点的像素坐标和接地角点的像素坐标;
[0040] 根据车载相机标定参数,分别将所述下边界角点的像素坐标和所述接地角点的像素坐标映射为IMU坐标系下的第一坐标和第二坐标;
[0041] 根据IMU坐标系下的第一坐标和第二坐标,计算该检测车辆的航向角。
[0042] 为实现上述目的,本申请实施例还提供了一种车辆跟踪装置,所述装置包括:
[0043] 检测模块,用于对实时采集的图像帧进行车辆检测,得到每帧图像的检测车辆的车辆像素位置;
[0044] 匹配模块,用于针对当前图像帧,基于当前图像帧的检测车辆与上一帧确定的跟踪车辆的相似度,匹配检测车辆和跟踪车辆;
[0045] 更新模块,用于针对与检测车辆匹配成功的跟踪车辆,基于该跟踪车辆的状态信息、该检测车辆的车辆像素位置,采用滤波算法更新该跟踪车辆的状态信息,所述状态信息
包括车辆的物理位置、速度信息、尺寸信息和航向角;其中,所述滤波算法采用的非线性变
换函数表示车辆的状态信息与车辆像素位置的非线性映射关系。
[0046] 为实现上述目的,本申请实施例还提供了一种电子设备,包括处理器、通信接口、存储器和通信总线,其中,处理器,通信接口,存储器通过通信总线完成相互间的通信;
[0047] 存储器,用于存放计算机程序;
[0048] 处理器,用于执行存储器上所存放的程序时,实现上述任一方法步骤。
[0049] 为实现上述目的,本申请实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现上述任一方法步
骤。
[0050] 本申请实施例有益效果:
[0051] 采用本申请实施例提供的车辆跟踪方法、装置、电子设备及存储介质,对实时采集的图像帧进行车辆检测,得到每帧图像的检测车辆的车辆像素位置;针对当前图像帧,基于
当前图像帧的检测车辆与上一帧确定的跟踪车辆的相似度,匹配检测车辆和跟踪车辆;针
对与检测车辆匹配成功的跟踪车辆,基于该跟踪车辆的状态信息、该检测车辆的车辆像素
位置,采用滤波算法更新该跟踪车辆的状态信息,状态信息包括车辆的物理位置、速度信
息、尺寸信息和航向角;其中,滤波算法采用的非线性变换函数表示车辆的状态信息与车辆
像素位置的非线性映射关系。可见,构建了车辆状态信息与车辆像素位置的非线性映射关
系,并基于该非线性映射关系,采用滤波算法更新跟踪车辆的状态信息。可见,不需要确定
车辆所在平面,并且车辆状态信息与车辆像素位置的非线性映射关系不会受到车身俯仰和
地面坡度的影响,因此能够提高车辆跟踪的准确性、稳定性。
[0052] 当然,实施本申请的任一产品或方法并不一定需要同时达到以上所述的所有优点。

附图说明

[0053] 为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本
申请的一些实施例,对于本领域普通技术人员来讲,还可以根据这些附图获得其他的实施
例。
[0054] 图1为本申请实施例提供的车辆跟踪方法的一种流程示意图;
[0055] 图2为本申请实施例提供的车辆姿态的一种示意图;
[0056] 图3为本申请实施例提供的车辆侧身状态的一种示意图;
[0057] 图4为本申请实施例提供的匹配检测车辆和跟踪车辆的一种流程示意图;
[0058] 图5为本申请实施例提供的更新跟踪车辆的状态信息的一种流程示意图;
[0059] 图6为本申请实施例提供的将状态信息映射为车辆像素位置的一种流程示意图;
[0060] 图7(a)为本申请实施例提供的跟踪车辆在IMU坐标系下预测角点的一种示意图;
[0061] 图7(b)为本申请实施例提供的跟踪车辆在图像平面的图像角点的一种示意图;
[0062] 图7(c)为本申请实施例提供的跟踪车辆的车辆像素位置的一种示意图;
[0063] 图8为本申请实施例提供的车辆跟踪装置的一种结构示意图;
[0064] 图9为本申请实施例提供的电子设备的一种结构示意图。

具体实施方式

[0065] 下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于
本申请中的实施例,本领域普通技术人员基于本申请所获得的所有其他实施例,都属于本
申请保护的范围。
[0066] 为了解决现有技术中车辆跟踪不够准确、稳定的技术问题,本申请实施例提供了一种车辆跟踪方法、装置、电子设备及存储介质。
[0067] 本申请实施例提供的车辆跟踪方法可以由车辆跟踪装置执行,该车辆跟踪装置可以配置在智能车辆中。容易理解的,对车辆进行跟踪也就是获取车辆实时的位置、速度等信
息。
[0068] 参见图1,图1为本申请实施例提供的车辆跟踪方法的一种流程示意图,方法可以包括以下步骤:
[0069] S101:对实时采集的图像帧进行车辆检测,得到每帧图像的检测车辆的车辆像素位置。
[0070] 本申请实施例中,在车辆行驶过程中,车载相机可以实时采集图像。例如,每隔特定时长采集一帧图像,为了达到较好的跟踪效果,该特定时长可以设置的较小。
[0071] 本申请实施例中,可以基于神经网络模型对图像帧进行车辆检测。例如将实时采集到的图像帧输入Center Net的神经网络模型,即可确定出每帧图像的检测车辆,并得到
检测车辆的车辆像素位置。
[0072] 本申请实施例中,车辆像素位置可以用左边界、左分界线、右边界、右分界线、上边界、下边界和接地线来表示。
[0073] 为了便于描述,左边界表示为 ,左分界线表示为 ,右边界表示为,右分界线表示为 ,上边界表示为 ,下边界表示为 ,接地线表
示为 。具体的,检测车辆共存在8种姿态,如图2所示,图2为本申请实施例提供的车辆姿
态的一种示意图,该8种姿态可以归纳为三种侧身状态,分别为左侧身、右侧身和完全侧身,
如图3所示,图3为本申请实施例提供的车辆侧身状态的一种示意图。
[0074] 在定义中,左边界应小于等于左分界线,右边界应大于等于右分界线,接地线应处于上边界和下边界之间。
[0075] 并且,在理想状态下,当检测车辆为左侧身,右边界等同于右边界线;当检测车辆为右侧身,左边界等同于左边界线;当检测车辆为完全侧身,左边界等同于左边界线,且右
边界等同于右边界线。
[0076] 然而,神经网络输出的车辆像素位置可能并不符合上述理想状态,因此,需要对车辆像素位置进行预处理。本申请实施例中,可以根据神经网络输出的左边界、左分界线、右
边界、右分界线来确定车辆的侧身状态,并根据侧身状态进行适应性调整。
[0077] 具体的,可以根据左分界线与左边界的左部偏差,右分界线与右边界的右部偏差以及预设的边界偏差阈值,确定检测车辆的侧身状态。
[0078] 设边界偏差阈值T,左部偏差 ,右部偏差为,若 则,判断检测车辆为左侧身;若
,判断检测车辆为右侧身;当 ,判断检测
车辆为完全侧身。当侧身状态为左侧身时,调整右分界线等同于右边界;当侧身状态为右侧
身时,调整左分界线等同于左边界;当侧身状态为完全侧身时,调整左分界线等同于左边
界,并调整右分界线等同于右边界。
[0079] 此外,若神经网络输出的车辆像素位置中接地线不处于上边界和下边界之间,则调整接地线等同于下边界。
[0080] S102:针对当前图像帧,基于当前图像帧的检测车辆与上一帧确定的跟踪车辆的相似度,匹配检测车辆和跟踪车辆。
[0081] 本申请实施例中,在对车辆进行跟踪的过程中,需要对前后两帧图像检测到的车辆进行匹配。
[0082] 本申请实施例中,当前图像帧可以表示新采集到的图像帧,对于当前图像帧,可以分别计算当前图像帧的每一检测车辆与上一帧确定的每一跟踪车辆的相似度,以实现检测
车辆和跟踪车辆的匹配。
[0083] 在本申请的一种实施例中,可以计算当前图像帧中检测车辆的车牌号与上一帧确定的跟踪车辆的车牌号之间的相似度,如果车牌号相似度高,可以认为检测车辆和跟踪车
辆匹配。
[0084] 在本申请的另一种实施例中,为了得到更为准确的匹配结果,参见图4,图4为本申请实施例提供的匹配检测车辆和跟踪车辆的一种流程示意图,可以基于如下步骤匹配检测
车辆和跟踪车辆:
[0085] S401:基于当前图像帧的检测车辆的车辆像素位置和上一帧确定的跟踪车辆的车辆像素位置,获取每一检测车辆与每一跟踪车辆的图像位置相似度。
[0086] 本申请实施例中,例如针对第i个跟踪目标和第j个检测目标,可以根据二者图像位置的横向重合度、纵向重合度以及图像检测框的宽高比来计算得到第i个跟踪目标和第j
个检测目标的图像位置相似度M1ij。
[0087] 具体的,横向重合度用二者右边界最小值与二者左边界最大值的差值,以及二者右边界最大值与二者左边界最小值的差值的比值来表示;纵向重合度用二者上边界最小值
与二者下边界最大值的差值,以及二者上边界最大值与二者下边界最小值的差值的比值来
表示。
[0088] 图像检测框的宽高比可以用来计算图像位置相似度加权值w1,该图像位置相似度加权值w1可以表示在计算图像位置相似度时横向重合度和纵向重合度的权重,可以根据车
辆的运动状态进行适应性调整。例如,在车辆转弯时,横摆角较大,则可以设定较大的图像
位置相似度加权值w1,其值取值范围取0‑1,例如0.3、0.5、0.7、0.9。
[0089] S402:基于当前图像帧的检测车辆的物理位置和上一帧确定的跟踪车辆的物理位置,计算每一检测车辆与每一跟踪车辆的物理位置相似度;其中,检测车辆的物理位置是根
据检测车辆的车辆像素位置,以及跟踪车辆的尺寸信息和航向角,采用三角测距原理计算
得到的。
[0090] 本申请实施例中,为了得到更准确的匹配结果,还可以计算检测车辆与跟踪车辆的物理位置相似度。
[0091] 其中,跟踪车辆的物理位置是已知的,在匹配时,可以假设检测车辆与跟踪车辆是相匹配的,进而可以根据检测车辆的车辆像素位置、以及跟踪车辆的尺寸信息和航向角,计
算得到检测车辆的物理位置,该物理位置并非检测车辆的真实物理位置,只用于计算检测
车辆与跟踪车辆的物理位置相似度。
[0092] 作为一个示例,对于第i个跟踪目标和第j个检测目标,已知第i个跟踪目标的尺寸信息,该尺寸信息包含长、宽、高,且已知第i个跟踪目标的航向角,则可以采用三角测距原
理的以下公式计算第j个检测目标的物理位置:
[0093]
[0094]
[0095]
[0096]
[0097] 其中,表示车载相机焦距, 表示车载相机光心横坐标, 表示第i个跟踪目标的航向角, 表示第i个跟踪目标的宽度, 表示第j个检测目标的物理位置的横坐标,
表示第j个检测目标的物理位置的纵坐标, 表示第j个检测目标的右边界, 表示第
j个检测目标的左边界。
[0098] 进而可以计算检测车辆与跟踪车辆的物理位置相似度,作为一个示例,采用如下公式计算物理位置相似度:
[0099]
[0100] 其中, 表示第i个跟踪目标和第j个检测目标的物理位置相似度, 表示第i个跟踪目标的物理位置的横坐标, 表示第i个跟踪目标的物理位置的纵坐标,T表示设定
的阈值, 表示绝对值。
[0101] S403:对图像位置相似度和物理位置相似度进行加权求和,得到每一检测车辆与每一跟踪车辆的相似系数,并判断该相似系数是否满足预设条件,若是,则确定检测车辆与
跟踪车辆匹配成功。
[0102] 作为一个示例,采用如下公式计算检测车辆与跟踪车辆的相似系数Mij:
[0103]
[0104] 其中w1表示图像位置相似度加权值,w2表示物理位置相似度加权值,可以根据实际需求进行特征,二者满足w1+w2=1,M1ij表示第i个跟踪目标和第j个检测目标的图像位置
相似度, 表示第i个跟踪目标和第j个检测目标的物理位置相似度。
[0105] 本申请实施例中,可以判断相似系数是否满足预设条件,若是,则确定检测车辆与跟踪车辆匹配成功,该预设条件可以根据实际需求进行设置,例如,由于相似系数的数值越
小,则检测车辆与跟踪车辆匹配的相似程度越高,因此可以设定阈值,当相似系数小于该阈
值,确定检测车辆与跟踪车辆匹配成功。
[0106] S103:针对与检测车辆匹配成功的跟踪车辆,基于该跟踪车辆的状态信息、该检测车辆的车辆像素位置,采用滤波算法更新该跟踪车辆的状态信息,状态信息包括车辆的物
理位置、速度信息、尺寸信息和航向角;其中,滤波算法采用的非线性变换函数表示车辆的
状态信息与车辆像素位置的非线性映射关系。
[0107] 本申请实施例中,当前图像帧的检测车辆与上一帧确定的跟踪车辆的匹配结果共存在三种情况。第一种情况:某一检测车辆与某一跟踪车辆相互匹配;第二种情况:某一检
测车辆无法匹配跟踪车辆;第三种情况:某一跟踪车辆无法匹配检测车辆。
[0108] 第一种情况下,相互匹配的检测车辆和跟踪车辆实际上是同一车辆,而检测车辆的车辆像素位置能够表示跟踪车辆新的状态信息的观测量,因此可以进行跟踪车辆的状态
更新。
[0109] 具体的,本申请实施例中,对于相互匹配的检测车辆和跟踪车辆,可以基于该跟踪车辆的状态信息、该检测车辆的车辆像素位置,采用滤波算法更新该跟踪车辆的状态信息。
其中,车辆的状态信息包括物理位置、速度信息、尺寸信息和航向角。
[0110] 本申请实施例可以采用无迹卡尔曼滤波(Unscented Kalman Filter, UKF)进行跟踪车辆的状态更新。
[0111] 其中,无迹卡尔曼滤波的核心是无损(Unscented Transform, UT)转换,其原理为:假设一个非线性变换函数 ,其中 为 维向量,已知期望 和方差 ,则可
以经过UT转换构造 个 点 ,同时构造 相应的权值 ,进而得到 的统计
特性。
[0112] 本申请实施例中,可以将车辆的状态信息与车辆像素位置的非线性映射关系,作为无迹卡尔曼滤波的非线性变换函数。
[0113] 在无迹卡尔曼滤波过程中,根据跟踪车辆的状态信息进行状态信息预测,并将预测的状态信息映射为车辆像素位置,作为预测量;而检测车辆的车辆像素位置作为观测量,
根据预测量和观测量,即可更新跟踪车辆的状态信息。
[0114] 其中,根据预测量和观测量,进行UKF更新的过程可以参见相关技术,不再赘述。
[0115] 容易理解的,更新跟踪车辆的状态信息后,当前图像帧的检测车辆被更新为跟踪车辆,在获取新的一帧图像后,重新执行S101‑S103的步骤,继续更新跟踪车辆的状态信息,
从而实现对车辆的跟踪。
[0116] 采用本申请实施例提供的车辆跟踪方法,对实时采集的图像帧进行车辆检测,得到每帧图像的检测车辆的车辆像素位置;针对当前图像帧,基于当前图像帧的检测车辆与
上一帧确定的跟踪车辆的相似度,匹配检测车辆和跟踪车辆;针对与检测车辆匹配成功的
跟踪车辆,基于该跟踪车辆的状态信息、该检测车辆的车辆像素位置,采用滤波算法更新该
跟踪车辆的状态信息,状态信息包括车辆的物理位置、速度信息、尺寸信息和航向角;其中,
滤波算法采用的非线性变换函数表示车辆的状态信息与车辆像素位置的非线性映射关系。
可见,构建了车辆状态信息与车辆像素位置的非线性映射关系,并基于该非线性映射关系,
采用滤波算法更新跟踪车辆的状态信息。可见,不需要确定车辆所在平面,并且车辆状态信
息与车辆像素位置的非线性映射关系不会受到车身俯仰和地面坡度的影响,因此能够提高
车辆跟踪的准确性、稳定性。
[0117] 在本申请的一种实施例中,参见图5,图5为本申请实施例提供的更新跟踪车辆的状态信息的一种流程示意图,如图5所示,上述步骤S103,具体可以包括以下步骤:
[0118] S501:针对与检测车辆匹配成功的跟踪车辆,基于该跟踪车辆的状态信息构造预设数目个状态信息采样点,并确定各个状态信息采样点的权值。
[0119] 本申请实施例中,车辆的状态信息包括车辆的物理位置、速度信息、尺寸信息和航向角。
[0120] 物理位置表示车辆在全局坐标系的位置,用 和 表示,速度用 和 尺寸信息包括长、宽、高,分别用 表示,航向角用 表示。
[0121] 可以基于跟踪车辆的状态信息,进行UT转换,从而构造多个状态信息采样点,即点,每个状态信息采样点都包含物理位置、速度信息、尺寸信息和航向角,并确定各
个状态信息采样点的权值。
[0122] S502:基于预设的状态信息转移矩阵,对每个状态信息采样点进行状态信息预测,并基于状态信息与车辆像素位置的映射关系,将所预测的状态信息映射为车辆像素位置。
[0123] 本申请实施例中,不同的状态信息具有不同的状态信息转移矩阵。
[0124] 举例来讲,定义车辆的运动状态信息包括物理位置和速度信息,由于速度与相邻图像帧的时间差的乘积能够表示物理位置的变化,因此运动状态信息的转移矩阵可以为:
[0125]
[0126] 其中, 表示相邻图像帧的时间差。
[0127] 具体的,设第i个状态信息采样点的运动状态信息为 ,则该状态信息采样点的运动状态信息的预测值为:
[0128]
[0129] 对于尺寸信息和航向角,由于相邻图像帧之间的时间差很小,可以认为尺寸信息和航向角信息保持不变,因此尺寸信息的转移矩阵可以设置为:
[0130] 航向角的转移矩阵可以设置为: 。
[0131] 根据上述转移矩阵,可以得到各个状态信息采样点的状态信息预测结果。进而,可以基于状态信息与车辆像素位置的映射关系,将所预测的状态信息映射为车辆像素位置。
[0132] 在本申请的一种实施例中,参见图6,图6为本申请实施例提供的将状态信息映射为车辆像素位置的一种流程示意图,如图6所示,将所预测的状态信息映射为车辆像素位置
的步骤,具体可以包括以下细化步骤:
[0133] S601:基于实时确定的车身坐标系与全局坐标系的转换矩阵,将所预测的状态信息中的位置信息转换到车身坐标系。
[0134] 本申请实施例中,在本车车辆行驶过程中,可以根据轮速传感器、方向盘转角传感器等,对本车车辆的行驶轨迹进行实时更新。
[0135] 由于通过车载相机直接观测到的其他车辆的坐标是相对于车身坐标系的,而在车辆跟踪过程中,所确定的跟踪车辆的坐标是相对于全局坐标系的,因此随着本车车辆轨迹
的更新,车身坐标系和全局坐标系的转换矩阵也同步更新。
[0136] 通过上述坐标转换,能够缩小跟踪车辆的运动状态量的范围。若直接在车身坐标系下进行跟踪,目标车辆的运动速度是相对于本车车辆的,因此跟踪车辆的运动速度的动
态范围是跟踪车辆的速度叠加上本车车辆的速度,当跟踪对向来车时,跟踪车辆运动速度
的动态范围会非常大。
[0137] 在本步骤中,由于所预测的跟踪车辆的状态信息中的位置信息是全局坐标系下的,因此需要先将其转换为车身坐标系。
[0138] 具体可以采用如下公式进行转换:
[0139]
[0140] 其中, 表示实时确定的车身坐标系与全局坐标系的转换矩阵。
[0141] S602:根据所预测的状态信息中的尺寸信息、航向角和转换后的位置信息,生成跟踪车辆的惯性测量单元IMU坐标系下的多个预测角点。
[0142] 其中,预测角点的数目可以根据实际需求进行选取,作为一个示例,所生成的预测角点数目为8个。
[0143] 本申请实施例中,针对每个状态信息采样点,均可以基于该状态信息采样点的状态信息预测值,生成跟踪车辆的IMU坐标系下的多个预测角点。
[0144] 参见图7(a),图7(a)为本申请实施例提供的跟踪车辆在IMU坐标系下预测角点的一种示意图。
[0145] S603:基于相机标定参数,将多个预测角点映射到图像平面,得到多个图像角点。
[0146] 本申请实施例中,可以基于相机标定参数,将每个预测角点均映射到图像平面,得到多个图像角点,其中每个图像角点表示图像的像素位置。
[0147] 由IMU坐标系映射到图像平面的公式可以为:
[0148]
[0149] 其中, 表示相机标定参数。
[0150] 参见图7(b),图7(b)为本申请实施例提供的跟踪车辆在图像平面的图像角点的一种示意图。
[0151] S604:将多个图像角点转换为车辆像素位置。
[0152] 本申请实施例中,在得到多个图像角点后,可以将图像角点转换为车辆像素位置,也就是转换为包含左边界、左分界线、右边界、右分界线、上边界、下边界的数据形式。
[0153] 参见图7(c),图7(c)为本申请实施例提供的跟踪车辆的车辆像素位置的一种示意图。
[0154] S503:基于各个状态信息采样点的权值,对映射得到的车辆像素位置进行加权,得到跟踪车辆的车辆像素位置的预测量。
[0155] 本申请实施例中,各个状态信息采样点均映射为车辆像素位置后,可以根据各状态信息采样点的权值,对映射得到的车辆像素位置进行加权,得到跟踪车辆的车辆像素位
置的预测量。
[0156] S504:基于跟踪车辆的车辆像素位置的预测量与检测车辆的车辆像素位置的差值,更新跟踪车辆的状态信息。
[0157] 本申请实施例中,检测车辆的车辆像素位置作为观测量,根据车辆像素位置的预测量和观测量即可更新跟踪车辆的状态信息。
[0158] 具体的,计算车辆像素位置的预测量和观测量之间的差值,根据差值进行UKF更新,得到更新后的跟踪车辆的状态信息。
[0159] 在本申请的一种实施例中,为了进一步提高更新跟踪车辆的状态信息的精确度,可以按照一定顺序更新不同状态信息。
[0160] 具体的,可以先更新运动状态信息,包括物理位置和速度信息。针对运动状态信息,车辆像素位置的预测量和观测量均可以用车辆像素宽度和接地线中心点来表示,其中
车辆像素宽度即右边界线与左边界线的差值,接地线中心点即左边界线和右边界线的均
值。
[0161] 如上文所述,观测量是由检测车辆的车辆像素位置计算得到的,预测量是基于各状态信息采样点映射得到的车辆像素位置的加权计算得到的,二者做差即可进行UKF更新,
得到更新后的物理位置和速度信息。
[0162] 为了提高更新尺寸信息的精确度,在更新后物理位置的基础上,返回执行S602,可以得到新的车辆像素位置的预测量,基于新的车辆像素位置的预测量和检测车辆的车辆像
素位置的差值,更新跟踪车辆的尺寸信息。
[0163] 具体的,针对尺寸信息,车辆像素位置的预测量和观测量均可以用车辆像素宽度、车辆像素高度和车辆侧边像素长度来表示,其中车辆像素高度即上边界线与下边界线的差
值,车辆侧边像素长度即左分界线与左边界的差值,或右边界与右分界线的差值。
[0164] 同样的,针对尺寸信息,基于预测量和观测量的差值,进行UKF更新,得到更新后的尺寸信息。
[0165] 为了提高更新航向角的精确度,在更新后物理位置和更新后尺寸信息的基础上,返回执行S602,可以得到新的车辆像素位置的预测量,基于新的车辆像素位置的预测量和
检测车辆的车辆像素位置的差值,更新跟踪车辆的航向角。
[0166] 具体的,针对航向角,车辆像素位置的预测量和观测量均可以用车辆侧边与底边的夹角,以及车辆侧边像素长度来表示,其中车辆侧边与底边的夹角可以基于车辆侧边像
素长度、车辆下边界与接地线的差值,采用反正切函数计算得到。
[0167] 同样的,针对航向角,基于预测量和观测量的差值,进行UKF更新,得到更新后的航向角。
[0168] 本申请实施例中,如果当前图像帧的检测车辆与上一帧确定的跟踪车辆的匹配结果为第二种情况,即某一检测车辆无法匹配跟踪车辆。则该检测车辆可能是新出现在车辆
视野的,为了对其进行后续跟踪,可以初始化该检测车辆的状态信息,并将该检测车辆确定
为当前图像帧的跟踪车辆。
[0169] 具体的,初始化的状态信息包括车辆位置信息、速度信息、尺寸信息和航向角。其中,速度信息可以初始为0。
[0170] 初始化尺寸信息过程中,可以获取该检测车辆的车辆类别,并将与车辆类别初始化该检测车辆的尺寸信息。车辆类别可以表示车辆的大小,例如小型车、中型车和大型车,
进而根据预先确定的不同车辆类别的尺寸信息,对检测车辆进行尺寸信息初始化。
[0171] 初始化航向角过程中,可以根据该检测车辆的车辆像素位置、以及摄像头标定参数,计算该检测车辆的航向角。
[0172] 具体可以包括以下细化步骤:
[0173] 步骤11:基于该检测车辆的车辆像素位置,确定下边界角点的像素坐标和接地角点的像素坐标。
[0174] 具体的,根据车辆像素位置,可以确定两个角点,用于计算航向角,该两个角点分别记为下边界角点和接地角点。其中,下边界角点的像素横坐标为左分界线或右分界线,纵
坐标为下边界,接地角点的像素横坐标为左边界或右边界,纵坐标为接地线。
[0175] 作为一个示例,若检测车辆处于右侧身状态,可以确定下边界角点的像素横坐标为右分界线,纵坐标为下边界;接地角点的像素横坐标为右边界,纵坐标为接地线。
[0176] 步骤12:根据车载相机标定参数,分别将下边界角点的像素坐标和接地角点的像素坐标映射为IMU坐标系下的第一坐标和第二坐标。
[0177] 本申请实施例中,车载相机标定参数可以包括相机内参和相机外参,根据车载相机标定参数即可将边界角点的像素坐标和所述接地角点的像素坐标映射到IMU坐标下,得
到第一坐标和第二坐标。
[0178] 作为一个示例,车载相机的内参为:
[0179] 车载相机的外参为:
[0180] 使用定高测距法 ,设像素坐标为 ,其在IMU坐标下的 坐标为:
[0181]
[0182]
[0183]
[0184]
[0185] 步骤13:根据IMU坐标系下的第一坐标和第二坐标,计算该检测车辆的航向角。
[0186] 作为一个示例,可以基于第二坐标与第一坐标之间纵坐标的差值、第二坐标与第一坐标之间横坐标的差值,以及反正切函数计算航向角。
[0187] 在初始化航向角之后,可以根据该检测车辆的车辆像素位置、该检测车辆的尺寸信息、以及该检测车辆的航向角,采用三角测距原理计算该检测车辆的位置信息。
[0188] 基于三角测距原理计算检测车辆的位置信息的过程可以参见上文,此处不赘述。由于计算得到的位置信息是相对车辆坐标系的,因此可以将其转换到全局坐标系下,得到
检测车辆的初始化的位置信息。
[0189] 此外,还可以初始化无迹卡尔曼滤波器的参数,包括过程噪声 ,测量噪声 ,方差矩阵 以及无迹转换参数 。
[0190] 本申请实施例中,如果当前图像帧的检测车辆与上一帧确定的跟踪车辆的匹配结果为第三种情况,即某一跟踪车辆无法匹配检测车辆。则可能是该跟踪车辆已离开车辆视
野,可以将该跟踪车辆的状态信息删除。或者,暂时保留该跟踪车辆的状态信息,若后续几
帧图像的检测车辆均无法与该跟踪车辆相匹配,再将该跟踪车辆的状态信息删除。
[0191] 相应于本申请实施例提供的车辆跟踪方法实施例,本申请实施例还提供了一种车辆跟踪装置,参见图8,装置可以包括以下模块:
[0192] 检测模块801,用于对实时采集的图像帧进行车辆检测,得到每帧图像的检测车辆的车辆像素位置;
[0193] 匹配模块802,用于针对当前图像帧,基于当前图像帧的检测车辆与上一帧确定的跟踪车辆的相似度,匹配检测车辆和跟踪车辆;
[0194] 更新模块803,用于针对与检测车辆匹配成功的跟踪车辆,基于该跟踪车辆的状态信息、该检测车辆的车辆像素位置,采用滤波算法更新该跟踪车辆的状态信息,状态信息包
括车辆的物理位置、速度信息、尺寸信息和航向角;其中,滤波算法采用的非线性变换函数
表示车辆的状态信息与车辆像素位置的非线性映射关系。
[0195] 采用本申请实施例提供的车辆跟踪装置,对实时采集的图像帧进行车辆检测,得到每帧图像的检测车辆的车辆像素位置;针对当前图像帧,基于当前图像帧的检测车辆与
上一帧确定的跟踪车辆的相似度,匹配检测车辆和跟踪车辆;针对与检测车辆匹配成功的
跟踪车辆,基于该跟踪车辆的状态信息、该检测车辆的车辆像素位置,采用滤波算法更新该
跟踪车辆的状态信息,状态信息包括车辆的物理位置、速度信息、尺寸信息和航向角;其中,
滤波算法采用的非线性变换函数表示车辆的状态信息与车辆像素位置的非线性映射关系。
可见,构建了车辆状态信息与车辆像素位置的非线性映射关系,并基于该非线性映射关系,
采用滤波算法更新跟踪车辆的状态信息。可见,不需要确定车辆所在平面,并且车辆状态信
息与车辆像素位置的非线性映射关系不会受到车身俯仰和地面坡度的影响,因此能够提高
车辆跟踪的准确性、稳定性。
[0196] 其中,方法和装置是基于同一申请构思的,由于方法和装置解决问题的原理相似,因此装置和方法的实施可以相互参见,重复之处不再赘述。
[0197] 本申请实施例还提供了一种电子设备,如图9所示,包括处理器901、通信接口902、存储器903和通信总线904,其中,处理器901,通信接口902,存储器903通过通信总线904完
成相互间的通信,
[0198] 存储器903,用于存放计算机程序;
[0199] 处理器901,用于执行存储器903上所存放的程序时,实现如下步骤:
[0200] 对实时采集的图像帧进行车辆检测,得到每帧图像的检测车辆的车辆像素位置;
[0201] 针对当前图像帧,基于当前图像帧的检测车辆与上一帧确定的跟踪车辆的相似度,匹配检测车辆和跟踪车辆;
[0202] 针对与检测车辆匹配成功的跟踪车辆,基于该跟踪车辆的状态信息、该检测车辆的车辆像素位置,采用滤波算法更新该跟踪车辆的状态信息,状态信息包括车辆的物理位
置、速度信息、尺寸信息和航向角;其中,滤波算法采用的非线性变换函数表示车辆的状态
信息与车辆像素位置的非线性映射关系。
[0203] 上述电子设备提到的通信总线可以是外设部件互连标准(Peripheral Component Interconnect,PCI)总线或扩展工业标准结构(Extended Industry  Standard 
Architecture,EISA)总线等。该通信总线可以分为地址总线、数据总线、控制总线等。为便
于表示,图中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
[0204] 通信接口用于上述电子设备与其他设备之间的通信。
[0205] 存储器可以包括随机存取存储器(Random Access Memory,RAM),也可以包括非易失性存储器(Non‑Volatile Memory,NVM),例如至少一个磁盘存储器。可选的,存储器还可
以是至少一个位于远离前述处理器的存储装置。
[0206] 上述的处理器可以是通用处理器,包括中央处理器(Central Processing Unit,CPU)、网络处理器(Network Processor,NP)等;还可以是数字信号处理器(Digital Signal 
Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现
场可编程门阵列(Field‑Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立
门或者晶体管逻辑器件、分立硬件组件。
[0207] 采用本申请实施例提供的电子设备,对实时采集的图像帧进行车辆检测,得到每帧图像的检测车辆的车辆像素位置;针对当前图像帧,基于当前图像帧的检测车辆与上一
帧确定的跟踪车辆的相似度,匹配检测车辆和跟踪车辆;针对与检测车辆匹配成功的跟踪
车辆,基于该跟踪车辆的状态信息、该检测车辆的车辆像素位置,采用滤波算法更新该跟踪
车辆的状态信息,状态信息包括车辆的物理位置、速度信息、尺寸信息和航向角;其中,滤波
算法采用的非线性变换函数表示车辆的状态信息与车辆像素位置的非线性映射关系。可
见,构建了车辆状态信息与车辆像素位置的非线性映射关系,并基于该非线性映射关系,采
用滤波算法更新跟踪车辆的状态信息。可见,不需要确定车辆所在平面,并且车辆状态信息
与车辆像素位置的非线性映射关系不会受到车身俯仰和地面坡度的影响,因此能够提高车
辆跟踪的准确性、稳定性。
[0208] 在本申请提供的又一实施例中,还提供了一种计算机可读存储介质,该计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现上述任一车辆跟踪
方法的步骤。
[0209] 在本申请提供的又一实施例中,还提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述实施例中任一车辆跟踪方法的步骤。
[0210] 在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序
产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或
部分地产生按照本申请实施例所述的流程或功能。所述计算机可以是通用计算机、专用计
算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质
中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机
指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字
用户线(DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或
数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者
是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以
是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘
Solid State Disk (SSD))等。
[0211] 需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存
在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖
非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要
素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备
所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在
包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
[0212] 本说明书中的各个实施例均采用相关的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于车辆跟
踪装置、电子设备、计算机可读存储介质及计算机程序产品实施例而言,由于其基本相似于
车辆跟踪方法实施例,所以描述的比较简单,相关之处参见车辆跟踪方法实施例的部分说
明即可。
[0213] 以上所述仅为本申请的较佳实施例,并非用于限定本申请的保护范围。凡在本申请的精神和原则之内所作的任何修改、等同替换、改进等,均包含在本申请的保护范围内。