车辆逆行检测的方法、装置、终端设备及存储介质转让专利

申请号 : CN202210962655.1

文献号 : CN115482672B

文献日 :

基本信息:

PDF:

法律信息:

相似专利:

发明人 : 李翠

申请人 : 西安天和防务技术股份有限公司

摘要 :

本申请提供了一种车辆逆行检测的方法、装置、终端设备及存储介质,包括:首先获取包括多个车辆目标的场景视频图像和点云图像,对点云图像进行聚类计算,得到目标映射图像数据,然后基于图像检测模型对场景视频图像进行计算,得到车辆目标数据,对目标映射图像数据和车辆目标数据进行融合,得到融合数据,最后基于多目标跟踪算法对融合数据进行计算,确定每个车道对应的多个车辆目标,对多个车辆目标当前时刻的距离信息与上一时刻的距离信息作差得到第一距离差,根据第一距离差检测多个车辆目标是否逆行。该方法将激光雷达与相机结合确定车辆的行驶区域,根据多目标跟踪算法计算车辆目标的距离信息检测车辆是否逆行,提高了车辆逆行检测的准确性。

权利要求 :

1.一种车辆逆行检测的方法,包括:

获取包括多个车辆目标的场景视频图像和点云图像;

对所述点云图像进行聚类计算,得到目标映射图像数据;其中,所述目标映射图像数据包括所述多个车辆目标的距离信息;

基于图像检测模型对所述场景视频图像进行计算,得到车辆目标数据;其中,所述图像检测模型是基于视觉检测算法与场景训练视频图像训练得到的;

对所述目标映射图像数据和所述车辆目标数据进行融合,得到融合数据;

基于多目标跟踪算法对所述融合数据进行计算,确定每个车道对应的多个车辆目标;

对所述多个车辆目标进行标号;

基于所述标号计算当前时刻与上一时刻的所述多个车辆目标的距离信息的第一距离差;

将所述多个第一距离差从小到大依次排序,选取所述第一距离差中的距离差最大值和距离差最小值;

判断第一数值与第二数值是否相等,若所述第一数值等于所述第二数值,则判定所述多个车辆目标均正向行驶;其中,所述第一数值为所述距离差最大值与所述距离差最小值的和的绝对值数值,所述第二数值为所述距离差最大值的绝对值与所述距离差最小值的绝对值的和的数值。

2.如权利要求1所述的方法,其特征在于,在获取场景视频图像和点云图像之后,包括:对激光雷达和相机进行标定,得到相机内参信息和雷达相机外参信息;

基于所述激光雷达反射强度对车道线进行检测,确定车辆的行驶区域;

基于所述雷达相机外参信息将所述行驶区域映射到所述场景视频图像。

3.如权利要求2所述的方法,其特征在于,所述对所述点云图像进行聚类计算,得到目标映射图像数据,包括:基于密度聚类算法选取所述点云图像中的高密度点;

将所述高密度点连接组成目标区域;

基于雷达相机外参信息将所述目标区域映射到所述场景视频图像上,得到目标映射图像数据。

4.如权利要求1所述的方法,其特征在于,所述车辆目标数据包括所述多个车辆目标的包围框坐标和测试值;

所述基于图像检测模型对所述场景视频图像进行计算,得到车辆目标数据,包括:基于所述图像检测模型计算所述场景视频图像中的所述多个车辆目标的包围框坐标;

基于所述包围框坐标记录多个时刻的所述多个车辆目标与传感器的第二距离差的变化;其中,传感器设置于相机上;

根据所述第二距离差确定所述测试值。

5.如权利要求4所述的方法,其特征在于,在判断第一数值与第二数值是否相等之后,还包括:若所述第一数值大于和/或小于所述第二数值,则判定存在车辆目标逆向行驶;

判断第三数值与第四数值是否相等;其中,所述第三数值为所述距离差最大值与所述测试值的和的绝对值数值,所述第四数值为所述距离差最大值的绝对值与所述测试值的绝对值的和的数值;

若所述第三数值与第四数值不相等,则依次选取所述第一距离差中小于距离差最大值的距离差;

依次判断所述距离差与所述测试值的绝对值数值是否等于所述距离差的绝对值与所述测试值的绝对值的和的数值;

将不相等的所述距离差对应的车辆目标标记为逆向行驶。

6.如权利要求5所述的方法,其特征在于,在判定存在车辆目标逆向行驶之后,还包括:判断第五数值与第六数值是否相等;其中,所述第五数值为所述距离差最小值与所述测试值的和的绝对值数值,所述第六数值为所述距离差最小值的绝对值与所述测试值的绝对值的和的数值;

若所述第五数值与第六数值不相等,则依次选取所述第一距离差中大于距离差最小值的距离差;

依次判断所述距离差与所述测试值的绝对值数值是否等于所述距离差的绝对值与所述测试值的绝对值的和的数值;

将不相等的所述距离差对应的车辆目标标记为逆向行驶。

7.一种车辆逆行检测的装置,包括:

图像获取模块,用于获取包括多个车辆目标的场景视频图像和点云图像;

图像数据计算模块,用于对所述点云图像进行聚类计算,得到目标映射图像数据;其中,所述目标映射图像数据包括所述多个车辆目标的距离信息;

车辆目标数据计算模块,用于基于图像检测模型对所述场景视频图像进行计算,得到车辆目标数据;其中,所述图像检测模型是基于视觉检测算法与场景训练视频图像训练得到的;

融合数据计算模块,用于对所述目标映射图像数据和所述车辆目标数据进行融合,得到融合数据;

车辆目标确定模块,用于基于多目标跟踪算法对所述融合数据进行计算,确定每个车道对应的多个车辆目标;

行驶方向检测模块,用于对所述多个车辆目标进行标号,并基于所述标号计算当前时刻与上一时刻的所述多个车辆目标的距离信息的第一距离差,并将所述多个第一距离差从小到大依次排序,选取所述第一距离差中的距离差最大值和距离差最小值,并判断第一数值与第二数值是否相等,若所述第一数值等于所述第二数值,则判定所述多个车辆目标均正向行驶;其中,所述第一数值为所述距离差最大值与所述距离差最小值的和的绝对值数值,所述第二数值为所述距离差最大值的绝对值与所述距离差最小值的绝对值的和的数值。

8.一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至6任一项所述的方法。

9.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至6任一项所述的方法。

说明书 :

车辆逆行检测的方法、装置、终端设备及存储介质

技术领域

[0001] 本申请属于交通技术领域,尤其涉及一种车辆逆行检测的方法、装置、终端设备及存储介质。

背景技术

[0002] 目前,车辆违章逆行会导致道路通行能力下降,导致车辆拥堵、交通事故频繁发生,影响交通安全。
[0003] 现有技术中对路端进行监控的方法是利用视频图像处理以及深度学习算法实现车辆目标的识别,或者通过视频图像中目标车辆的运行轨迹,利用车道分割模型确定车道信息,检测目标车辆是否逆行。
[0004] 以上两种方法通过相机获取视频图像,在实际应用中,由于天气影响如下雨刮风会影响相机的图像质量,从而影响目标车辆逆行检测的准确性。

发明内容

[0005] 本申请实施例提供了车辆逆行检测的方法、装置、终端设备及存储介质,可以提高目标车辆逆行检测的准确性。
[0006] 第一方面,本申请实施例提供了一种车辆逆行检测的方法,包括:
[0007] 获取包括多个车辆目标的场景视频图像和点云图像;
[0008] 对点云图像进行聚类计算,得到目标映射图像数据;其中,目标映射图像数据包括多个车辆目标的距离信息;
[0009] 基于图像检测模型对场景视频图像进行计算,得到车辆目标数据;其中,图像检测模型是基于视觉检测算法与场景训练视频图像训练得到的;
[0010] 对目标映射图像数据和车辆目标数据进行融合,得到融合数据;
[0011] 基于多目标跟踪算法对融合数据进行计算,确定每个车道对应的多个车辆目标;
[0012] 对多个车辆目标当前时刻的距离信息与上一时刻的距离信息作差得到第一距离差,根据第一距离差检测多个车辆目标是否逆行。
[0013] 可选地,在获取场景视频图像和点云图像之后,包括:
[0014] 对激光雷达和相机进行标定,得到相机内参信息和雷达相机外参信息;
[0015] 基于激光雷达反射强度对车道线进行检测,确定车辆的行驶区域;
[0016] 基于雷达相机外参信息将行驶区域映射到场景视频图像。
[0017] 可选地,对点云图像进行聚类计算,得到目标映射图像数据,包括:
[0018] 基于密度聚类算法选取点云图像中的高密度点;
[0019] 将高密度点连接组成目标区域;
[0020] 基于雷达相机外参信息将目标区域映射到场景视频图像上,得到目标映射图像数据。
[0021] 可选地,车辆目标数据包括多个车辆目标的包围框坐标和测试值;
[0022] 基于图像检测模型对场景视频图像进行计算,得到车辆目标数据,包括:
[0023] 基于图像检测模型计算场景视频图像中的多个车辆目标的包围框坐标;
[0024] 基于包围框坐标记录多个时刻的多个车辆目标与传感器的第二距离差的变化;其中,传感器设置于相机上;
[0025] 根据第二距离差确定测试值。
[0026] 可选地,基于多个车辆目标当前时刻与上一时刻的第一距离差,检测多个车辆目标是否逆行,包括:
[0027] 对多个车辆目标进行标号;
[0028] 基于标号计算当前时刻与上一时刻的多个车辆目标的距离信息的第一距离差;
[0029] 将多个第一距离差从小到大依次排序,选取第一距离差中的距离差最大值和距离差最小值;
[0030] 判断第一数值与第二数值是否相等,若第一数值等于第二数值,则判定多个车辆目标均正向行驶;其中,第一数值为距离差最大值与距离差最小值的和的绝对值数值,第二数值为距离差最大值的绝对值与距离差最小值的绝对值的和的数值。
[0031] 可选地,在判断第一数值与第二数值是否相等之后,还包括:
[0032] 若第一数值大于和/或小于第二数值,则判定存在车辆目标逆向行驶;
[0033] 判断第三数值与第四数值是否相等;其中,第三数值为距离差最大值与测试值的和的绝对值数值,第四数值为距离差最大值的绝对值与测试值的绝对值的和的数值;
[0034] 若第三数值与第四数值不相等,则依次选取第一距离差中小于距离差最大值的距离差;
[0035] 依次判断距离差与测试值的绝对值数值是否等于距离差的绝对值与测试值的绝对值的和的数值;
[0036] 将不相等的距离差对应的车辆目标标记为逆向行驶。
[0037] 可选地,在判定存在车辆目标逆向行驶之后,还包括:
[0038] 判断第五数值与第六数值是否相等;其中,第五数值为距离差最小值与测试值的和的绝对值数值,第六数值为距离差最小值的绝对值与测试值的绝对值的和的数值;
[0039] 若第五数值与第六数值不相等,则依次选取第一距离差中大于距离差最小值的距离差;
[0040] 依次判断距离差与测试值的绝对值数值是否等于距离差的绝对值与测试值的绝对值的和的数值;
[0041] 将不相等的距离差对应的车辆目标标记为逆向行驶。
[0042] 第二方面,本申请实施例提供了一种车辆逆行检测的装置,包括:
[0043] 图像获取模块,用于获取包括多个车辆目标的场景视频图像和点云图像;
[0044] 图像数据计算模块,用于对点云图像进行聚类计算,得到目标映射图像数据;其中,目标映射图像数据包括多个车辆目标的距离信息;
[0045] 车辆目标数据计算模块,用于基于图像检测模型对场景视频图像进行计算,得到车辆目标数据;其中,图像检测模型是基于视觉检测算法与场景训练视频图像训练得到的;
[0046] 融合数据计算模块,用于对目标映射图像数据和车辆目标数据进行融合,得到融合数据;
[0047] 车辆目标确定模块,用于基于多目标跟踪算法对融合数据进行计算,确定每个车道对应的多个车辆目标;
[0048] 行驶方向检测模块,用于对多个车辆目标当前时刻的距离信息与上一时刻的距离信息作差得到第一距离差,根据第一距离差检测多个车辆目标是否逆行。
[0049] 第三方面,本申请实施例提供了一种终端设备,包括存储器、处理器以及存储在存储器中并可在处理器上运行的计算机程序,处理器执行计算机程序时实现上述第一方面任一项所述的车辆逆行检测的方法。
[0050] 第四方面,本申请实施例提供了一种计算机可读存储介质,计算机可读存储介质存储有计算机程序,计算机程序被处理器执行时实现上述第一方面任一项所述的车辆逆行检测的方法。
[0051] 第五方面,本申请实施例提供了一种计算机程序产品,当计算机程序产品在终端设备上运行时,使得终端设备执行上述第一方面中任一项所述的车辆逆行检测的方法。
[0052] 本申请实施例与现有技术相比存在的有益效果是:
[0053] 本申请提供了一种车辆逆行检测的方法、装置、终端设备及存储介质,包括:首先获取包括多个车辆目标的场景视频图像和点云图像,对点云图像进行聚类计算,得到目标映射图像数据,然后基于图像检测模型对场景视频图像进行计算,得到车辆目标数据,对目标映射图像数据和车辆目标数据进行融合,得到融合数据,最后基于多目标跟踪算法对融合数据进行计算,确定每个车道对应的多个车辆目标,对多个车辆目标当前时刻的距离信息与上一时刻的距离信息作差得到第一距离差,根据第一距离差检测多个车辆目标是否逆行。该方法通过多传感器联动,将激光雷达与相机结合确定车辆的行驶区域,获取车辆目标信息,将目标映射图像数据和车辆目标数据进行融合,根据多目标跟踪算法检测车辆是否逆行,提高了车辆逆行检测的准确性。

附图说明

[0054] 为了更清楚地说明本申请实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
[0055] 图1是本申请一实施例提供的车辆逆行检测的方法的流程示意图;
[0056] 图2是本申请一实施例提供的步骤S103的流程示意图;
[0057] 图3是本申请一实施例提供的步骤S106的流程示意图;
[0058] 图4是本申请一实施例提供的步骤S106另一的流程示意图;
[0059] 图5是本申请实施例提供的车辆逆行检测的装置的结构示意图;
[0060] 图6是本申请实施例提供的终端设备的结构示意图。

具体实施方式

[0061] 以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本申请实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本申请。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本申请的描述。
[0062] 应当理解,当在本申请说明书和所附权利要求书中使用时,术语“包括”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
[0063] 还应当理解,在本申请说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
[0064] 如在本申请说明书和所附权利要求书中所使用的那样,术语“如果”可以依据上下文被解释为“当...时”或“一旦”或“响应于确定”或“响应于检测到”。类似地,短语“如果确定”或“如果检测到[所描述条件或事件]”可以依据上下文被解释为意指“一旦确定”或“响应于确定”或“一旦检测到[所描述条件或事件]”或“响应于检测到[所描述条件或事件]”。
[0065] 另外,在本申请说明书和所附权利要求书的描述中,术语“第一”、“第二”、“第三”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
[0066] 在本申请说明书中描述的参考“一个实施例”或“一些实施例”等意味着在本申请的一个或多个实施例中包括结合该实施例描述的特定特征、结构或特点。由此,在本说明书中的不同之处出现的语句“在一个实施例中”、“在一些实施例中”、“在其他一些实施例中”、“在另外一些实施例中”等不是必然都参考相同的实施例,而是意味着“一个或多个但不是所有的实施例”,除非是以其他方式另外特别强调。术语“包括”、“包含”、“具有”及它们的变形都意味着“包括但不限于”,除非是以其他方式另外特别强调。
[0067] 随着我国经济持续高速的发展,机动车保有量不断增加,交通拥堵、交通事故频发等问题随之增加。车辆的违章行为会增加交通拥堵、交通事故频发等问题出现,对交通的正常运行造成严重的危害,导致道路通行能力下降,造成交通拥堵,同时也会导致交通事故频发,严重影响交通安全。
[0068] 基于此,本申请提供的一种车辆逆行检测的方法,图1为车辆逆行检测的方法的流程示意图图,作为示例而非限定,该方法可以应用于笔记本电脑、超级移动个人计算机(ultra‑mobile personal computer,UMPC)、上网本、个人数字助理(personal digital assistant,PDA)等终端设备中,该方法包括:
[0069] S101:获取包括多个车辆目标的场景视频图像和点云图像。
[0070] 具体地,监控摄像头与上述终端设备智能连接,通过采集城市道路的监控摄像头获取包括车辆目标的场景视频图像,将场景视频图像上传至上述终端设备,终端设备通过ROS(Robot Operating System)机器人操作系统接入激光雷达装置,接收激光雷达发布的点云图像。
[0071] 将监控摄像头相机与激光雷达进行标定,可以计算得到相机内参信息以及雷达与相机的外参信息。
[0072] S102:对点云图像进行聚类计算,得到目标映射图像数据;其中,目标映射图像数据包括多个车辆目标的距离信息。
[0073] 具体地,通过密度聚类算法对点云图像进行聚类,即用矩形包围框选取点云图像中的高密度点,从而获取感兴趣区域即目标区域。通过相机与雷达装置的外参矩阵信息将目标区域映射到场景视频图像上,得到目标映射图像数据。
[0074] S103:基于图像检测模型对场景视频图像进行计算,得到车辆目标数据;其中,图像检测模型是基于视觉检测算法与场景训练视频图像训练得到的。
[0075] 具体地,预先利用大量的场景视频训练图像通过YOLOV5算法训练图像检测模型,首先对场景训练视频图像进行预处理,输入端将输入的场景训练视频图像缩放到网络的输入大小,进行归一化处理。然后基于场景训练视频图像进行网络训练,提升图像检测模型的训练速度和网络的精度,通过输出端完成目标检测结果的输出。从而完成对图像检测模型的训练,以使图像检测模型对获取到的场景视频图像进行检测,计算得出图像中车辆目标的包围框坐标和车辆类别信息,车辆类别信息包括但不限于轿车、货车、客车、挂车、非完整车辆、摩托车等。
[0076] 具体地,场景训练视频图像训练需要获取场景训练视频图像,根据场景训练视频图像获取车辆行驶图像数,根据车辆行驶图像数据确定车辆目标数据采集样本。基于视觉检测算法和车辆目标数据采集样本训练得到图像检测模型。预先获取大量的场景训练视频图像,根据场景训练视频图像获取车辆行驶的图像数据如车辆的行驶方向,车辆类别等。根据车辆行驶图像数据确定车辆目标数据的采集样本,根据视觉检测算法训练得到图像检测模型对车辆目标进行检测。
[0077] S104:对目标映射图像数据和车辆目标数据进行融合,得到融合数据。
[0078] 具体地,将目标映射图像数据和车辆目标数据进行叠加,选取重合的部分作为融合数据,车辆目标数据包括车辆目标的包围框坐标,目标映射图像数据包括目标区域的矩形包围框坐标,对车辆目标的包围框坐标与目标区域的矩形包围框坐标进行叠加,得到叠加图像数据。选取叠加图像数据中重合的图像数据作为融合数据,融合数据包括点云图像中车辆目标的距离信息、场景视频图像中车辆目标的车辆类别以及包围框坐标。
[0079] S105:基于多目标跟踪算法对融合数据进行计算,确定每个车道对应的多个车辆目标。
[0080] 具体地,基于多目标跟踪算法对融合数据进行计算,首先基于融合数据运行对象检测器获取包括车辆目标的边界框,对于检测到的车辆目标计算出不同的特征,其中,特征包括但不限于视觉特征如车辆目标的颜色和运动特征如车辆目标的运动状态,根据相似度计算检测到的车辆目标为同一目标的概率,对同一目标的车辆目标进行标号。
[0081] 具体地,根据每个车道的行驶区域确定每个车道中的车辆目标,对车辆目标进行标号。
[0082] S106:对所述多个车辆目标当前时刻的所述距离信息与上一时刻的所述距离信息作差得到第一距离差,根据所述第一距离差检测所述多个车辆目标是否逆行。
[0083] 具体地,根据相邻帧跟踪结果中对应的车辆目标的距离信息,判断车辆目标是否存在逆行。首先计算上一时刻的车辆目标个数,对每个车辆目标进行标号并计算上一时刻的距离信息,然后计算当前时刻的车辆目标个数,计算当前时刻的距离信息,对每个车辆目标的当前距离信息与上一时刻距离信息作差,得到第一距离差,根据第一距离差检测所述车辆目标是否存在逆行。
[0084] 在一个实施例中,步骤S101之后,包括:
[0085] S107:对激光雷达和相机进行标定,得到相机内参信息和雷达相机外参信息;
[0086] S108:基于激光雷达反射强度对车道线进行检测,确定车辆的行驶区域;
[0087] S109:基于雷达相机外参信息将行驶区域映射到场景视频图像。
[0088] 具体地,根据ROS系统对激光雷达和相机进行标定,分别得到相机的内参信息即内参矩阵和雷达相机外参信息即外参矩阵。激光雷达基于对道路路面的反射强度确定车道线,车道线通常采用黄色或白色的特性涂层,对激光雷达呈高反射,路面对激光雷达呈低反射,由此区分车道线和路面,从而确定车辆的行驶区域,通过外参矩阵将行驶区域映射至场景视频图像上。
[0089] 在一个实施例中,步骤S102,包括:
[0090] S1021:基于密度聚类算法选取点云图像中的高密度点;
[0091] S1022:将高密度点连接组成目标区域;
[0092] S1023:基于雷达相机外参信息将目标区域映射到场景视频图像上,得到目标映射图像数据。
[0093] 具体地,根据密度聚类算法对点云图像进行聚类计算,选取点云图像中高密度的点,用矩形包围框包围高密度的点得到目标区域,基于外参矩阵将目标区域映射到场景视频图像上,得到目标映射图像数据,其中,目标映射图像数据包括车辆目标的距离信息。
[0094] 在一个实施例中,如图2所示,步骤S103,包括:
[0095] S1031:基于图像检测模型计算场景视频图像中的多个车辆目标的包围框坐标;
[0096] S1032:基于包围框坐标记录多个时刻的多个车辆目标与传感器的第二距离差的变化;其中,传感器设置于相机上;
[0097] S1033:根据第二距离差确定测试值。
[0098] 具体地,车辆目标数据包括多个车辆目标的包围框坐标和测试值。目标图像检测模型对场景图像数据进行检测计算,确定图像中车辆目标的包围框坐标,根据包围框坐标记录多个时刻的车辆目标的坐标以及车辆目标与传感器的第二距离差。如果车辆目标的多个时刻的第二距离差逐渐增大,表示车辆目标远离传感器,此时测试值为1。如果车辆目标的多个时刻的第二距离差逐渐减小,表示车辆目标靠近传感器,此时测试值为‑1。
[0099] 在一个实施例中,如图3所示,步骤S106,包括:
[0100] S1061:对多个车辆目标进行标号;
[0101] S1062:基于标号计算当前时刻与上一时刻的多个车辆目标的距离信息的第一距离差;
[0102] S1063:将多个第一距离差从小到大依次排序,选取第一距离差中的距离差最大值和距离差最小值;
[0103] S1064:判断第一数值与第二数值是否相等,若第一数值等于第二数值,则判定多个车辆目标均正向行驶;其中,第一数值为距离差最大值与距离差最小值的和的绝对值数值,第二数值为距离差最大值的绝对值与距离差最小值的绝对值的和的数值。
[0104] 具体地,将多个车辆目标进行标号,对多个车辆目标的当前时刻的距离信息与上一时刻的距离信息作差,得到多个第一距离差,将多个第一距离差从小到大依次排序,选取其中距离差最大值以及距离差最小值。
[0105] 计算第一数值即距离差最大值和距离差最小值的和的绝对值,计算第二数值即距离差最大值的绝对值与距离差最小值的绝对值的和,比较第一数值与第二数值是否相等,如果相等,则多个车辆目标均正向行驶。
[0106] 在一个实施例中,如图4所示,在步骤S1064之后,还包括:
[0107] S1065:若第一数值大于和/或小于第二数值,则判定存在车辆目标逆向行驶;
[0108] S1066:判断第三数值与第四数值是否相等;其中,第三数值为距离差最大值与测试值的和的绝对值数值,第四数值为距离差最大值的绝对值与测试值的绝对值的和的数值;
[0109] S1067:若第三数值与第四数值不相等,则依次选取第一距离差中小于距离差最大值的距离差;
[0110] S1068:依次判断距离差与测试值的绝对值数值是否等于距离差的绝对值与测试值的绝对值的和的数值;
[0111] S1069:将不相等的距离差对应的车辆目标标记为逆向行驶。
[0112] 具体地,如果第一数值与第二数值不相等,则判定多个车辆目标中存在逆向行驶的车辆目标。
[0113] 计算第三数值即距离差最大值与测试值的和的绝对值数值,计算第四数值即距离差最大值的绝对值与测试值的绝对值的和的数值,比较第三数值与第四数值是否相等,如果第三数值与第四数值不相等,则依次选取第一距离差中小于距离差最大值的数值,依次计算选取的距离差和测试值的绝对值数值与距离差的绝对值和测试值的绝对值的和的数值是否相等,将不相等的距离差数值对应的车辆目标标记为逆向行驶。
[0114] 在一个实施例中,步骤S1065之后,还包括:
[0115] S10610:判断第五数值与第六数值是否相等;其中,第五数值为距离差最小值与测试值的和的绝对值数值,第六数值为距离差最小值的绝对值与测试值的绝对值的和的数值;
[0116] S10611:若第五数值与第六数值不相等,则依次选取第一距离差中大于距离差最小值的距离差;
[0117] S10612:依次判断距离差与测试值的绝对值数值是否等于距离差的绝对值与测试值的绝对值的和的数值;
[0118] S10613:将不相等的距离差对应的车辆目标标记为逆向行驶。
[0119] 具体地,如果第一数值与第二数值不相等,则判定多个车辆目标中存在逆向行驶的车辆目标。
[0120] 计算第五数值即距离差最小值与测试值的和的绝对值数值,计算第六数值即距离差最小值的绝对值与测试值的绝对值的和的数值,比较第五数值与第六数值是否相等,如果第五数值与第六数值不相等,则依次选取第一距离差中大于距离差最小值的数值,依次计算选取的距离差和测试值的绝对值数值与距离差的绝对值和测试值的绝对值的和的数值是否相等,将不相等的距离差数值对应的车辆目标标记为逆向行驶。
[0121] 本申请通过首先获取包括多个车辆目标的场景视频图像和点云图像,对点云图像进行聚类计算,得到目标映射图像数据,然后基于图像检测模型对场景视频图像进行计算,得到车辆目标数据,对目标映射图像数据和车辆目标数据进行融合,得到融合数据,最后基于多目标跟踪算法对融合数据进行计算,确定每个车道对应的多个车辆目标,对多个车辆目标当前时刻的距离信息与上一时刻的距离信息作差得到第一距离差,根据第一距离差检测多个车辆目标是否逆行。该方法通过多传感器联动,将激光雷达与相机结合确定车辆的行驶区域,获取车辆目标信息,将目标映射图像数据和车辆目标数据进行融合,根据多目标跟踪算法检测车辆是否逆行,提高了车辆逆行检测的准确性。
[0122] 应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
[0123] 对应于上文实施例所述的车辆逆行检测的方法,图5示出了本申请实施例提供的车辆逆行检测的装置的结构示意图,为了便于说明,仅示出了与本申请实施例相关的部分。
[0124] 参照图5,该装置500包括:
[0125] 图像获取模块501,用于获取包括多个车辆目标的场景视频图像和点云图像;
[0126] 图像数据计算模块502,用于对点云图像进行聚类计算,得到目标映射图像数据;其中,目标映射图像数据包括多个车辆目标的距离信息;
[0127] 车辆目标数据计算模块503,用于基于图像检测模型对场景视频图像进行计算,得到车辆目标数据;其中,图像检测模型是基于视觉检测算法与场景训练视频图像训练得到的;
[0128] 融合数据计算模块504,用于对目标映射图像数据和车辆目标数据进行融合,得到融合数据;
[0129] 车辆目标确定模块505,用于基于多目标跟踪算法对融合数据进行计算,确定每个车道对应的多个车辆目标;
[0130] 行驶方向检测模块506,用于对多个车辆目标当前时刻的距离信息与上一时刻的距离信息作差得到第一距离差,根据第一距离差检测多个车辆目标是否逆行。
[0131] 在一个实施例中,装置500还包括:
[0132] 标定模块,用于对激光雷达和相机进行标定,得到相机内参信息和雷达相机外参信息;
[0133] 行驶区域确定模块,用于基于激光雷达反射强度对车道线进行检测,确定车辆的行驶区域;
[0134] 映射模块,用于基于雷达相机外参信息将行驶区域映射到场景视频图像。
[0135] 在一个实施例中,图像数据计算模块502,包括:
[0136] 高密度点选取单元,用于基于密度聚类算法选取点云图像中的高密度点;
[0137] 目标区域组成单元,用于将高密度点连接组成目标区域;
[0138] 目标映射图像数据计算单元,用于基于雷达相机外参信息将目标区域映射到场景视频图像上,得到目标映射图像数据。
[0139] 在一个实施例中,车辆目标数据计算模块503,包括:
[0140] 包围框坐标计算单元,用于基于图像检测模型计算场景视频图像中的多个车辆目标的包围框坐标;
[0141] 第二距离差记录单元,用于基于包围框坐标记录多个时刻的多个车辆目标与传感器的第二距离差的变化;其中,传感器设置于相机上;
[0142] 测试值确定单元,用于根据第二距离差确定测试值。
[0143] 在一个实施例中,行驶方向检测模块506,包括:
[0144] 标号单元,用于对多个车辆目标进行标号;
[0145] 第一距离差计算单元,用于基于标号计算当前时刻与上一时刻的多个车辆目标的距离信息的第一距离差;
[0146] 排序单元,用于将多个第一距离差从小到大依次排序,选取第一距离差中的距离差最大值和距离差最小值;
[0147] 第一判断数值单元,用于判断第一数值与第二数值是否相等,若第一数值等于第二数值,则判定多个车辆目标均正向行驶;其中,第一数值为距离差最大值与距离差最小值的和的绝对值数值,第二数值为距离差最大值的绝对值与距离差最小值的绝对值的和的数值。
[0148] 在一个实施例中,行驶方向检测模块506,还包括:
[0149] 行驶方向确定单元,用于若第一数值大于和/或小于第二数值,则判定存在车辆目标逆向行驶;
[0150] 第二判断数值单元,用于判断第三数值与第四数值是否相等;其中,第三数值为距离差最大值与测试值的和的绝对值数值,第四数值为距离差最大值的绝对值与测试值的绝对值的和的数值;
[0151] 第一距离差选取单元,用于若第三数值与第四数值不相等,则依次选取第一距离差中小于距离差最大值的距离差;
[0152] 第三判断数值单元,用于依次判断距离差与测试值的绝对值数值是否等于距离差的绝对值与测试值的绝对值的和的数值;
[0153] 第一标记单元,用于将不相等的距离差对应的车辆目标标记为逆向行驶。
[0154] 在一个实施例中,行驶方向检测模块506,还包括:
[0155] 第四判断数值单元,用于判断第五数值与第六数值是否相等;其中,第五数值为距离差最小值与测试值的和的绝对值数值,第六数值为距离差最小值的绝对值与测试值的绝对值的和的数值;
[0156] 第二距离差选取单元,用于若第五数值与第六数值不相等,则依次选取第一距离差中大于距离差最小值的距离差;
[0157] 第五判断数值单元,用于依次判断距离差与测试值的绝对值数值是否等于距离差的绝对值与测试值的绝对值的和的数值;
[0158] 第二标记单元,用于将不相等的距离差对应的车辆目标标记为逆向行驶。
[0159] 本申请通过首先获取包括多个车辆目标的场景视频图像和点云图像,对点云图像进行聚类计算,得到目标映射图像数据,然后基于图像检测模型对场景视频图像进行计算,得到车辆目标数据,对目标映射图像数据和车辆目标数据进行融合,得到融合数据,最后基于多目标跟踪算法对融合数据进行计算,确定每个车道对应的多个车辆目标,对多个车辆目标当前时刻的距离信息与上一时刻的距离信息作差得到第一距离差,根据第一距离差检测多个车辆目标是否逆行。该方法通过多传感器联动,将激光雷达与相机结合确定车辆的行驶区域,获取车辆目标信息,将目标映射图像数据和车辆目标数据进行融合,根据多目标跟踪算法检测车辆是否逆行,提高了车辆逆行检测的准确性。
[0160] 需要说明的是,上述装置/单元之间的信息交互、执行过程等内容,由于与本申请方法实施例基于同一构思,其具体功能及带来的技术效果,具体可参见方法实施例部分,此处不再赘述。
[0161] 图6为本申请一实施例提供的终端设备的结构示意图。如图6所示,该实施例的终端设备600包括:至少一个处理器60(图6中仅示出一个)、存储器61以及存储在所述存储器61中并可在所述至少一个处理器60上运行的计算机程序62,所述处理器60执行所述计算机程序62时实现上述任意各个方法实施例中的步骤。
[0162] 所述终端设备600可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。该终端设备可包括,但不仅限于,处理器60、存储器61。本领域技术人员可以理解,图6仅仅是终端设备600的举例,并不构成对终端设备600的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如还可以包括输入输出设备、网络接入设备等。
[0163] 所称处理器60可以是中央处理单元(Central Processing Unit,CPU),该处理器60还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field‑Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
[0164] 所述存储器61在一些实施例中可以是所述终端设备600的内部存储单元,例如终端设备600的硬盘或内存。所述存储器61在另一些实施例中也可以是所述终端设备600的外部存储设备,例如所述终端设备600上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,所述存储器61还可以既包括所述终端设备600的内部存储单元也包括外部存储设备。所述存储器61用于存储操作系统、应用程序、引导装载程序(BootLoader)、数据以及其他程序等,例如所述计算机程序的程序代码等。所述存储器61还可以用于暂时地存储已经输出或者将要输出的数据。
[0165] 所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
[0166] 本申请实施例还提供了一种网络设备,该网络设备包括:至少一个处理器、存储器以及存储在所述存储器中并可在所述至少一个处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述任意各个方法实施例中的步骤。
[0167] 本申请实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现可实现上述各个方法实施例中的步骤。
[0168] 本申请实施例提供了一种计算机程序产品,当计算机程序产品在移动终端上运行时,使得移动终端执行时实现可实现上述各个方法实施例中的步骤。
[0169] 所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请实现上述实施例方法中的全部或部分流程,可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质至少可以包括:能够将计算机程序代码携带到拍照装置/终端设备的任何实体或装置、记录介质、计算机存储器、只读存储器(ROM,Read‑Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质。例如U盘、移动硬盘、磁碟或者光盘等。在某些司法管辖区,根据立法和专利实践,计算机可读介质不可以是电载波信号和电信信号。
[0170] 在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
[0171] 本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
[0172] 在本申请所提供的实施例中,应该理解到,所揭露的装置/网络设备和方法,可以通过其它的方式实现。例如,以上所描述的装置/网络设备实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
[0173] 所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
[0174] 以上所述实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围,均应包含在本申请的保护范围之内。