一种基于图像采集的智慧厂区避撞预警方法和系统转让专利

申请号 : CN202210946783.7

文献号 : CN115240471B

文献日 :

基本信息:

PDF:

法律信息:

相似专利:

发明人 : 李松明彭丽娟李志斌

申请人 : 东揽(南京)智能科技有限公司

摘要 :

本发明公开了一种基于图像采集的智慧厂区避撞预警方法和系统,属于厂区避撞预警的技术领域。包括以下步骤:基于摄像机采集到多个实时视频,并做帧处理得到帧图像,在帧图像中获取感兴趣区域,于感兴趣区域中确定检测区域,并对应的找出速度区域,基于兴趣点(质心参照点)确定质心,依次计算得到像素位移以及车辆的速度、碰撞距离和碰撞时间,做出碰撞预警分析。本发明使用了低成本的基于图像采集的方式获取交通量参数进行计算,在降低成本的同时,还能快速的计算出碰撞距离,基于碰撞距离和速度分析得到碰撞时间,进而判断是否会发生碰撞,若会并在第一时间内发出预警,以提醒驾驶人员做出对应的避撞措施,提高厂区内的安全

权利要求 :

1.一种基于图像采集的智慧厂区避撞预警方法,其特征在于,至少包括以下步骤:数据采集:将厂区划分为若干个子区域,按照预定时间间隔获取指定子区域的实时视频,将所述实时视频做帧处理得到多帧图像数据,所述多帧图像数据包括当前帧图像和历史帧图集;

当前帧质心检测:将所述当前帧图像中的可变性对象从复杂的背景中分离得到感兴趣区域,并在所述感兴趣区域内确定检测区域;在所述检测区域内通过算法确定当前帧图像内车辆的兴趣点,并标记所述兴趣点的当前帧质心;

历史帧质心检测:于历史帧图集中获取至少一个历史帧图像,基于所述检测区域在历史帧图像上标定速度区域,采用所述算法于速度区域内确定关于所述兴趣点的历史帧质心;

速度计算:基于所述当前帧质心和历史帧质心,计算得到车辆的兴趣点的像素位移以及车辆速度;

碰撞距离估算:结合当前帧图像中的车辆大小和位置确定虚拟水平线,基于所述虚拟水平线估算车辆位置间的车辆距离;

碰撞检测:通过所述车辆速度和车辆距离计算得到碰撞时间,当所述碰撞时间低于阈值时,则输出预警指令;

所述检测区域定义为存在车辆和/或车辆计数增加的区域,检测区域的长度小于当前帧图像中的车辆长度;

所述速度区域定义为选定的历史帧图像中与检测区域相对应的区域,所述速度区域的长度大于历史帧图像中的车辆长度;

其中,车辆长度的取值流程如下:基于检测区域内车辆的分布情况将检测区域沿其宽度分隔至少一个分隔区;获取每个分隔区内的车身在检测区域长度方向上的实际长度,将分隔区内每个车辆的实际长度进行累加得到关于分隔区的累计车长;选定累计车长的最大值为车辆长度;

采用水平虚拟参考线指定所述检测区域和速度区域;采用垂直虚拟参考线于检测区域和速度区域内按照子区域内车道或者空地分块指定车辆,以获取对应区域内的车辆数量。

2.根据权利要求1所述的一种基于图像采集的智慧厂区避撞预警方法,其特征在于,兴趣点的确定采用的算法如下:步骤201、定义一个帧图像,帧图像从(x,y)移动至(x+Δx,y+Δy)得到位移后帧图像,图像强度通过以下公式表示:I(x+Δx,y+Δy)=I(x,y)+xIx(x,y)+yIy(x,y);其中(x,y)为帧图像的窗口范围,I(x,y)是窗口范围为(x,y)的图像强度,I(x+Δx,y+Δy)是滑动窗口为(x+Δx,y+Δy)的图像强度;Ix(x,y)表示x方向上的梯度,Iy(x,y)是y方向上的梯度;

计算当前帧图像与选定的历史帧图像之间的加权平方差C(x,y):式中,(Δx,Δy)表示窗口范围为(x,y)的移动距离,ω(x,y)代表一个光滑圆形高斯窗口, σ代表高斯函数中自变量的标准差;

步骤202、计算x和y方向上的一阶偏导数Ix,Iy,得到关于x、y方向上的强度变化,得到对应区域内关于像素编码应变化的二阶矩阵:步骤203、设λ1和λ2为二阶矩阵M的特征值,通过分析二阶矩阵M的特征值,得出以下推论:若λ1≈0,λ2≈0,则窗口范围(x,y)内没有兴趣点;

若λ1≈0,λ2≥0.1,则窗口范围(x,y)的兴趣点在边缘上;

若λ1≥0.1,λ2≥0.1,则窗口范围(x,y)的兴趣点就是角点;

步骤204、当存在兴趣点时,使用二阶矩阵M的行列式det和迹tr识别兴趣点,计算兴趣2

点置信度R:R=det(M)‑k·tr(M) ;其中,k为常数,取值范围为0.05‑0.15。

3.根据权利要求2所述的一种基于图像采集的智慧厂区避撞预警方法,其特征在于,当前帧图像j的当前帧质心Mj(xj,yj)的标记流程如下:式中,f表示当前帧质心内存在质心参照点的个数,(xf,yf)表示质心参照点f对应的坐标。

4.根据权利要求1所述的一种基于图像采集的智慧厂区避撞预警方法,其特征在于,所述像素位移的计算公式如下:式中,(xj,yj)表示当前帧图像j的当前帧质心的坐标,(xj‑g,yj‑g)表示历史帧图像j‑g的历史帧质心的坐标;

车辆速度采用以下公式计算:

式中,D是历史帧质心与当前帧质心的真实距离,dr为历史帧质心到当前帧质心的总像素偏移;g为大于等于1的常数,N是视频处理捕获的每秒帧数,mph为速度单位:英里/每小时,1mph=1.609344km/h。

5.根据权利要求1所述的一种基于图像采集的智慧厂区避撞预警方法,其特征在于,所述碰撞距离估算具体包括以下步骤:步骤401、确定历史帧图像内的每个车辆i的虚拟水平线的垂直坐标yh,i:式中,Hc是相机高度,yb,i和wa,i分别是历史帧图像中的车辆i的底线位置和历史帧图像中的车辆i的车辆宽度,i≥1;Wa,i是与历史帧图像相对应的厂区内的车辆i的实际宽度,其中 是与历史帧图像相对应的厂区内的所有车辆的平均实际宽度,ΔWa,i是与历史帧图像相对应的厂区内的车辆i的实际宽度与所有车辆的平均实际宽度的差;

步骤402、计算当前帧图像内所有车辆的虚拟水平线的平均垂直坐标:式中,其中N是检测到的车辆数量, 和 分别是当前帧图像中所有车辆的底线平均位置和当前帧图像中所有车辆的平均车辆宽度;

步骤403、利用步骤401计算历史帧图像内每个车辆i的虚拟水平线的垂直坐标、步骤

402计算当前帧图像的所有车辆的虚拟水平线的平均垂直坐标;

对当前帧图像j的虚拟水平线进行估计:

式中,yh,i(j)和yh,i(j‑g)分别表示车辆i的当前帧图像j和历史帧图像j‑g的虚拟水平线的垂直坐标, 表示当前帧图像j的所有车辆虚拟水平线的平均垂直坐标,γ为预先设定的参数;

步骤404、确定碰撞距离:

式中,Fc是相机焦距,θ为相机的俯仰角。

6.根据权利要求5所述的一种基于图像采集的智慧厂区避撞预警方法,其特征在于,还包括对yh,i(j‑g)的校验,检验流程如下:将计算得到的yh,i(j‑g)作为yh,i应用到步骤401中,得到历史帧图像中的车辆i的宽度预估值wa,i,,表示为若 则表示计算得到yh,i(j)

属于正确值;反之,属于错误值,不可用;式中,Wa,min和Wa,max分别表示车辆i的实际宽度的最小值和最大值。

7.根据权利要求1所述的一种基于图像采集的智慧厂区避撞预警方法,其特征在于,所述碰撞检测包括以下步骤:通过使用道路车道信息和车辆信号来预测目标车辆的轨迹;在目标车辆的轨迹内最近的车辆被识别为目标车辆;

由碰撞距离和车辆速度计算目标车辆的碰撞时间TTC,当TTC低于阈值时,发出碰撞警告,计算公式如下:式中,v2、v1分别表示被标记的两个目标车辆的行驶速度,Δv表示两个目标车辆之间的速度差;dc表示碰撞距离;

所述车道信息包括转向角,所述车辆信号包括:偏航角和速度。

8.根据权利要求1所述的一种基于图像采集的智慧厂区避撞预警方法,其特征在于,还包括对感兴趣区域的降噪处理,所述降噪处理采用以下公式进行卷积:式中,G(x,y)代表当前帧图像和选定的历史帧图像之间的自相关;(x,y)代表帧图像的窗口范围,σ代表高斯函数中自变量的标准差;

还包括对感兴趣区域的颜色转换处理,所述颜色转换处理采用以下公式将感兴趣的彩色值转换为灰度值:Intensity=0.2989*red+0.5870*green+0.1140*blue式中,Intensity表示灰度值,red、green和blue分别表示红、绿和蓝三基色的分量。

9.一种基于图像采集的智慧厂区避撞预警系统,其特征在于,包括:数据采集模块,被设置为将厂区划分为若干个区域,按照预定时间间隔获取指定子区域的实时视频,将所述实时视频做帧处理得到多帧图像数据,所述多帧图像数据包括当前帧图像和历史帧图集;

当前帧质心检测模块,被设置为将所述当前帧图像中的可变性对象从复杂的背景中分离得到感兴趣区域,并在所述感兴趣区域内确定检测区域;在所述检测区域内通过算法确定当前帧图像的车辆的兴趣点,并标记所述兴趣点的当前帧质心;

历史帧质心检测模块,被设置为于历史帧图集中获取至少一个历史帧图像,基于所述检测区域在历史帧图像上标定速度区域,采用所述算法于速度区域内确定关于所述兴趣点的历史帧质心;

速度计算模块,被设置为基于所述当前帧质心和历史帧质心,计算得到车辆质心的像素位移以及车辆速度;

碰撞距离估算模块,被设置为结合当前帧图像中的车辆大小和位置确定虚拟水平线,基于所述虚拟水平线估算车辆位置间的车辆距离;

碰撞检测模块,被设置为通过所述车辆速度和车辆距离计算得到碰撞时间,当所述碰撞时间低于阈值时,则输出预警指令;

所述检测区域定义为存在车辆和/或车辆计数增加的区域,检测区域的长度小于当前帧图像中的车辆长度;

所述速度区域定义为选定的历史帧图像中与检测区域相对应的区域,所述速度区域的长度大于历史帧图像中的车辆长度;

其中,车辆长度的取值流程如下:基于检测区域内车辆的分布情况将检测区域沿其宽度分隔至少一个分隔区;获取每个分隔区内的车身在检测区域长度方向上的实际长度,将分隔区内每个车辆的实际长度进行累加得到关于分隔区的累计车长;选定累计车长的最大值为车辆长度;

采用水平虚拟参考线指定所述检测区域和速度区域;采用垂直虚拟参考线于检测区域和速度区域内按照子区域内车道或者空地分块指定车辆,以获取对应区域内的车辆数量。

说明书 :

一种基于图像采集的智慧厂区避撞预警方法和系统

技术领域

[0001] 本发明属于厂区避撞预警的技术领域,特别是涉及一种基于图像采集的智慧厂区避撞预警方法和系统。

背景技术

[0002] 目前,很多大型厂区因其工作需要或者调度需要,厂区内的车道或者空地分块将会停留有不同大小的车辆,且部分车辆是临时停车即并不在正常管理的范畴之内。同时,厂区因工作需要,其车道或者空地分块的障碍物多且不固定(会不定期的产生空地占用的情况),因此,如果车辆司机通常只凭个人经验来评估前方是否存在撞车的风险是存在一定的不确定因素的。
[0003] 且厂区因工作需要,车辆活动将会较为频繁,则进一步增加了厂区内活动车辆、以及工人的安全隐患。

发明内容

[0004] 本发明为解决上述背景技术中存在的技术问题,提供了一种基于图像采集的智慧厂区避撞预警方法,至少包括以下步骤:
[0005] 数据采集:将厂区划分为若干个子区域,按照预定时间间隔获取指定子区域的实时视频,将所述实时视频做帧处理得到多帧图像数据,所述多帧图像数据包括当前帧图像和历史帧图集;
[0006] 当前帧质心检测:将所述当前帧图像中的可变性对象从复杂的背景中分离得到感兴趣区域,并在所述感兴趣区域内确定检测区域;在所述检测区域内通过算法确定当前帧图像的车辆的兴趣点,并标记所述兴趣点的当前帧质心;
[0007] 历史帧质心检测:于历史帧图集中获取至少一个历史帧图像,基于所述检测区域在历史帧图像上标定速度区域,采用所述算法于速度区域内确定关于所述兴趣点的历史帧质心;
[0008] 速度计算:基于所述当前帧质心和历史帧质心,计算得到车辆的兴趣点的像素位移以及车辆速度;
[0009] 碰撞距离估算:结合当前帧图像中的车辆大小和位置确定虚拟水平线,基于所述虚拟水平线估算车辆位置间的车辆距离;
[0010] 碰撞检测:通过所述车辆速度和车辆距离计算得到碰撞时间,当所述碰撞时间低于阈值时,则输出预警指令。
[0011] 在进一步的实施例中,所述可变对象至少包括:人脸、行人和车辆中的至少一种;当可变对象为车辆时,预先给定车辆的宽度。
[0012] 在进一步的实施例中,所述检测区域定义为存在车辆和/或车辆计数增加的区域,检测区域的长度小于当前帧图像中的车辆长度;
[0013] 所述速度区域定义为选定的历史帧图像中与检测区域相对应的区域,所述速度区域的长度大于历史帧图像中的车辆长度;
[0014] 其中,车辆长度的取值流程如下:基于检测区域内车辆的分布情况将检测区域沿其宽度分隔至少一个分隔区;获取每个分隔区内的车身在检测区域长度方向上的实际长度,将分隔区内每个车辆的实际长度进行累加得到关于分隔区的累计车长;选定累计车长的最大值为车辆长度;
[0015] 采用水平虚拟参考线指定所述检测区域和速度区域;采用垂直虚拟参考线于检测区域和速度区域内按照子区域内车道或者空地分块指定车辆,以获取对应区域内的车辆数量。
[0016] 在进一步的实施例中,所述兴趣点为在地图上的任何非地理意义的有意义的点,至少包括:名称、类别、经度和维度的相关信息;则,兴趣点的确定采用的算法如下:
[0017] 步骤201、定义一个帧图像,帧图像从(x, y)移动至(x+Δx, y+Δy)得到位移后帧图像,图像强度通过以下公式表示:
[0018] ;其中,(x, y)为帧图像的窗口范围,I(x, y)是窗口范围为(x, y)的图像强度,I(x+Δx, y+Δy)是滑动窗口(x+Δx, y+Δy)的图像强度; 表示x方向上的梯度, 是y方向上的梯度;
[0019] 计算当前帧图像与选定的历史帧图像之间的加权平方差 :
[0020]
[0021] 式中,(Δx, Δy)表示窗口范围(x, y)移动的距离, 代表一个光滑圆形高斯窗口, ,式中,σ代表高斯函数中自变量的标准差;
[0022] 步骤202、计算x和y方向上的一阶偏导数  ,得到关于x、y方向上的强度变化,得到对应区域内关于像素编码应变化的二阶矩阵:   ;
[0023] 步骤203、设λ1和λ2为二阶矩阵M的特征值,通过分析二阶矩阵M的特征值,得出以下推论:
[0024] 若λ1≈0,λ2≈0,则对应窗口范围(x,y)内没有兴趣点;
[0025] 若λ1≈0,λ2≥0.1,则对应窗口范围(x,y)的兴趣点在边缘上;
[0026] 若λ1≥0.1,λ2≥0.1,则对应窗口范围(x,y)的兴趣点就是角点;
[0027] 步骤204、当存在兴趣点时,使用二阶矩阵M的行列式det和迹tr来识别兴趣点,计算兴趣点置信度R: ;其中,k为常数,取值范围为0.05‑0.15。
[0028] 在进一步的实施例中,当前帧图像j的当前帧质心 的标记流程如下:
[0029] ;
[0030] 式中,f表示当前帧质心内存在质心参照点的个数,(xf,yf)表示质心参照点f对应的坐标。
[0031] 在进一步的实施例中,所述像素位移的计算公式如下:
[0032] ;
[0033] 式中, 表示当前帧图像j的当前帧质心的坐标, 表示历史帧图像j‑g的历史帧质心的坐标;
[0034] 车辆速度采用以下公式计算:
[0035]
[0036] 式中,D是历史帧质心与当前帧质心的真实距离,dr为历史帧质心到当前帧质心的总像素偏移,为大于等于1的常数,N是视频处理捕获的每秒帧数,mph为速度单位:英里/每小时,1mph=1.609344km/h。
[0037] 在进一步的实施例中,所述碰撞距离估算具体包括以下步骤:
[0038] 步骤401、确定历史帧图像内的每个车辆i的虚拟水平线的垂直坐标 , 表示为:
[0039]
[0040] 式中, 是相机高度, 和 分别是历史帧图像中的车辆i的底线位置和历史帧图像中的车辆i的车辆宽度,i≥1; 是与历史帧图像相对应的厂区内的车辆i的实际宽度, ,其中 是与历史帧图像相对应的厂区内的所有车辆的平均实际
宽度, 是与历史帧图像相对应的厂区内的车辆i的实际宽度与所有车辆的平均实际宽
度的差;
[0041] 步骤402、计算当前帧图像内所有车辆的虚拟水平线的平均垂直坐标:
[0042] ;
[0043] 式中,其中N是检测到的车辆数量, 和 分别是当前帧图像中所有车辆的底线平均位置和当前帧图像中所有车辆的平均车辆宽度;
[0044] 步骤403、利用步骤401计算历史帧图像内每个车辆i的虚拟水平线的垂直坐标、步骤402计算当前帧图像的所有车辆的虚拟水平线的平均垂直坐标;
[0045] 对当前帧图像j的虚拟水平线进行估计:
[0046]
[0047] 式中, 和 分别表示车辆i的当前帧图像j和历史帧图像j‑g的虚拟水平线的垂直坐标, 表示当前帧图像j的所有车辆虚拟水平线的平均垂直坐标,为预
先设定的参数;
[0048] 步骤404、确定碰撞距离:
[0049] ;
[0050] 式中,是相机焦距,为相机的俯仰角。
[0051] 在进一步的实施例中,还包括对 的校验,检验流程如下:
[0052] 将计算得到的 作为 应用到步骤401中,得到历史帧图像中的车辆i的宽度预估值 ,表示为 ;
[0053] 若 ,则表示计算得到属于正确值;反之,属于错误值,不可用;式中, 和 分别表示车辆i的实际宽度
的最小值和最大值。
[0054] 在进一步的实施例中,所述碰撞检测包括以下步骤:
[0055] 通过使用道路车道信息和车辆信号来预测目标车辆的轨迹;在目标车辆的轨迹内最近的车辆被识别为目标车辆;
[0056] 由碰撞距离和车辆速度计算目标车辆的TTC,当TTC低于阈值时,发出碰撞警告,计算公式如下:
[0057] ;式中, 、分别表示被标记的两个目标车辆的行驶速度, 表示两个目标车辆之间的速度差;表示碰撞距离;
[0058] 所述车道信息包括转向角,所述车辆信号包括:偏航角和速度。
[0059] 在进一步的实施例中,还包括对感兴趣区域的降噪处理,所述降噪处理采用以下公式进行卷积: ,式中,G(x,y)代表当前帧图像和选定的历史帧图像之间的自相关;(x,y)代表帧图像的窗口范围,σ代表高斯函数中自变量的标准差;
[0060] 还包括对感兴趣区域的颜色转换处理,所述颜色转换处理采用以下公式将感兴趣的彩色值转换为灰度值:
[0061] Intensity = 0.2989*red + 0.5870* green +0.1140* blue
[0062] 式中,Intensity表示灰度值,red、green和blue分别表示红、绿和蓝三基色的分量。
[0063] 一种基于图像采集的智慧厂区避撞预警系统,包括:
[0064] 数据采集模块,被设置为将厂区划分为若干个区域,按照预定时间间隔获取指定子区域的实时视频,将所述实时视频帧处理得到多帧图像数据,所述多帧图像数据包括当前帧图像和历史帧图集;
[0065] 当前帧质心检测模块,被设置为将所述当前帧图像中的可变性对象从复杂的背景中分离得到感兴趣区域,并在所述感兴趣区域内确定检测区域;在所述检测区域内通过算法确定当前帧图像的车辆的兴趣点,并标记所述兴趣点的当前帧质心;
[0066] 历史帧质心检测模块,被设置为于历史帧图集中获取至少一个历史帧图像,基于所述检测区域在历史帧图像上标定速度区域,采用所述算法于速度区域内确定关于所述兴趣点的历史帧质心;
[0067] 速度计算模块,被设置为基于所述当前帧质心和历史帧质心,计算得到车辆质心的像素位移以及车辆速度;
[0068] 碰撞距离估算模块,被设置为结合当前帧图像中的车辆大小和位置确定虚拟水平线,基于所述虚拟水平线估算车辆位置间的车辆距离;
[0069] 碰撞检测模块,被设置为通过所述车辆速度和车辆距离计算得到碰撞时间,当所述碰撞时间低于阈值时,则输出预警指令。
[0070] 本发明的有益效果:本发明这对厂区将可变性对象从复杂的背景中分离出来,增加了预判的精度。同时本发明使用了低成本的基于图像采集的方式获取交通量参数进行计算,在降低成本的同时,还能快速的计算出碰撞距离,基于碰撞距离和速度分析得到碰撞时间,进而判断是否会发生碰撞,若会并在第一时间内发出预警,以提醒驾驶人员做出对应的避撞措施,提高厂区内的安全系数。

附图说明

[0071] 图1为一种基于图像采集的智慧厂区避撞预警方法的流程图。
[0072] 图2为检测区域和速度区域的指定示意图。

具体实施方式

[0073] 现有的厂区中,为了降低车辆事故率一般会使用雷达传感器对目标车辆进行定位并检测器车速,从而判断目标车辆是否存在碰撞的风险。但是由于厂区的占地面积大,则需要多个雷达传感器方可监测的各个区域中的车辆情况,则增加了企业成本。
[0074] 另外,同一时间节点上移动中的车辆将会存在至少一辆以上,当移动中的车辆过多时,不仅仅对雷达传感器的数量需求量大,增加了成本,车辆与车辆之间的干扰,或者雷达传感器与雷达传感器之间的交接将会导致精度降低。
[0075] 实施例1
[0076] 针对上述问题,本实施例公开了一种基于图像采集的智慧厂区避撞预警方法,如图1所示,包括以下步骤:
[0077] 步骤一、数据采集:将厂区划分为若干个子区域,按照预定时间间隔获取指定子区域的实时视频,将所述实时视频做帧处理得到多帧图像数据,所述多帧图像数据包括当前帧图像和历史帧图集;
[0078] 步骤二、当前帧质心检测:将所述当前帧图像中的可变性对象从复杂的背景中分离得到感兴趣区域,并在所述感兴趣区域内确定检测区域;在所述检测区域内通过算法确定当前帧图像的车辆的兴趣点,并标记所述兴趣点的当前帧质心。在本实施例中,兴趣点也可理解为质心参照点。
[0079] 步骤三、历史帧质心检测:于历史帧图集中获取至少一个历史帧图像,基于所述检测区域在历史帧图像上标定速度区域,采用所述算法于速度区域内确定关于所述兴趣点的历史帧质心;
[0080] 步骤四、速度计算:基于所述当前帧质心和历史帧质心,计算得到车辆的兴趣点的像素位移以及车辆速度;
[0081] 步骤五、碰撞距离估算:结合当前帧图像中的车辆大小和位置确定虚拟水平线,基于所述虚拟水平线估算车辆位置间的车辆距离;
[0082] 步骤六、碰撞检测:通过所述车辆速度和车辆距离计算得到碰撞时间,当所述碰撞时间低于阈值时,则输出预警指令,在本实施例中,预警指令为接入声光报警或者大屏装置作为警告,以采取减速、紧急制动等特定操作。
[0083] 在进一步的实施例中,步骤一使用具有不同摄像视野的云台变焦摄像机,购买成本低。为了提高拍摄精度,因此每个子区域内的摄像机的安装高度、摄像机角度以及视角区域均各不相同,具体根据子区域的大小、以及子区域的地势而定。因此在划分子区域时,可以参考地势划分、亦可以参考厂区内的工种区域进行划分,或者其他的划分形式,在此不再一一举例。
[0084] 需要说明的是,现有技术中,基于视觉对车辆进行检测的技术均应用于高速公路交通中,相对而言,高速公路上的车道标记良好,背景单一,且车道的曲率变化缓慢。因此车辆在高速公路交通环境中与背景完全分离相对而言较为便捷。对比之下,厂区内的背景复杂,可能会存在不同颜色、不同形状以及不同材质的仓库,还会存在固定堆积物或者临时堆积物。但是不管是固定堆积物还是临时堆积物,其形状、颜色、大小均是不固定的,主要还是以当前厂区的加工需求为准。因此使用高速公路交通中的视觉检测分离则无法做到精确的分离。
[0085] 故在进一步的实施例中,步骤二中的将所述当前帧图像中的可变性对象从复杂的背景中分离得到感兴趣区域采用以下步骤:
[0086] 步骤21、确定可变对象,即目标检测物。在本实施例中,所述可变对象至少包括:人脸、行人和车辆中的至少一种;当可变对象为车辆时,预先给定车辆的宽度。
[0087] 步骤22、使用Haar‑like特征做检测;使用积分图(Integral Image)对Haar‑like特征求值进行加速;使用AdaBoost算法训练区分人脸和非人脸的强分类器;使用筛选式级联把强分类器级联到一起,提高准确率。
[0088] 步骤23、支持向量机 (SVM):该目标检测算法主要包含:目标特征模型构建;学习训练;目标检测框确定。
[0089] 在进一步的实施例中,目标特征模型构建流程如下:
[0090] 步骤2301、将当前帧图像作为目标图像输入,例如一个40×40的当前帧图像;
[0091] 步骤2302、标准化Gamma 空间和颜色空间;
[0092] 步骤2303、梯度计算,包括:采用公式1进行梯度大小计算、公式2进行梯度方向计算;
[0093] 公式1:梯度大小
[0094]
[0095] 公式2:梯度方向 
[0096] 其中, 表示在像素点(X,Y)处的像素值;
[0097] 步骤2304、将梯度投影到单元格(例如为8 × 8的像素)的梯度方向(直方图取9个方向);
[0098] 步骤2305、将所有单元格在块(例如为2 × 2单元格)上进行归一化;
[0099] 步骤2306、收集检测区域所有块的HOG特征,最后得到一个维数为4×4×2 × 2 × 9 =576维的特征向量。
[0100] 以线性支持向量机作为学习训练的工具构建目标检测算法,训练学习的基本思想是: 已知目标的特征模型结构便可从训练集中获取到特征向量,然后根据当前帧图像是否为正样本将特征向量表示为 (𝑥 p,  𝑦 p),其中, p = 1, 2,    ,  𝑛  ,其中:𝑥 p表示按特征模型获取的特征向量;𝑦 p表示该图片是否为正样本, 如果该训练图片为正样本则𝑦 p为1,若为负样本则𝑦 p为−1;  𝑛 表示训练样本的个数, 对于二分类问题,容易得到损失函数。
[0101] 最后用滑动窗口法确定目标检测框的大小和位置,将检测窗口置于不同尺度的图像中的每个位置,然后判断窗口覆盖的区域能否通过检测,这种穷搜的方式可以保证不漏掉任何一个可能的位置。该法具体系统结构简单,推广能力强,学习和预测时间短的优点。
[0102] 在进一步的实施例中,步骤二中的检测区域被定义为:存在车辆和/或车辆计数增加的区域,检测区域的长度小于当前帧图像中的车辆长度;步骤三中的速度区域定义为选定的历史帧图像中与检测区域相对应的区域,所述速度区域的长度大于历史帧图像中的车辆长度;换言之,检测区域和速度区域是存在于不同帧的图像中,除此之外,长度的大小不一样(上文已经说明)。
[0103] 如图2所示,采用水平虚拟参考线指定所述检测区域和速度区域;采用垂直虚拟参考线于检测区域和速度区域内按照子区域内车道或者空地分块指定车辆,以获取对应区域内的车辆数量。需要说明的是,定义当前帧图像为j,则选定历史帧图像为j‑g,其中g≥1;若选定的历史帧图像为当前帧图像的相邻图像,则g=1,即历史帧图像表示为历史帧图像j‑1。当选定的检测区域内存在增加车辆时,当前帧图像j与历史帧图像j‑g(车辆增加的时刻)会存在兴趣点的增加。或者,当前帧图像j中有正在移动的车辆,则当前帧图像j与历史帧图像j‑g(车辆移动的时刻)中的车辆位置发生改变,可计算车速和移动距离、以及方向。
[0104] 在确定检测区域之后,于检测区域内确定兴趣点,在本实施例中,兴趣点为在地图上的任何非地理意义的有意义的点,至少包括:名称、类别、经度和维度的相关信息;通过以上相关信息丰富导航地图。
[0105] 传统预警系统为了及时发出碰撞警告,必须准确确定目标车辆速度,从而雷达传感器通常用于此目的。但一般企业由于成本和角度精度有限,本实施例提出了使用低成本的兴趣点确定的算法,如下:
[0106] 步骤201、定义一个帧图像,帧图像(x, y)(即本文中的历史帧图像)从移动至(x+Δx, y+Δy)得到位移后帧图像(即本文中的当前帧图像),通过以下公式表示:
[0107] ;其中,(x, y)为帧图像的窗口范围,I(x, y)是窗口范围为(x, y)的图像强度,I(x+Δx, y+Δy)是滑动窗口(x+Δx, y+Δy)的图像强度; 表示x方向上的梯度, 是y方向上的梯度;
[0108] 计算当前帧图像与选定的历史帧图像之间的加权平方差 :
[0109]
[0110] 式中,(Δx, Δy)表示窗口范围(x, y)移动的距离, 代表一个光滑圆形高斯窗口, ,式中,σ代表高斯函数中自变量的标准差;
[0111] 步骤202、计算x和y方向上的一阶偏导数  ,得到关于x、y方向上的强度变化,得到对应区域内关于像素编码应变化的二阶矩阵: ;
[0112] 步骤203、设λ1和λ2为二阶矩阵M的特征值,通过分析二阶矩阵M的特征值,得出以下推论:
[0113] 若λ1≈0,λ2≈0,则对应窗口范围(x,y)内没有兴趣点;
[0114] 若λ1≈0,λ2≥0.1,则对应窗口范围(x,y)的兴趣点在边缘上;
[0115] 若λ1≥0.1,λ2≥0.1,则对应窗口范围(x,y)的兴趣点就是角点;
[0116] 步骤204、当存在兴趣点时,使用二阶矩阵M的行列式det和迹tr来识别兴趣点,计算兴趣点置信度R: ;其中,k为常数,取值范围为0.05‑0.15。
[0117] 在进一步的实施例中,上述步骤确定得到兴趣点即为目标点,当该兴趣点为后期增加时(增加车辆),则意味着在车辆进入到检测区域之前的时间节点之前的帧图像中对应的速度区域是不存在该兴趣点的。因此以当前帧图像中的兴趣点为单位,寻找选定的历史帧图像中是否存在兴趣点,若存在同时确定该兴趣点于选定的历史帧图像中的位置,其位置的确定参考步骤201至步骤204。
[0118] 针对上述检测区域和速度区域中的兴趣点(当前帧质心和历史帧质心)均采用以下方式标记质心,以当前帧图像j的当前帧质心 的标记为例,具体流程如下:;
[0119] 式中,f表示当前帧质心内存在质心参照点的个数,(xf,yf)表示质心参照点f对应的坐标。
[0120] 由于厂区环境的复杂性,使用现有技术的相对位于计算方法将会存在复杂校准的情况。同时摄像机在获取实时视频时,受天气、环境、或者堆积物的影响,可能会存在部分视频分辨率的现象,故在本实施例中,步骤四中的像素位移的计算公式如下:
[0121]  ;式中, 表示当前帧图像j的当前帧质心的坐标, 表示历史帧图像j‑g的历史帧质心的坐标;
[0122] 车辆速度采用以下公式计算:
[0123]
[0124] 式中,D是历史帧质心与当前帧质心的真实距离,dr为历史帧质心到当前帧质心的总像素偏移,为大于等于1的常数,N是视频处理捕获的每秒帧数,mph为速度单位:英里/每小时,1mph=1.609344km/h。
[0125] 与传统的商用车辆检测系统相比,基于视频图像的车辆速度检测方法不需要复杂校准,具有良好的鲁棒性,且适用于低分辨率的视频。
[0126] 一方面,在通过分析车道标线确定视野的传统方法中,当厂区道路坡度在丘陵道路上不断变化或在厂区道路上看不到车道标线时,无法适当地定位水平线。另一方面,传统的通过分析车道标记确定的水平线可能位于车辆下方,尤其是当车辆在坡上时,这可能会导致误差的无限放大,而虚拟水平线总是位于检测到的车辆的底线上方,因为它们是根据车辆位置估计的,并且距离误差是有界的。
[0127] 因此在进一步的实施例中,所述碰撞距离估算具体包括以下步骤:
[0128] 所述碰撞距离估算具体包括以下步骤:步骤401、确定历史帧图像内的每个车辆i的虚拟水平线的垂直坐标 , 表示为:
[0129]
[0130] 式中, 是相机高度, 和 分别是历史帧图像中的车辆i的底线位置和历史帧图像中的车辆i的车辆宽度,i≥1; 是与历史帧图像相对应的厂区内的车辆i的实际宽度, ,其中 是与历史帧图像相对应的厂区内的所有车辆的平均实际宽
度, 是与历史帧图像相对应的厂区内的车辆i的实际宽度与所有车辆的平均实际宽度
的差;当i=1,即车辆的数量为1时 ,即 。
[0131] 需要说明的是,如果检测到足够多的车辆, 收敛到零并且可以忽略。因此,能根据固定平均实际宽度(例如, )检测到的车辆的位置和宽度信息来确定
水平线。
[0132] 步骤402、计算当前帧图像内所有车辆的虚拟水平线的平均垂直坐标:;
[0133] 式中,其中N是检测到的车辆数量, 和 分别是当前帧图像中所有车辆的底线平均位置和当前帧图像中所有车辆的平均车辆宽度;
[0134] 步骤403、由于错误检测和检测数量不足导致的水平线的波动需要消除。由于在大多数情况下道路倾斜度变化缓慢,可以通过反映先前估计的水平线信息来减少水平线的波动。
[0135] 因此,对当前帧图像j的虚拟水平线进行估计:利用步骤401计算历史帧图像内每个车辆i的虚拟水平线的垂直坐标、步骤402计算当前帧图像的所有车辆的虚拟水平线的平均垂直坐标;
[0136] 对当前帧图像j的虚拟水平线进行估计:
[0137]
[0138] 式中, 和 分别表示车辆i的当前帧图像j和历史帧图像j‑g的虚拟水平线的垂直坐标, 表示当前帧图像j的所有车辆虚拟水平线的平均垂直坐标,为预
先设定的参数;
[0139] 步骤404、传统基于水平变化范围较小的高速公路交通环境中,可以通过相机校准确定的固定水平来计算距离,但在厂区交通环境中,由于可能的车辆运动和道路倾斜,水平线可能会发生很大变化。因此确定碰撞距离的计算如下:
[0140] ;
[0141] 式中,是相机焦距,为相机的俯仰角。基于上述计算过程,不排除有检测错误或者数据读取错误的现象,因此设置了对 和 的校验进行排查,两个不同帧图像的关于车辆i的虚拟水平线的垂直坐标的校验方法相同。以 为例,其校验流程
如下:
[0142] 将计算得到的  作为 应用到步骤401中,得到历史帧图像中的车辆i的宽度预估值 ,表示为  ;
[0143] 若 ,则表示计算得 到属于正确值;反之,属于错误值,不可用;式中, 和 分别表示车辆i的
实际宽度的最小值和最大值。
[0144] 在进一步的实施例中,所述碰撞检测包括以下步骤:
[0145] 通过使用道路车道信息和车辆信号来预测目标车辆的轨迹;在目标车辆的轨迹内最近的车辆被识别为目标车辆;
[0146] 由碰撞距离和车辆速度计算目标车辆的碰撞时间TTC,当TTC低于阈值时,发出碰撞警告,计算公式如下:
[0147] ;式中, 、分别表示被标记的两个目标车辆的行驶速度,表示两个目标车辆之间的速度差;表示碰撞距离,步骤404中已给出计算过程。
[0148] 所述车道信息包括转向角,所述车辆信号包括:偏航角和速度。
[0149] 在另一个实施例中,为了提高分辨率和精度,还包括对感兴趣区域的降噪处理,所述降噪处理采用以下公式进行卷积: ,式中,G(x,y)代表当前帧图像和选定的历史帧图像之间的自相关;(x,y)代表帧图像的窗口范围,σ代表高斯函数中自变量的标准差;
[0150] 还包括对感兴趣区域的颜色转换处理,所述颜色转换处理采用以下公式将感兴趣的彩色值转换为灰度值:
[0151] Intensity = 0.2989*red + 0.5870* green +0.1140* blue
[0152] 式中,Intensity表示灰度值,red、green和blue分别表示红、绿和蓝三基色的分量。
[0153] 实施例2
[0154] 为了实现实施例1所述的基于图像采集的智慧厂区避撞预警方法,本实施例公开了一种基于图像采集的智慧厂区避撞预警系统,包括:
[0155] 数据采集模块,被设置为将厂区划分为若干个区域,按照预定时间间隔获取指定子区域的实时视频,将所述实时视频帧处理得到多帧图像数据,所述多帧图像数据包括当前帧图像和历史帧图集;
[0156] 当前帧质心检测模块,被设置为将所述当前帧图像中的可变性对象从复杂的背景中分离得到感兴趣区域,并在所述感兴趣区域内确定检测区域;在所述检测区域内通过算法确定当前帧图像的车辆的兴趣点,并标记所述兴趣点的当前帧质心;
[0157] 历史帧质心检测模块,被设置为于历史帧图集中获取至少一个历史帧图像,基于所述检测区域在历史帧图像上标定速度区域,采用所述算法于速度区域内确定关于所述兴趣点的历史帧质心;
[0158] 速度计算模块,被设置为基于所述当前帧质心和历史帧质心,计算得到车辆质心的像素位移以及车辆速度;
[0159] 碰撞距离估算模块,被设置为结合当前帧图像中的车辆大小和位置确定虚拟水平线,基于所述虚拟水平线估算车辆位置间的车辆距离;
[0160] 碰撞检测模块,被设置为通过所述车辆速度和车辆距离计算得到碰撞时间,当所述碰撞时间低于阈值时,则输出预警指令。
[0161] 本发明的有益效果:本发明这对厂区将可变性对象从复杂的背景中分离出来,增加了预判的精度。同时本发明使用了低成本的基于图像采集的方式获取交通量参数进行计算,在降低成本的同时,还能快速的计算出碰撞距离,基于碰撞距离和速度分析得到碰撞时间,进而判断是否会发生碰撞,若会并在第一时间内发出预警,以提醒驾驶人员做出对应的避撞措施,提高厂区内的安全系数。