一种基于视频技术的道路交通参数采集方法转让专利

申请号 : CN201210151513.3

文献号 : CN102682602B

文献日 :

基本信息:

PDF:

法律信息:

相似专利:

发明人 : 林培群

申请人 : 华南理工大学

摘要 :

本发明在于解决上述现有技术中检测准确率偏低、环境适应性差的不足,提供一种基于视频技术检测道路交通参数的方法,其中参数包括流量、时间平均速度、时间占有率、平均车头时距等,根据绘制在检测区域中的图案在不同光照环境中具备较好的相对亮度组合模式一致性,因此采集交通参数时不需要采用背景差分、帧间差分等方法,同时具有较少的运算量、较高的检测精度和环境稳定性。

权利要求 :

1.一种基于视频技术的道路交通参数采集方法,其特征在于包括:步骤S1,在待检测车道绘制由至少包含2种相对亮度级的基本图块组合而成的图案;

步骤S2,获取车道的上述图案对应的检测区域的成像;

步骤S3,计算并记录成像中检测区域没有车辆经过时的相对亮度组合模式P1,即确定相对亮度分级数及分级范围,确定各个图块对应的相对亮度级;

步骤S4,进行交通参数采集时,获取车道对应检测区域的成像;

步骤S5,根据获得的成像,计算检测区域的相对亮度组合模式P2;

步骤S6,判断上述得到的检测区域的相对亮度组合模式P2与该检测区域无车经过时成像的相对亮度组合模式P1是否匹配,若匹配,则此时该检测区域没有车辆经过,否则有车辆经过;

还包括步骤S7:在判断有车辆经过的基础上,采集交通参数,所述的交通参数包括车辆经过检测器的时间t:t=h×t0,其中h为某辆车经过检测器的图像帧数,t0为图像采集间隔;

车辆的速度v:V=d/(g×t0),其中d为同一车道前后检测区域的距离,g为经过前后检测区域的图像帧数差,t0为图像采集间隔;

车辆的长度r:r=v×t,其中r为车辆长度,v为车辆速度,t为经过检测区域的时间;

单位时间车流量Q: 其中T为观测时间长度,X为观测时间经过检测区域的总车辆数;单位时间经过车辆的平均速度V: 其中n为单位时间经过的车辆数,vi为第i辆车的速度;

时间占有率O: 其中n为观测时间T内经过的车辆数,ti为第i辆车通过检测器的时间;

平均车头时距s: 其中Q为单位时间的车流量。

2.根据权利要求1所述的道路交通参数采集方法,其特征在于:所述的相对亮度组合模式计算方法包括:

1)计算每个基本图块的平均亮度: 其中a表示包含m个像素的某基本图块,pi∈a表示a中第i个像素,L表示平均亮度;

2)待检测区域包含n个基本图块,图块的相对亮度级分为k级,则参考模式G可表示为,

1 2 k

其中n=n1+n2+…+nk,n1、n2…、nk为相对亮度级相同的基本图块的数量,Y、Y、…、Y表示相对亮度级相同的基本图块的集合, 表示相对亮度级为j的第i个基本图块,并规定如果整数z>0则

3)按平均亮度值从小到大排列当前检测区的各个基本图块;

4)将其中第1-nn1个、nn1+1-nn2个、…、nn(k-1)+1-nnk个基本图块分别指定为第1、2、…、k个相对亮度级;

5)判断检测区域上是否有车辆存在时,分析每个基本图块的相对亮度级变化情况,如果所有基本图块的相对亮度级与无车时相同,则可判断此时没有车辆经过检测区,否则有车辆经过。

3.根据权利要求1所述的道路交通参数采集方法,其特征在于:进行相对亮度组合模式计算前对获取的成像采用小成分算法进行图像去噪处理,消除成像中出现的个别与周围像素差别过大的像素。

4.根据权利要求3所述的道路交通参数采集方法,其特征在于所述的图像去噪处理方法包括中值滤波法、平滑滤波法。

说明书 :

一种基于视频技术的道路交通参数采集方法

技术领域

[0001] 本发明涉及交通流检测技术领域,特别涉及一种基于视频技术的道路交通参数采集方法。

背景技术

[0002] 智能交通系统(ITS)是公认的解决现代交通问题的有力手段,而交通信息采集是ITS得以顺利实施的技术基础。现有交通流检测技术主要包括:超声波、地感线圈、地磁、压力、红外、视频等。与其它检测技术相比,视频技术的显著优点是具有丰富的信息量,因此为细粒度交通信息的获取提供了可能,此外视频技术比较直观,能够对道路交通场景进行全面的记录与再现,因此许多大中城市都构建了规模庞大的视频监控网络。现有视频交通流检测技术大多采用背景差分、帧间差分等方法,计算复杂度较高,且受光照、阴影等因素的影响严重,相关技术在夜间、交通复杂场景(如车流密集的交叉口)检测精度较低。

发明内容

[0003] 本发明在于解决上述现有技术中检测准确率偏低、环境适应性差的不足,提供一种基于视频技术检测道路交通参数的方法,其中参数包括流量、时间平均速度、时间占有率、平均车头时距等。
[0004] 为了达到上述目的,本发明采用了以下技术方案,
[0005] 一种基于视频技术的道路交通参数采集方法,包括:
[0006] 步骤S1,在待检测车道绘制由至少包含2种相对亮度级的基本图块组合而成的图案;
[0007] 步骤S2,获取车道的上述图案对应的检测区域的成像;
[0008] 步骤S3,计算并记录成像中检测区域没有车辆经过时的相对亮度组合模式P1,即确定相
[0009] 对亮度分级数及分级范围,确定各个图块对应的相对亮度级;
[0010] 步骤S4,进行交通参数采集时,获取车道对应检测区域的成像;
[0011] 步骤S5,根据获得的成像,计算检测区域的相对亮度组合模式P2;
[0012] 步骤S6,判断上述得到的检测区域的相对亮度组合模式P2与该检测区域无车经过时成像的相对亮度组合模式P1是否匹配,若匹配则,则此时该检测区域没有车辆经过,否则有车辆经过。
[0013] 上述方案还包括步骤S7:在判断有车辆经过的基础上,采集交通参数,所述的交通参数包括
[0014] 车辆经过检测器的时间t:t=h×t0,其中h为某辆车经过检测器的图像帧数,t0为图像采集间隔;
[0015] 车辆的速度v:v=d/(g×t0),其中d为同一车道前后检测区域的距离,g为经过前后检测区域的图像帧数差,t0为图像采集间隔;
[0016] 车辆的长度r:r=v×t,其中r为车辆长度,v为车辆速度,t为经过检测区域的时间;交通流量Q: 其中T为观测时间长度,X为观测时间经过检测区域的总车辆数;时间速度平均速度V: 其中n为单位时间经过的车辆数,vi为第i辆车的速度;
[0017] 时间占有率O: 其中n为观测时间T内经过的车辆数,ti为第i辆车通过检测器的时间;
[0018] 平均车头时距s: 其中Q为单位时间的车流量。
[0019] 所述的相对亮度组合模式计算方法包括:
[0020] 1)计算每个基本图块的平均亮度: 其中a表示包含m个像素的某基本图块,pi∈a表示a中第i个像素,L表示平均亮度;
[0021] 2)待检测区域包含n个基本图块,图块的相对亮度级分为k级,则参考模式G可表示为 其中1 2 k
n=n1+n2+…+nk,Y,Y,…,Y 表示相对亮度级相同的基本图块的集合, 表示相对亮度级为j的第i个基本图块,并规定如果整数z>0则
[0022] 3)按平均亮度值从小到大排列当前检测区的各个基本图块;
[0023] 4)将其中第1-nn1个、nn1+1-nn2个、…、nn(k-1)+1—nnk个基本图块分别指定为第1、2、…、k个相对亮度级;
[0024] 5)判断检测区域上是否有车辆存在时,分析每个基本图块的相对亮度级变化情况,如果所有基本图块的相对亮度级与无车时相同,则可判断此时没有车辆经过检测区,否则有车辆经过。
[0025] 上述方案中进行相对亮度组合模式计算前对获取的成像采用小成分算法进行图像去噪处理,消除成像中出现的个别与周围像素差别过大的像素。
[0026] 所述的图像去噪处理方法包括中值滤波法、平滑滤波法。
[0027] 与现有技术相比,本发明的有益效果是:根据绘制在检测区域中的图案在不同光照环境中具备较好的相对亮度组合模式一致性,因此采集交通参数时不需要采用背景差分、帧间差分等方法,同时具有较少的运算量、较高的检测精度和环境稳定性。

附图说明

[0028] 图1为辅助识别图案示意图;
[0029] 图2为车道上设置检测区域示意图;
[0030] 图3为道路横断面上设置检测区域示意图;
[0031] 图4为交叉口设置检测区域示意图;0
[0032] 图5为t 时刻采集到的图像画面;
[0033] 图6为图5中A局部放大示意图;1
[0034] 图7为t 时刻采集到的图像画面;2
[0035] 图8为t 时刻采集到的图像画面;
[0036] 图9为t3时刻采集到的图像画面;
[0037] 图10为t4时刻采集到的图像画面;
[0038] 图11为t5时刻采集到的图像画面。

具体实施方式

[0039] 以下结合附图对本发明进一步说明。
[0040] 一种基于视频技术的道路交通参数采集方法,包括:
[0041] 步骤S1,在待检测车道绘制由至少包含2种相对亮度级的基本图块组合而成的图案;
[0042] 步骤S2,获取车道的上述图案对应的检测区域的成像;
[0043] 步骤S3,计算并记录成像中检测区域没有车辆经过时的相对亮度组合模式P1,即确定相
[0044] 对亮度分级数及分级范围,确定各个图块对应的相对亮度级;
[0045] 步骤S4,进行交通参数采集时,获取车道对应检测区域的成像;
[0046] 步骤S5,根据获得的成像,计算检测区域的相对亮度组合模式P2;
[0047] 步骤S6,判断上述得到的检测区域的相对亮度组合模式P2与该检测区域无车经过时成像的相对亮度组合模式P1是否匹配,若匹配则,则此时该检测区域没有车辆经过,否则有车辆经过。
[0048] 还包括步骤S7:在判断有车辆经过的基础上,采集交通参数,所述的交通参数包括
[0049] 车辆经过检测器的时间t:t=h×t0,其中h为某辆车经过检测器的图像帧数,t0为图像采集间隔;
[0050] 车辆的速度v:v=d/(g×t0),其中d为同一车道前后检测区域的距离,g为经过前后检测区域的图像帧数差,t0为图像采集间隔;
[0051] 车辆的长度r:r=v×t,其中r为车辆长度,v为车辆速度,t为经过检测区域的时间;交通流量Q: 其中T为观测时间长度,X为观测时间经过检测区域的总车辆数;时间速度平均速度V: 其中n为单位时间经过的车辆数,vi为第i辆车的速度;
[0052] 时间占有率O: 其中n为观测时间T内经过的车辆数,ti为第i辆车通过检测器的时间;
[0053] 平均车头时距s: 其中Q为单位时间的车流量。
[0054] 所述的相对亮度组合模式计算方法包括:
[0055] 1)计算每个基本图块的平均亮度: 其中a表示包含m个像素的某基本图块,pi∈a表示a中第i个像素,L表示平均亮度;
[0056] 2)待检测区域包含n个基本图块,图块的相对亮度级分为k级,则参考模式G可表示为 其中1 2 k
n=n1+n2+…+nk,Y,Y,…,Y 表示相对亮度级相同的基本图块的集合, 表示相对亮度级为j的第i个基本图块,并规定如果整数z>0则
[0057] 3)按平均亮度值从小到大排列当前检测区的各个基本图块;
[0058] 4)将其中第1-nn1个、nn1+1-nn2个、…、nn(k-1)+1-nnk个基本图块分别指定为第1、2、…、k个相对亮度级;
[0059] 5)判断检测区域上是否有车辆存在时,分析每个基本图块的相对亮度级变化情况,如果所有基本图块的相对亮度级与无车时相同,则可判断此时没有车辆经过检测区,否则有车辆经过。
[0060] 上述方案中,进行相对亮度组合模式计算前对获取的成像采用小成分算法进行图像去噪处理,消除成像中出现的个别与周围像素差别过大的像素。
[0061] 所述的图像去噪处理方法包括中值滤波法、平滑滤波法。
[0062] 在绘制图案时,采用路面漆等材料在检测车道的中央绘制由不同颜色块组合而成的辅助识别图案(每一个颜色块称为一个基本图块),这些颜色块在灰度图像中至少可分为2种相对亮度级,图块的亮度级间距越大,鲁棒性越强,如果路面上有人行斑马线、减速带等图案也可将其作为辅助识别图案。进行视频检测时以上图案对应的图像区域即为该车道的交通参数采集参考区。继而定义各检测车道上的图案的图块相对亮度组合模式,具体来说是对每一个基本图块进行相对亮度级分类,在此基础上实时分析摄像机采集到的每一帧图像,判断图像中的检测区是否存在这种相对亮度组合模式,如果存在,则此时没有车辆存在于检测区上,否则有车辆存在于检测区上,通过对检测区的状态进行连续分析,可得到经过检测区的车辆的长度、速度、经过时间等基本数据,进而根据交通参数的统计方法可进一步得到道路交通流量、时间平均速度、时间占有率、平均车头时距等交通参数。
[0063] 上文所述的辅助识别图案,主要从两方面考虑:
[0064] 1、图案的形态方面,考虑实际交通环境中光源(包路侧照明灯、车灯等)、阴影(主要是车辆,建筑物、树木的阴影)等众多因素,辅助识别图案由具有较大亮度差异的不同基本图块组成,如图1所示。基本图块的数量和排列方式,以区分交通场景中的其它图案为设计的依据;基本图块的形状,以方便进行像素检索为设计依据(例如采用矩形)。除此以外,对于相对亮度级较高的基本图块,可考虑增强表面的反光度。
[0065] 2、图案的位置及大小,图案的位置一般设置在车道的中间,以车辆正常行驶时能将其全部或大部分覆盖为原则,其尺寸与摄像机分辨率、焦距、拍摄角度相关,一般以摄像机中能够清晰成像(一般要求宽度和高度都有4个像素以上)、图案宽度不超出车位边线、图案高度小于正常的车间距(车间距与道路环境相关,一般情况下高速公路不大于2米,城市道路路段上不大于1米、交叉口停车线前方不大于0.6米)为原则。如果需要进行车速检测,则每个车道均需设置两个检测区,检测区间的距离与路段设计速度、摄像机的采样频率、检测精度等相关,计算方法采用以下模型:
[0066]
[0067] 其中d为检测区间的距离,v为车辆速度,t0为摄像机成像间隔,s为最小期望速度精度。
[0068] 辅助识别图案可通过刷漆(如采用地坪漆、车道线漆)等方式进行绘制,也可直接利用人行斑马线、减速带等现有设施,十分经济、简便。
[0069] 在单条车道上、道路横断面上、交叉口上绘制辅助识别图案分别如图2、3、4。
[0070] 本发明的原理如下:
[0071] 采用路面漆等材料在检测车道的中央绘制由不同基本图块组合而成的图案,这些基本图块的成像至少可分为2种相对亮度级,进行视频检测时以上图案对应的图像区域即为该车道的交通参数采集参考区域;如果路面上有人行斑马线、减速带等图案也可将其作为辅助识别图案。在漫反射过程中,由于物体会把光谱中的其它颜色吸收,与物体本身的颜色相同的光谱才能被反射并被摄像机接收,上述图案能在不同光照、阴影干扰情况下其反射光谱的组合方式是不变的,且不同相对亮度级之间的级间距较大(如果采用黒、白两种基本图块则级间距最大,稳定性最强),因此能较好地克服光照、阴影的影响,比较适合于计算机辨识;
[0072] 获取各车道对应的交通参数采集参考区的成像:由于车辆是快速运动的且车间距可能较小,因此摄像机必须连续地采集图像,采集图像的速度与设备的处理能力及交通参数检测精度有关(一般要求每秒采集并处理15帧以上);
[0073] 计算并记录上述每个检测区没有车辆经过时的相对亮度组合模式,即确定相对亮度分级数及分级范围,判定各个基本图块属于什么样的相对亮度级(相对亮度级与绝对亮度级是不一样的,在不同光照环境下无法保证绝对的亮度级)。假如只有2个相对亮度级,则需要判定哪些属于相对亮的图块,哪些属于相对暗的图块,将相对暗的基本图块、相对亮1 2
的基本图块分为两个集合,分别记为Y、Y,则有 其中L表示平均
亮度。
[0074] 进行交通参数采集时,获取一个或多个车道对应检测区域的成像,每个检测区包括多个基本图块;
[0075] 根据获得的成像计算每个基本图块的像素平均亮度,并得到每个检测区的相对亮度组合模式;
[0076] 分别判断上述计算得到的各个相对亮度组合模式与对应车道检测区无车经过时的成像的相对亮度组合模式是否匹配,若能匹配,则此时该检测区没有车辆经过,否则有车辆经过,算法过程如下:
[0077] 步骤1,采用去小成分算法进行图像去噪处理,消除某块图像中出现的个别与周围像素差别过大的像素,该过程可通过中值滤波、平滑滤波法等方法实现;
[0078] 步骤2,计算每个基本图块的平均亮度:
[0079]
[0080] 其中a表示包含m个像素的某基本图块,pi∈a表示a中第i个像素,L表示平均亮度;步骤3,进行相对亮度组合模式匹配以判断各检测区上是否有车辆存在,包括以下过程:1,假如检测区包含n个基本图块,图块的相对亮度级分为k级,则参考模式G可表示为 其中1 2 k
n=n1+n2+…+nk,Y,Y,…,Y 表示相对亮度级相同的基本图块的集合, 表示相对亮度级为j的第i个基本图块,并规定如果整数z>0则
[0081]
[0082] 2,按平均亮度值从小到大排列当前检测区的各个基本图块;
[0083] 3,将其中第1—nn1个、nn1+1—nn2个、…、nn(k-1)+1—nnk个基本图块分别指定为第1、2、…、k个相对亮度级;
[0084] 4,判断检测区域上是否有车辆存在时,分析每个基本图块的相对亮度级变化情况,如果所有基本图块的相对亮度级与无车时相同,则可判断此时没有车辆经过检测区,否则有车辆经过。
[0085] 步骤4,在判断检测区上是否存在车辆的基础上,进行交通参数采集:
[0086] 1、车辆经过检测器的时间:
[0087] t=h×t0
[0088] 其中h为某辆车经过检测器的图像帧数,t0为图像采集间隔。
[0089] 2、车辆的速度:
[0090] v=d/(g×t0)
[0091] 其中d为同一车道前后检测区的距离,g为经过前后检测区的图像帧数差,t0为图像采集间隔。
[0092] 3、车辆长度:
[0093] r=v×t
[0094] 其中r为车辆长度,v为车辆速度,t为经过检测区域的时间。
[0095] 4、交通流量:
[0096]
[0097] 其中T为观测时间长度,X为观测时间经过检测区的总车辆数。
[0098] 5、时间平均速度
[0099]
[0100] 其中n为单位时间经过的车辆数,vi为第i辆车的速度。
[0101] 6、时间占有率
[0102]
[0103] 其中n为观测时间T内经过的车辆数,ti为第i辆车通过检测器的时间。
[0104] 7、平均车头时距
[0105]
[0106] 其中Q为单位时间的车流量。
[0107] 实施例1
[0108] 某双向4车道道路上进行交通参数采集,摄像机固定在龙门架上,采集到的图像如图5、图6所示。图中从左到右共4个车道,每个车道设置两个检测区域,两个检测区域之间的距离为1.85米,每个检测区包括10个基本图块,相对亮度级包括2级,其中5个基本图块为黑色图块,另外五个为白色图块。
[0109] 图像处理过程如下:
[0110] 按照每秒25帧的速度采集并处理图像,对于每一帧图像,进行以下计算:
[0111] 步骤1,采用5×5的平滑滤波法去除每个基本图块中的小成分,对于像素I[r,c](r,c分别表示行列坐标),其滤波结果为:
[0112]
[0113] 步骤2,计算每个基本图块的平均亮度:
[0114]
[0115] 其中a表示包含m个像素的某基本图块,pi∈a表示a中第i个像素,L表示平均亮度;
[0116] 步骤3,进行相对亮度组合模式匹配,包括以下过程:
[0117] 1,每个检测区包含10个基本图块,图块的相对亮度级分为2级,则参考亮度组合模式G可表示为:
[0118]
[0119] 即图6中,基本图块2、4、6、8、10属于较暗图块,1、3、5、7、9属于较亮图块,相对亮度组合模式的判定规则是:
[0120] 2,按平均亮度值从小到大排列当前检测区的各个基本图块;
[0121] 3,将其中第1-5个、6-10个分别指定为第1、2个相对亮度级;
[0122] 4,分析每个基本图块的相对亮度级变化情况,如果所有基本图块的相对亮度级与无车时相同,则可判断此时没有车辆经过检测区,否则有车辆经过。在图5-11中,对于车道2,图8为某辆车刚刚到达第1个检测区域的时刻,图10为该车刚刚到达第2个检测区域的时刻,图11为该车离开第1个检测区域的时刻;对于车道4,图7为某辆车刚刚到达第1个检测区域的时刻,图9为该车刚刚到达第2个检测区域的时刻,图10为该车离开第1个检测区域的时刻。在观测时间段内,车道1、3都没有车辆经过。
[0123] 步骤4,在判断检测区上是否有车辆存在的基础上,进行交通参数采集:
[0124] 1,车辆经过检测器的时间:
[0125] t=h×t0
[0126] 其中h为某辆车经过检测器的图像帧数,t0为图像采集间隔。
[0127] 2,车辆的速度:
[0128] v=d/(g×t0)
[0129] 其中d为同一车道前后检测区的距离,g为经过前后检测区的图像帧数差,t0为图像采集间隔。
[0130] 3,车辆长度:
[0131] r=v×t
[0132] 其中r为车辆长度,v为车辆速度,t为经过检测区域的时间。
[0133] 4,交通流量:
[0134]
[0135] 其中T为观测时间长度,X为观测时间经过检测区的总车辆数。
[0136] 5,时间平均速度
[0137]
[0138] 其中n为单位时间经过的车辆数,vi为第i辆车的速度。
[0139] 6,时间占有率
[0140]
[0141] 其中n为观测时间T内经过的车辆数,ti为第i辆车通过检测器的时间。
[0142] 7,平均车头时距
[0143]
[0144] 其中Q为单位时间的车流量。