基于深度学习的车道线检测方法转让专利

申请号 : CN201910672937.6

文献号 : CN110363182B

文献日 :

基本信息:

PDF:

法律信息:

相似专利:

发明人 : 王超付子昂

申请人 : 北京信息科技大学

摘要 :

基于深度学习的车道线检测方法,它属于车道线检测技术领域。本发明解决了传统的车道线检测方法耗时且检测的精度低的问题。本发明首先将检测车道线的任务视作像素级的语义分割问题,通过全卷积神经网络FCN8s划分车道线和背景,再通过后处理和DBSCAN聚类方法提取当前车道两侧的左右车道线坐标,最后通过拟合算法对左右车道线进行拟合,本发明方法对视频检测达到平均50帧每秒,检测精度能够达到92.3%,可以实现精确快速的检测效果。本发明可以应用于车道线检测技术领域。

权利要求 :

1.基于深度学习的车道线检测方法,其特征在于,该方法包括以下步骤:步骤一、从TuSimple数据集中随机选取出M张图像,并对选取出的M张图像中包含的车道线进行标注,获得标注后图像;

步骤二、将步骤一获得的标注后图像输入全卷积神经网络FCN8s,利用输入图像对全卷积神经网络FCN8s进行训练,直至损失函数值不再减小时停止训练,获得训练好的全卷积神经网络FCN8s;

所述步骤二中采用的损失函数为Focal Loss,对于待测图像中的任一像素,该像素的真实类别为y,该像素预测为类别y的概率为p,则该像素的损失值FL(p,y)为:γ

FL(p,y)=‑αt(1‑pt) log(pt)其中: αt和γ均代表权重系数;

将待测图像中所有像素的损失值做加和运算,获得总的损失值;

直至总的损失值不再减小时停止训练;

步骤三、将待进行车道线检测的图像输入步骤二训练好的全卷积神经网络FCN8s,得到全卷积神经网络FCN8s输出的二值化车道线掩码图;

步骤四、对步骤三的二值化车道线掩码图进行后处理,获得后处理过的二值化车道线掩码图;

步骤五、提取后处理过的二值化车道线掩码图中的全部车道线点,并对提取出的车道线点进行聚类,以将每个车道线点归类到对应的车道线;

根据聚类结果,提取出驾驶系统当前所在车道的左侧车道线上的车道线点以及右侧车道线上的车道线点;其具体过程为:将后处理过的二值化车道线掩码图的左上角顶点作为坐标原点,以二值化车道线掩码图的宽度方向为x轴、高度方向为y轴,从左上角顶点到右下角坐标依次增大;

设定高度阈值Q,高度阈值Q的设定原则为:将后处理过的二值化车道线掩码图中所有车道线点在y轴方向的最低点加上25,获得高度阈值Q的取值;

利用高度阈值Q对后处理过的二值化车道线掩码图中的全部车道线点进行筛选,即筛选出y轴方向坐标大于等于Q的车道线点;

对筛选出的车道线点进行聚类,以将筛选出的每个车道线点归类到对应的车道线;

提取出驾驶系统当前所在车道的左侧车道线上的车道线点以及右侧车道线上的车道线点;

步骤六、分别对提取出的两条车道线上的点进行拟合,得到驾驶系统当前所在车道的左侧车道线以及右侧车道线;

步骤七、将步骤六拟合得到的左侧车道线以及右侧车道线显示在待测图像中,完成待测图像中的车道线检测。

2.根据权利要求1所述的基于深度学习的车道线检测方法,其特征在于,所述步骤二中采用的损失函数为带权交叉熵损失函数,对于待测图像中的任一像素,该像素的真实类别为y,该像素预测为类别y的概率为p,则该像素的交叉熵损失值WCE(p,y)为:WCE(p,y)=‑αtlog(pt)其中: αt代表权重系数;

将待测图像中所有像素的交叉熵损失值做加和运算,获得总的交叉熵损失值;

直至总的交叉熵损失值不再减小时停止训练。

3.根据权利要求1所述的基于深度学习的车道线检测方法,其特征在于,所述步骤六中采用的拟合方法为线性回归或多项式岭回归。

4.根据权利要求3所述的基于深度学习的车道线检测方法,其特征在于,所述步骤四的具体过程为:

经过形态学闭运算将步骤三获得的二值化车道线掩码图中同一条车道线上存在的断点进行连接,并对全部的车道线点进行平滑,获得平滑后的二值化车道线掩码图;

对平滑后的二值化车道线掩码图进行去噪处理,获得后处理过的二值化车道线掩码图。

说明书 :

基于深度学习的车道线检测方法

技术领域

[0001] 本发明属于车道线检测技术领域,具体涉及一种基于深度学习的车道线检测方法。

背景技术

[0002] 自动驾驶在缓解交通拥堵、减少交通事故、提高道路及车辆利用率等方面具有巨大潜能,已成为众多企业的竞争热点。自动驾驶集中运用了现代传感技术、信息与通信技
术、自动控制技术、计算机技术和人工智能等技术,代表着未来汽车技术的战略制高点,是
汽车产业转型升级的关键,也是目前世界公认的发展方向。其中车道线检测是自动驾驶的
核心技术,传统的车道线检测方法多是手工特征提取或采用霍夫变换进行检测,这种方法
耗时且泛化性差,特别是对于车道线的检测精度较低。

发明内容

[0003] 本发明的目的是为解决传统的车道线检测方法耗时且检测的精度低的问题,而提出了一种基于深度学习的车道线检测方法。
[0004] 本发明为解决上述技术问题采取的技术方案是:基于深度学习的车道线检测方法,该方法包括以下步骤:
[0005] 步骤一、从TuSimple数据集中随机选取出M张图像,并对选取出的M张图像中包含的车道线进行标注,获得标注后图像;
[0006] 步骤二、将步骤一获得的标注后图像输入全卷积神经网络FCN8s,利用输入图像对全卷积神经网络FCN8s进行训练,直至损失函数值不再减小时停止训练,获得训练好的全卷
积神经网络FCN8s;
[0007] 步骤三、将待进行车道线检测的图像输入步骤二训练好的全卷积神经网络FCN8s,得到全卷积神经网络FCN8s输出的二值化车道线掩码图;
[0008] 步骤四、对步骤三的二值化车道线掩码图进行后处理,获得后处理过的二值化车道线掩码图;
[0009] 步骤五、提取后处理过的二值化车道线掩码图中的全部车道线点,并对提取出的车道线点进行聚类,以将每个车道线点归类到对应的车道线;
[0010] 根据聚类结果,提取出驾驶系统当前所在车道的左侧车道线上的车道线点以及右侧车道线上的车道线点;
[0011] 步骤六、分别对提取出的两条车道线上的点进行拟合,得到驾驶系统当前所在车道的左侧车道线以及右侧车道线;
[0012] 步骤七、将步骤六拟合得到的左侧车道线以及右侧车道线显示在待测图像中,完成待测图像中的车道线检测。
[0013] 本发明的有益效果是:本发明提出了一种基于深度学习的车道线检测方法,首先将检测车道线的任务视作像素级的语义分割问题,通过全卷积神经网络FCN8s划分车道线
和背景,再通过后处理和DBSCAN聚类方法提取当前车道两侧的左右车道线坐标,最后通过
拟合算法对左右车道线进行拟合,本发明方法对视频检测达到平均50帧每秒,检测精度能
够达到92.3%,可以实现精确快速的检测效果,有效克服了传统的车道线检测方法耗时且
检测的精度低的问题。

附图说明

[0014] 图1是本发明的基于深度学习的车道线检测方法的流程图;
[0015] 图2是本发明的FCN8s网络输出的二值化车道线掩码图;
[0016] 图3为后处理输出的二值化车道线掩码图;
[0017] 图4为车道线检测结果示意图。

具体实施方式

[0018] 具体实施方式一:如图1所示,本实施方式所述的基于深度学习的车道线检测方法,该方法包括以下步骤:
[0019] 步骤一、从TuSimple数据集中随机选取出M张图像,并对选取出的M张图像中包含的车道线进行标注,获得标注后图像;
[0020] 步骤二、将步骤一获得的标注后图像输入全卷积神经网络FCN8s,利用输入图像对全卷积神经网络FCN8s进行训练,直至损失函数值不再减小时停止训练,获得训练好的全卷
积神经网络FCN8s;
[0021] FCN的网络结构根据最终恢复到输入图像尺寸的倍数,可分为FCN‑32s、FCN‑16s、FCN‑8s,本发明中选用FCN‑8s;
[0022] 步骤三、将待进行车道线检测的图像输入步骤二训练好的全卷积神经网络FCN8s,得到全卷积神经网络FCN8s输出的二值化车道线掩码图;
[0023] 步骤四、对步骤三的二值化车道线掩码图进行后处理,获得后处理过的二值化车道线掩码图;
[0024] 步骤五、提取后处理过的二值化车道线掩码图中的全部车道线点,并对提取出的车道线点进行聚类,以将每个车道线点归类到对应的车道线;
[0025] 根据聚类结果,提取出驾驶系统当前所在车道的左侧车道线上的车道线点以及右侧车道线上的车道线点;
[0026] 步骤六、分别对提取出的两条车道线上的点进行拟合,得到驾驶系统当前所在车道的左侧车道线以及右侧车道线;
[0027] 步骤七、将步骤六拟合得到的左侧车道线以及右侧车道线显示在待测图像中,完成待测图像中的车道线检测。
[0028] 步骤三输入至训练好的全卷积神经网络FCN8s的图像为3通道RGB图像;而且图像输入全卷积神经网络FCN8s之前,均进行图像的预处理,预处理包括对图像的缩放并归一
化;对图像进行缩放的目的是使输入图像与网络训练时图像尺寸保持一致。
[0029] 二值化车道线掩码图上每个像素值表示该通道所属类别:车道线或背景;
[0030] FCN8s的网络结构如表1所示,表1中详细的描述了FCN8s网络每一层的网络结构名称、输入来源、输入通道、输出通道、卷积核尺寸、步长、填充(padding)、当前层的图像或特
征图尺寸以及补充说明,此外在解码层对转置卷积涉及的Dilation和Output_padding参数
取值额外进行了说明。
[0031] 总的来看,FCN8s网络分为编码层和解码层,编码层也称下采样层,本发明采用VGG16结构进行提取特征,原始的VGG16是包含16个卷积层,本发明中采用了前13个卷积层
(Conv)作为编码层,避免层数越深时,下采样过程中对车道线信息全部丢失。编码层的输入
是一个三通道的320*160的图像,每次卷积运算后接上Relu激活函数和批处理层,能使模型
学习到的特征更复杂,且能优化训练过程。在卷积运算中,卷积核大小设置为3*3、步长为1、
padding为1,这样使得每次进行卷积运算后不改变特征图的尺寸,经过2‑3次卷积提取特征
后使用最大池化层(Maxpooling)使特征图尺寸折半进行下采样,而通道个数不发生改变,
下一个卷积层中使特征图的通道翻倍,直到放大到512维通道数时通道不再增加。在编码层
中,从320*160的三通道图像输入,最终生成10*5的512通道的特征图,输出到解码层。
[0032] 在解码层,也称上采样层,使用转置卷积运算进行上采样过程,转置卷积运算上卷积运算的反向过程,解码层的首个转置卷积层TransConv1将Maxpooling5层的输出进行上
采样两倍尺寸,得到20*10的特征图,再与Maxpooling4得到的特征图相加并再进行两倍上
采样,得到40*20的特征图,再与Maxpooling3得到的特征图相加后再进行两倍上采样,得到
80*40的特征图。这是因为每次进行上采样都会结合在编码层得到的浅层特征,从浅层特征
图中能很好的获得关于图片的语义信息,尤其是对于车道线检测来说,下采样的层数越深,
由于车道线占图片总比例非常小,通常情况下学习的多为背景的特征信息,所以在解码过
程中上采样与浅层特征的结合尤为重要。FCN8s网络结构通常的做法是在第21层转置卷积
层TransConv3将与Maxpooling3叠加的特征图直接从40*20上采样8倍恢复到320*160的尺
寸,但是本发明在设计中分三次转置卷积运算(TransConv3、TransConv4、TransConv5)进行
上采样,每次上采样两倍,这种方式可以与直接上采样8倍达到相同的效果,同时使模型在
解码层的学习效果更好。
[0033] 第24层分类层(classifier)是利用1*1的卷积核整合通道信息,将32维降低为2维,生成每个像素点预测的类别向量,再对每个类别向量利用Softmax函数,将类别向量归
一化,每个像素点的所属类别为类别向量中概率最大的类,最终生成二值化的车道线掩码
图。
[0034] 表1 FCN8s网络结构表
[0035]
[0036]
[0037] 具体实施方式二:本实施方式与具体实施方式一不同的是:所述步骤二中采用的损失函数为带权交叉熵损失函数(Weighted Cross Entropy Loss),对于待测图像中的任
一像素,该像素的真实类别为y(y=1代表该像素为车道线点,否则该像素点为非车道线
点),该像素预测为类别y的概率为p,则该像素的交叉熵损失值WCE(p,y)为:
[0038] WCE(p,y)=‑αt log(pt)
[0039] 其中: αt代表权重系数;
[0040] 将待测图像中所有像素的交叉熵损失值做加和运算,获得总的交叉熵损失值;
[0041] 直至总的交叉熵损失值不再减小时停止训练。
[0042] 本实施方式的损失函数与标准交叉熵损失函数的区别在于多了一项αt参数,αt是给定每一个类别一个权重,给定样本个数较少的类别更多的权值,可以使模型对样本个数
较少的类别也能学习的很好。使得样本少的样本的总损失与样本多的样本的总损失平衡,
以解决样本不均衡的问题。
[0043] 本发明中采用有界逆类加权(Uijlings J R R,K.E.A.van de Sande….Selective Search for Object Recognition[J].International Journal of Computer 
Vision,2013,104(2):154‑171.)的方法,确定αt的取值;
[0044]
[0045]
[0046] 在车道线检测中,共分为背景和车道线两类。pclass代表所有像素点中每一类的像素点出现的频率,由于pclass的取值范围为[0,1],加上一个超参数c,默认取值为1.02,用于
保证c+pclass>1,ln(c+pclass)>0,接着计算对数的倒数 超参数的取值和概率
的取值范围共同限制了αt的取值范围为[1,50],对于样本较少的类别,该类的权值会较大,
最大取值为50,对于样本较多的类别,该类的权值会较小,最小取值为1。
[0047] 具体实施方式三:本实施方式与具体实施方式一不同的是:所述步骤二中采用的损失函数为Focal Loss(Lin T Y,Goyal P,Girshick R,et al.Focal Loss for Dense 
Object Detection[J].IEEE Transactions on Pattern Analysis&Machine 
Intelligence,2017,PP(99):2999‑3007),对于待测图像中的任一像素,该像素的真实类别
为y,该像素预测为类别y的概率为p,则该像素的损失值FL(p,y)为:
[0048] FL(p,y)=‑αt(1‑pt)γlog(pt)
[0049] 其中: αt和γ均代表权重系数;
[0050] 将待测图像中所有像素的损失值做加和运算,获得总的损失值;
[0051] 直至总的损失值不再减小时停止训练。
[0052] 本实施方式的损失函数在带权交叉熵损失函数基础上乘上(1‑pt)γ,可以平衡易分类样本点和难分类样本点的差异,在带权交叉熵损失函数中,若有两个车道线样本点的
预测概率为0.7和0.3,则前者为易分类样本点,后者为难分类样本点。对于易分类样本点
γ γ
(前者)通过乘以(1‑0.7) ,使得该损失值相对缩小,而难分类样本点通过乘以(1‑0.3) 使
得其损失值要大于易分类样本点损失值,从而更好的学习难分类样本点;γ参数用于调节
易分类与难分类样本学习的权重,也需要提前给定。
[0053] Focal Loss损失函数中涉及αt和γ两个参数,αt的含义与它在带权交叉熵损失函数中的含义相同,但取值范围不同,在这里为[0,1],而γ参数控制着难分类像素点和易分
类像素点的加权比例,γ取0时,Focal Loss损失函数转化为带权交叉熵损失函数,γ一般
取值为0.5,1,1.5,2等。
[0054] 在本发明中,可以选择带权交叉熵损失函数与Focal Loss损失函数中的任一种作为损失函数。
[0055] 具体实施方式四:本实施方式与具体实施方式二或三不同的是:所述步骤五的具体过程为:
[0056] 将后处理过的二值化车道线掩码图的左上角顶点作为坐标原点,以二值化车道线掩码图的宽度方向为x轴、高度方向为y轴,从左上角顶点到右下角坐标依次增大;
[0057] 设定高度阈值Q,高度阈值Q的设定原则为:将后处理过的二值化车道线掩码图中所有车道线点在y轴方向的最低点加上25,获得高度阈值Q的取值;
[0058] 利用高度阈值Q对后处理过的二值化车道线掩码图中的全部车道线点进行筛选,即筛选出y轴方向坐标大于等于Q的车道线点;
[0059] 对筛选出的车道线点进行聚类(采用的是DBSCAN算法),以将筛选出的每个车道线点归类到对应的车道线;
[0060] 提取出驾驶系统当前所在车道的左侧车道线上的车道线点以及右侧车道线上的车道线点。
[0061] 归好类之后,需要提取当前车道两侧的车道线。本发明中将图像底端中点视作当前车辆的中点,其在图像中的坐标为(图像宽度/2,图像高度)。提取当前车道两侧车道线分
三步进行:第一,计算每类车道线的中点坐标,记为MeanLi,计算其与当前车道中点的距离,
记为DistLi;第二,找到每类车道线最底端的横坐标,并计算其与当前车辆中点横坐标的差
值,记为DiffLi,这是因为根据最低端的横坐标可以判断该车道是在当前车辆的左边或是右
边;第三,从当前车辆右边的车道中(Diff≥0)找到这些车道距离车辆中点MeanLi最小的一
个车道,视为当前车道右车道,同样的从当前车辆左边的车道中(Diff<0)找到这些车道距
离车辆中点MeanLi最小的一个车道,视为当前车道左车道,将左车道和右车道上的点的坐标
输出,用于车道线的拟合。
[0062] 具体实施方式五:本实施方式与具体实施方式四不同的是:所述步骤六中采用的拟合方法为线性回归(最小二乘法)或多项式岭回归。
[0063] 为了保证拟合结果,考虑到在某条车道线上具有的车道线点可能比较少,那么对一个较少的样本采用曲线拟合的方法可能造成与真实车道线形状不符的情况。所以,当车
道线点数较少时采用线性回归(最小二乘法)进行拟合,否则采用多项式岭回归进行曲线拟
合。
[0064] 具体实施方式六:本实施方式与具体实施方式五不同的是:所述步骤四的具体过程为:
[0065] 经过形态学闭运算(先膨胀后腐蚀)将步骤三获得的二值化车道线掩码图中同一条车道线上存在的断点进行连接,并对全部的车道线点进行平滑,获得平滑后的二值化车
道线掩码图;
[0066] 对平滑后的二值化车道线掩码图进行去噪处理,获得后处理过的二值化车道线掩码图。
[0067] 所述对平滑后的二值化车道线掩码图进行去噪处理具体为:对平滑后的二值化车道线掩码图进行邻接区域(图像中窄条的长方形区域)分析,统计每个邻接区域的车道线点
个数和每个车道线点对应的坐标,给定噪声区域的阈值,若某个邻接区域中车道线点个数
少于噪声区域的阈值,则将该邻接区域视作噪声区域,从平滑后的二值化车道线掩码图中
去掉,获得后处理后的二值化车道线掩码图。
[0068] 最终得到的后处理后的二值化车道线掩码图能够保证同一条车道线的车道线点尽可能的相连,同时图像上没有噪声干扰。
[0069] 图2展示了FCN8s网络输出的二值化车道线掩码图,经过后处理得到的二值化车道线掩码图如图3所示,虚线圈内区域表示同一条车道线存在断点,而在后处理得到的车道线
掩码图中被很好的连接上,有利于聚类模块更好的归类。而在两幅图的实线圈区域可以看
到由于进行了闭运算操作,不同车道线在距离较远的位置由于拍摄视角的原因较为接近,
以至于被误连接。对于这种情况,通过舍去车道线距离较远的位置的车道线点,以此来提高
聚类模块的精度和稳定性。
[0070] 特别地,本发明方法不仅适用于单张图像的检测,同样适用于视频图像的检测,检测时只需先将视频图像分割为多个单张图像即可。
[0071] 实验部分
[0072] 1、车道线数据集
[0073] 深度学习网络的学习是基于大数据样本的,数据集的复杂性越高,模型学习的性能和泛化性相对较高,本发明采用的是TuSimple车道线检测数据集(The TuSimple lane 
challange)。
[0074] TuSimple数据集介绍
[0075] 本发明选用2018年6月举办的TuSimple车道线检测挑战数据集,相比于传统车道线数据集,TuSimple数据集更加注重实用性,将很多智能驾驶当中的实际问题考虑了进来。
[0076] FCN8s模型训练
[0077] 由于车道线检测可以视作样本不平衡的分类问题,其背景的样本个数远大于车道线样本;
[0078] FCN8s模型训练过程中选取了标准交叉熵损失函数(Cross Entropy Loss,CE),带权交叉熵损失函数(Weighted CE)和Focal Loss三种损失损失函数,共设计了7组实验,包
含5组不同参数情况下的Focal Loss的对比、1组带权交叉熵损失函数和1组标准交叉熵损
失函数,下面的表2中将对这7组实验参数和实验结果进行详细说明。
[0079] 表2 模型训练对应损失函数参数列表
[0080]
[0081] 模型训练除损失函数外的其他参数均一致,如表3所示:
[0082] 表3 实验其他参数列表
[0083]
[0084]
[0085] FCN8s共进行了30Epoch进行训练,采用Adam优化算法,初始学习率设置为0.01,在第10、18、24轮时减半学习率,模型训练的Batchsize为32,网络输入分辨率为320*160,网络
输入归一化参数为每个通道的均值和方差,数值上为mean=[0.36221257,0.4058522,
0.4073866],std=[0.19146983,0.21310195,0.23031688],该数值通过计算所有TuSimple
样本每个RGB通道的像素值统计得出。
[0086] IoU指标反映的是预测车道线点与真实车道线标注重合的情况。在训练集的训练结果可以看出,WEIGHTED CE训练的模型检测车道线的能力远低于其他损失函数学习的模
型;在训练集上γ取1的Focal Loss训练的模型取得最高的IoU指标得分0.4,γ取2.5训练
的模型在训练集上呈现上升的趋势。
[0087] Recall指标反映的是所有标注出的车道线的预测情况,Recall指标也称查全率。在训练集上的训练结果可以看出,CE的检测车道线的能力远低于其他损失函数学习的模
型;在训练集上Weighted CE取得最高的Recall指标得分0.98,但是在后续的实验中发现,
Weighted CE训练的模型的泛化性不强;在Focal Loss训练的模型中,γ取1时的模型在训
练集上取得0.81。
[0088] Precision指标反映的是所有预测为车道线的像素点实际为车道线的比例,也称准确率。在训练集上的训练结果可以看出,CE的准确率明显高于其他模型,这与Recall指标
呈现相反的结果,CE训练的模型在训练集上Precision指标收敛在0.64,说明CE训练的模型
对于车道线点的准确率很高;Focal Loss训练的模型中,各参数均取得相似的收敛结果,为
0.4左右。
[0089] 本实验中IoU和Precision指标值相对较低,是因为在Label标注文件中,车道线相对较细,在损失函数设计时会放大车道线点的损失值,因而模型在学习时更多的将车道线
周围点也都预测为了车道线,因此车道线分割结果与真实标注的结果的IoU和Precision指
标值就相对偏低。
[0090] 通过分析7组模型在训练集和测试集IoU、Recall、Precision三种指标的对比结果,可以发现在Precision指标上CE训练的模型的效果最佳,但是CE训练的模型在IoU和
Recall指标的表现上都比较差,这说明CE训练的模型对于车道线点虽然准确率高,但是全
面预测能力较弱,所以不考虑CE训练的模型;我们还可以看出在本次实验中,γ取1的Focal 
Loss训练的模型在三种指标上较优于WEIGHTED CE和其他γ取值的Focal Loss训练的模
型,所以,我们选取采用γ取1的Focal Loss损失函数在Epoch为30训练的模型作为训练模
型权重。
[0091] FCN8s的参数量为18643746,检测一张320*640分辨率的图片在GPU1070的环境下平均10毫秒左右。
[0092] DBSCAN聚类算法参数选取:
[0093] 聚类模块采用的是DBSCAN聚类算法,该算法需要指定邻域范围Eps和邻域内最少核心点个数MinPts。本发明中对训练集的Label图片进行聚类,在理想车道线分割的情况
下,对Eps和MinPts两个参数分别取值,共设计8组对比实验,如表4所示,从中选取最优参
数。
[0094] 在8组对比实验中,Eps和MinPts的取值都是取在一个(0,3]之间较小的范围内,这是由于实际的交通场景中距离越近,车道线与车道线之间间隔越大,距离越远,车道线与车
道线之间间隔越小,对于间隔越大的车道线,DBSCAN参数对聚类效果影响较小,但是对于间
隔越小的车道线,Eps和MinPts两个参数有可能会使得两个车道线被分类为同一条。
[0095] 本发明为尽可能的将距离较远处同时不同车道线之间间隔较小的样本正确的进行聚类,将Eps和MinPts参数均取在一个较小的范围内。从表4中可以看出,当Eps=1和
MinPts=1或Eps=1和MinPts=2时,平均归类正确的准确率最大且为98.0%,当Eps小于1
时,准确率为0%;Eps大于1时准确率逐渐降低。本发明选取Eps=1、MinPts=1作为DBSCAN
聚类算法的输入参数。
[0096] 表4 DBSCAN聚类参数选取
[0097]
[0098]
[0099] 各阶段结果展示:
[0100] 各个模块整合后,每张图片的检测流程及每个模块的输出结果进行展示,如图4所示:
[0101] 车道线检测系统会先读取一张图片或获取视频的一帧,通过语义分割模块的FCN8s网络得到车道线分割掩码图,通过后处理填补车道线断点,其中闭运算采用椭圆形结
构核,并进行1次闭运算,邻域分析结束后对样本点(即车道线点)个数少于70的邻域区间进
行舍去,保留主要的车道线;接着在聚类模块中对于320*160分辨率的图像舍去纵坐标低于
某一个阈值(车道线纵轴最低点加上25)的车道线点,再对剩余车道线点进行归类并提取当
前车道所在车道线,在拟合模块对两条车道线进行分别拟合,其中拟合模块的判断阈值选
取为100,若左右两条车道线中至少有一条样本个数少于100,则采用线性回归方式拟合,若
左右两条车道线的样本点个数均等于或大于100,则采样2阶多项式岭回归拟合,最终将拟
合结果显示在图像上。
[0102] 车道线检测精度及用时分析
[0103] 本发明设计的车道线检测方法以精度(Accuracy)作为整个系统的评价指标。
[0104]
[0105] 精度指标反映了每张图像上,预测车道线正确坐标个数Cim与真实标注车道线坐标个数Sim的比值。与Precision指标不同的是,一个预测为车道线的像素坐标点是否预测正
确,取决于在同一高度下与真实标注的同一条车道线的像素点的距离差,是否小于像素数
阈值。若小于像素数阈值,则称该车道线像素点预测正确,否则预测错误。像素数阈值的计
算过程如下代码所示:
[0106]
[0107]
[0108] 像素数阈值计算代码
[0109] pixel_thresh=50#初始像素数阈值
[0110] #计算当前车道左右车道线的倾斜角度
[0111] angles=[LaneEval.get_angle(np.array(x_gts),np.array(y_samples))for x_gts in gt]
[0112] #根据倾斜角度,角度越靠近90°,像素数阈值相对降低,容错范围减小
[0113] #角度越偏离90°,像素数阈值相对提高,容错范围提高
[0114] threshs=[LaneEval.pixel_thresh/np.cos(angle)for angle in angles]
[0115] 由于较远处的车道线相比近处的车道线产生的影响较少,对远处车道线进行舍去。在初始像素数阈值为50的条件下,TuSimple训练集检测精度为92.3%。
[0116] 车道线检测系统各个部分的用时,在实际路况检测中,模型是处于预先加载好的状态,图像是通过摄像头采集的,不需要单独去加载,所以总时间中不计入读取模型和读取
图像的时间。
[0117] 320*160分辨率的图像读取后,对数据进行预处理用时1ms,输入到网络中进行车道线分割用时9ms,对分割掩码图进行后处理用时3ms,聚类并提取当前车道所在车道线用
时3ms,拟合2ms,最后拟合车道线展示在图像上用时1ms,总计用时19ms,相当于平均20ms每
张图像,视频检测平均50帧每秒,可满足实时性检测的要求。
[0118] 本发明的上述算例仅为详细地说明本发明的计算模型和计算流程,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以
做出其它不同形式的变化或变动,这里无法对所有的实施方式予以穷举,凡是属于本发明
的技术方案所引伸出的显而易见的变化或变动仍处于本发明的保护范围之列。