一种主动安全辅助驾驶方法及系统转让专利

申请号 : CN202310434594.6

文献号 : CN116168374B

文献日 :

基本信息:

PDF:

法律信息:

相似专利:

发明人 : 孙治刚

申请人 : 南京淼瀛科技有限公司

摘要 :

本发明公开了一种主动安全辅助驾驶方法及系统,方法通过获取驾驶舱内连续的同一步长时间段的监测视频;并按照时间前后顺序划分成第一监测视频、第二监测视频和第三监测视频;对第一监测视频、第二监测视频和第三监测视频的人眼状态为闭合的图像帧分别进行计数;结合第一闭眼帧数目、第二闭眼帧数目和第三闭眼帧数目进行分析,得到驾驶员的疲劳状态;之后自动播放分级预警信息,完成主动安全辅助驾驶。该方法通过swin transformer深度学习模型和ShuffleNet v1模型的结合,提高了驾驶员状态

权利要求 :

1.一种主动安全辅助驾驶方法,其特征在于,该方法包括:步骤1,获取驾驶舱内连续的同一步长时间段的监测视频;并按照时间前后顺序划分成第一监测视频、第二监测视频和第三监测视频;

步骤2,对所述第一监测视频的人眼状态为闭合的图像帧进行计数,包括:步骤2.1,针对所述第一监测视频的每一帧图像进行人眼状态识别;具体包括:步骤2.1.1,使用swin transformer深度学习模型对所述第一监测视频的当前帧图像进行自动人脸识别,作为第一人脸识别结果;

步骤2.1.2,基于卷积专家约束局部模型检测出所述第一人脸识别结果的人脸坐标;

步骤2.1.3,利用人脸坐标的对称特性和几何轮廓特征提取出人眼轮廓特征和人眼位置对称特征;

步骤2.1.4,在ShuffleNet v1中加入CBAM注意力机制模块,具体是将CBAM注意力机制模块添加到ShuffleNet v1步长是1的基本单元模块里,以生成针对人眼图像集合分类的改进版ShuffleNet v1模型;

步骤2.1.5,将所述人眼轮廓特征和所述人眼位置对称特征进行融合,并将融合后的特征输入所述改进版ShuffleNet v1模型进行识别分类,得到当前帧图像的人眼状态;

步骤2.2,统计所述第一监测视频的人眼状态为闭合的图像帧数目,得到第一闭眼帧数目;

步骤3,对所述第二监测视频的人眼状态为闭合的图像帧进行计数,包括:步骤3.1,针对所述第二监测视频的每一帧图像进行人眼状态识别;具体包括:步骤3.1.1,使用swin transformer深度学习模型对所述第二监测视频的当前帧图像进行自动人脸识别,作为第二人脸识别结果;

步骤3.1.2,基于卷积专家约束局部模型检测出所述第二人脸识别结果的人脸坐标;

步骤3.1.3,利用人脸坐标的对称特性和几何轮廓特征提取出人眼轮廓特征和人眼位置对称特征;

步骤3.1.4,将所述人眼轮廓特征和所述人眼位置对称特征进行融合,并将融合后的特征输入所述改进版ShuffleNet v1模型进行识别分类,得到当前帧图像的人眼状态;

步骤3.2,统计所述第二监测视频的人眼状态为闭合的图像帧数目,得到第二闭眼帧数目;

步骤4,对所述第三监测视频的人眼状态为闭合的图像帧进行计数,包括:步骤4.1,针对所述第三监测视频的每一帧图像进行人眼状态识别;具体包括:步骤4.1.1,使用swin transformer深度学习模型对所述第三监测视频的当前帧图像进行自动人脸识别,作为第三人脸识别结果;

步骤4.1.2,基于卷积专家约束局部模型检测出所述第三人脸识别结果的人脸坐标;

步骤4.1.3,利用人脸坐标的对称特性和几何轮廓特征提取出人眼轮廓特征和人眼位置对称特征;

步骤4.1.4,将所述人眼轮廓特征和所述人眼位置对称特征进行融合,并将融合后的特征输入所述改进版ShuffleNet v1模型进行识别分类,得到当前帧图像的人眼状态;

步骤4.2,统计所述第三监测视频的人眼状态为闭合的图像帧数目,得到第三闭眼帧数目;

步骤5,结合所述第一闭眼帧数目、所述第二闭眼帧数目和所述第三闭眼帧数目进行分析,得到驾驶员的疲劳状态;具体地,计算L1=第二闭眼帧数目‑第一闭眼帧数目;

计算L2=第三闭眼帧数目‑第二闭眼帧数目;

当L2>L1,则表明驾驶员处于疲劳加剧的状态;

步骤6,根据所述驾驶员的疲劳状态,自动播放分级预警信息,完成主动安全辅助驾驶;

所述利用人脸坐标的对称特性和几何轮廓特征提取出人眼轮廓特征和人眼位置对称特征,具体包括:设置原点为鼻尖位置,X轴为横向、Y轴为纵向的人脸直角坐标系;

基于最小二乘法进行椭圆形眼睛轮廓拟合,利用拟合后的椭圆参数来表示所述人眼轮廓特征P;所述椭圆参数包括中心坐标点、椭圆的长轴P1、长轴相对于水平坐标的偏转角P2、椭圆的短轴P3以及短轴相对于垂直坐标的偏转角P4;

P=(P1,P2,P3,P4);

将拟合后的左眼椭圆的中心坐标点(x1,y1)和右眼椭圆的中心坐标点(x2,y2)作为所述人眼位置对称特征Q;

Q=(x1,y1,x2,y2);

所述将所述人眼轮廓特征和所述人眼位置对称特征进行融合,融合后的特征为:(P∪Q)。

2.根据权利要求1所述的方法,其特征在于,还包括:将所述第一闭眼帧数目、所述第二闭眼帧数目和所述第三闭眼帧数目分别与设定阈值进行比较,若均大于设定阈值,则表明驾驶员处于疲劳加剧的状态。

3.根据权利要求1所述的方法,其特征在于,还包括:利用眼睛类训练数据集对所述改进版ShuffleNet v1模型进行迭代训练,得到训练好的ShuffleNet v1分类模型;对于给定的训练样本标签H和预测的标签h,通过如下公式来计算样本误差:其中,T为样本标签的总个数;β为可调节参数,Hi表示第i个训练样本标签,hi表示对应的第i个预测标签。

4.根据权利要求1所述的方法,其特征在于,所述步骤6,根据所述驾驶员的疲劳状态,自动播放分级预警信息,完成主动安全辅助驾驶,具体包括:针对驾驶员的疲劳状态设置语音声量分级预警机制,并且在发出预警时主动打开车辆的双闪以提示周围行驶车辆注意避让。

5.一种主动安全辅助驾驶系统,其特征在于,该系统包括:获取监测视频模块,用于获取驾驶舱内连续的同一步长时间段的监测视频;并按照时间前后顺序划分成第一监测视频、第二监测视频和第三监测视频;

第一计数模块,用于对所述第一监测视频的人眼状态为闭合的图像帧进行计数,包括:第一人眼状态识别模块,用于针对所述第一监测视频的每一帧图像进行人眼状态识别;具体包括:第一人脸识别模块,用于使用swin transformer深度学习模型对所述第一监测视频的当前帧图像进行自动人脸识别,作为第一人脸识别结果;

第一人脸坐标模块,用于基于卷积专家约束局部模型检测出所述第一人脸识别结果的人脸坐标;

第一提取模块,用于利用人脸坐标的对称特性和几何轮廓特征提取出人眼轮廓特征和人眼位置对称特征;

改进模型模块,用于在ShuffleNet v1中加入CBAM注意力机制模块,具体是将CBAM注意力机制模块添加到ShuffleNet v1步长是1的基本单元模块里,以生成针对人眼图像集合分类的改进版ShuffleNet v1模型;

第一特征融合模块,用于将所述人眼轮廓特征和所述人眼位置对称特征进行融合,并将融合后的特征输入所述改进版ShuffleNet v1模型进行识别分类,得到当前帧图像的人眼状态;

第一统计模块,用于统计所述第一监测视频的人眼状态为闭合的图像帧数目,得到第一闭眼帧数目;

第二计数模块,用于对所述第二监测视频的人眼状态为闭合的图像帧进行计数,包括:第二人眼状态识别模块,用于针对所述第二监测视频的每一帧图像进行人眼状态识别;具体包括:第二人脸识别模块,用于使用swin transformer深度学习模型对所述第二监测视频的当前帧图像进行自动人脸识别,作为第二人脸识别结果;

第二人脸坐标模块,用于基于卷积专家约束局部模型检测出所述第二人脸识别结果的人脸坐标;

第二提取模块,用于利用人脸坐标的对称特性和几何轮廓特征提取出人眼轮廓特征和人眼位置对称特征;

第二特征融合模块,用于将所述人眼轮廓特征和所述人眼位置对称特征进行融合,并将融合后的特征输入所述改进版ShuffleNet v1模型进行识别分类,得到当前帧图像的人眼状态;

第二统计模块,用于统计所述第二监测视频的人眼状态为闭合的图像帧数目,得到第二闭眼帧数目;

第三计数模块,用于对所述第三监测视频的人眼状态为闭合的图像帧进行计数,包括:第三人眼状态识别模块,用于针对所述第三监测视频的每一帧图像进行人眼状态识别;具体包括:第三人脸识别模块,用于使用swin transformer深度学习模型对所述第三监测视频的当前帧图像进行自动人脸识别,作为第三人脸识别结果;

第三人脸坐标模块,用于基于卷积专家约束局部模型检测出所述第三人脸识别结果的人脸坐标;

第三提取模块,用于利用人脸坐标的对称特性和几何轮廓特征提取出人眼轮廓特征和人眼位置对称特征;

第三特征融合模块,用于将所述人眼轮廓特征和所述人眼位置对称特征进行融合,并将融合后的特征输入所述改进版ShuffleNet v1模型进行识别分类,得到当前帧图像的人眼状态;

第三统计模块,用于统计所述第三监测视频的人眼状态为闭合的图像帧数目,得到第三闭眼帧数目;

结合分析模块,用于结合所述第一闭眼帧数目、所述第二闭眼帧数目和所述第三闭眼帧数目进行分析,得到驾驶员的疲劳状态;具体地,计算L1=第二闭眼帧数目‑第一闭眼帧数目;

计算L2=第三闭眼帧数目‑第二闭眼帧数目;

当L2>L1,则表明驾驶员处于疲劳加剧的状态;

分级预警模块,用于根据所述驾驶员的疲劳状态,自动播放分级预警信息,完成主动安全辅助驾驶;

所述利用人脸坐标的对称特性和几何轮廓特征提取出人眼轮廓特征和人眼位置对称特征,具体包括:设置模块,用于设置原点为鼻尖位置,X轴为横向、Y轴为纵向的人脸直角坐标系;

椭圆轮廓拟合模块,用于基于最小二乘法进行椭圆形眼睛轮廓拟合,利用拟合后的椭圆参数来表示所述人眼轮廓特征P;所述椭圆参数包括中心坐标点、椭圆的长轴P1、长轴相对于水平坐标的偏转角P2、椭圆的短轴P3以及短轴相对于垂直坐标的偏转角P4;

P=(P1,P2,P3,P4);

将拟合后的左眼椭圆的中心坐标点(x1,y1)和右眼椭圆的中心坐标点(x2,y2)作为所述人眼位置对称特征Q;

Q=(x1,y1,x2,y2);

所述将所述人眼轮廓特征和所述人眼位置对称特征进行融合,融合后的特征为:(P∪Q)。

6.根据权利要求5所述的系统,其特征在于,还包括:比较模块,用于将所述第一闭眼帧数目、所述第二闭眼帧数目和所述第三闭眼帧数目分别与设定阈值进行比较,若均大于设定阈值,则表明驾驶员处于疲劳加剧的状态。

7.根据权利要求5所述的系统,其特征在于,还包括:迭代模块,用于利用眼睛类训练数据集对所述改进版ShuffleNet v1模型进行迭代训练,得到训练好的ShuffleNet v1分类模型;对于给定的训练样本标签H和预测的标签h,通过如下公式来计算样本误差:其中,T为样本标签的总个数;β为可调节参数,Hi表示第i个训练样本标签,hi表示对应的第i个预测标签。

8.根据权利要求5所述的系统,其特征在于,还包括:提示模块,用于针对驾驶员的疲劳状态设置语音声量分级预警机制,并且在发出预警时主动打开车辆的双闪以提示周围行驶车辆注意避让。

说明书 :

一种主动安全辅助驾驶方法及系统

技术领域

[0001] 本发明涉及图像处理领域,具体涉及一种主动安全辅助驾驶方法及系统。

背景技术

[0002] 根据统计数据,公路上出现事故的主要原因之一就是疲劳驾驶,对疲劳驾驶进行有效检测并及时做出提醒,是避免车辆事故的重要手段;当前存在的疲劳驾驶检测方法有脑电图、眼电图、肌电图、呼吸气流、呼吸效果、动脉血液氧饱和时的温度和心电图等测量方法,也有利用眼睛和嘴巴的相关人脸特征进行检测;例如现有技术CN104688251A(公开日20150610)涉及一种多姿态下的疲劳及非正常姿态驾驶检测方法,包括:步骤1:图像采集,采集驾驶员图像信息;步骤2:图像识别,对采集到的图像进行实时人脸检测;步骤3:面部特征点标定,包括:对检测到的人脸进行眼睛和嘴巴的特征点标定;步骤4:眼睛和嘴巴状态判断,包括:对特征点采用基于面部宽度信息的眼睛状态检测方法分析人眼与嘴巴的闭合状态;步骤5:头部三维姿态检测,包括:利用几何特征对头部三维姿态进行检测;步骤6:疲劳及非正常姿态驾驶状态判断,包括:根据人眼与嘴巴的闭合状态判断驾驶员是否处于疲劳,并根据头部三维姿态判断驾驶员是否处于非正常驾驶状态。但是该类方法的效率不够高,实现疲劳状态检测的实时性得不到保证,并且有效性和准确度不高。因此亟需一种智能化程度相对较高、满足实用性强、性价比高的驾驶员状态监测方法。

发明内容

[0003] 针对现有技术中的以上缺陷,本发明的目的在于提供一种主动安全辅助驾驶方法及系统,该方法通过swin transformer深度学习模型和ShuffleNet v1模型的相互结合,有效克服了干扰性和使用模型单一的缺陷,大大提高了驾驶员状态检测识别的效率,通过分析判断实现了分级报警和主动安全辅助驾驶的功能,从而起到及时提醒驾驶员,保障行车安全的作用。
[0004] 为实现上述发明目的,本发明采用如下技术方案:
[0005] 第一方面,本发明提供一种主动安全辅助驾驶方法,该方法包括:
[0006] 步骤1,获取驾驶舱内连续的同一步长时间段的监测视频;并按照时间前后顺序划分成第一监测视频、第二监测视频和第三监测视频;
[0007] 步骤2,对所述第一监测视频的人眼状态为闭合的图像帧进行计数,包括:
[0008] 步骤2.1,针对所述第一监测视频的每一帧图像进行人眼状态识别;
[0009] 步骤2.2,统计所述第一监测视频的人眼状态为闭合的图像帧数目,得到第一闭眼帧数目;
[0010] 步骤3,对所述第二监测视频的人眼状态为闭合的图像帧进行计数,包括:
[0011] 步骤3.1,针对所述第二监测视频的每一帧图像进行人眼状态识别;
[0012] 步骤3.2,统计所述第二监测视频的人眼状态为闭合的图像帧数目,得到第二闭眼帧数目;
[0013] 步骤4,对所述第三监测视频的人眼状态为闭合的图像帧进行计数,包括:
[0014] 步骤4.1,针对所述第三监测视频的每一帧图像进行人眼状态识别;
[0015] 步骤4.2,统计所述第三监测视频的人眼状态为闭合的图像帧数目,得到第三闭眼帧数目;
[0016] 步骤5,结合所述第一闭眼帧数目、所述第二闭眼帧数目和所述第三闭眼帧数目进行分析,得到驾驶员的疲劳状态;具体地,
[0017] 计算L1=第二闭眼帧数目‑第一闭眼帧数目;
[0018] 计算L2=第三闭眼帧数目‑第二闭眼帧数目;
[0019] 当L2>L1,则表明驾驶员处于疲劳加剧的状态;
[0020] 步骤6,根据所述驾驶员的疲劳状态,自动播放分级预警信息,完成主动安全辅助驾驶。
[0021] 进一步地,所述步骤2.1,针对所述第一监测视频的每一帧图像进行人眼状态识别,具体包括:
[0022] 步骤2.1.1,使用swin transformer深度学习模型对所述第一监测视频的当前帧图像进行自动人脸识别,作为第一人脸识别结果;
[0023] 步骤2.1.2,基于卷积专家约束局部模型检测出所述第一人脸识别结果的人脸坐标;
[0024] 步骤2.1.3,利用人脸坐标的对称特性和几何轮廓特征提取出人眼轮廓特征和人眼位置对称特征;
[0025] 步骤2.1.4,在ShuffleNet v1中加入CBAM注意力机制模块,具体是将CBAM注意力机制模块添加到ShuffleNet v1步长是1的基本单元模块里,以生成针对人眼图像集合分类的改进版ShuffleNet v1模型;
[0026] 步骤2.1.5,将所述人眼轮廓特征和所述人眼位置对称特征进行融合,并将融合后的特征输入所述改进版ShuffleNet v1模型进行识别分类,得到当前帧图像的人眼状态。
[0027] 进一步地,所述步骤3.1,针对所述第二监测视频的每一帧图像进行人眼状态识别,具体包括:
[0028] 步骤3.1.1,使用swin transformer深度学习模型对所述第二监测视频的当前帧图像进行自动人脸识别,作为第二人脸识别结果;
[0029] 步骤3.1.2,基于卷积专家约束局部模型检测出所述第二人脸识别结果的人脸坐标;
[0030] 步骤3.1.3,利用人脸坐标的对称特性和几何轮廓特征提取出人眼轮廓特征和人眼位置对称特征;
[0031] 步骤3.1.4,将所述人眼轮廓特征和所述人眼位置对称特征进行融合,并将融合后的特征输入所述改进版ShuffleNet v1模型进行识别分类,得到当前帧图像的人眼状态。
[0032] 进一步地,所述步骤4.1,针对所述第三监测视频的每一帧图像进行人眼状态识别,具体包括:
[0033] 步骤4.1.1,使用swin transformer深度学习模型对所述第三监测视频的当前帧图像进行自动人脸识别,作为第三人脸识别结果;
[0034] 步骤4.1.2,基于卷积专家约束局部模型检测出所述第三人脸识别结果的人脸坐标;
[0035] 步骤4.1.3,利用人脸坐标的对称特性和几何轮廓特征提取出人眼轮廓特征和人眼位置对称特征;
[0036] 步骤4.1.4,将所述人眼轮廓特征和所述人眼位置对称特征进行融合,并将融合后的特征输入所述改进版ShuffleNet v1模型进行识别分类,得到当前帧图像的人眼状态。
[0037] 进一步地,所述利用人脸坐标的对称特性和几何轮廓特征提取出人眼轮廓特征和人眼位置对称特征,具体包括:
[0038] 设置原点为鼻尖位置,X轴为横向、Y轴为纵向的人脸直角坐标系;
[0039] 基于最小二乘法进行椭圆形眼睛轮廓拟合,利用拟合后的椭圆参数来表示所述人眼轮廓特征P;所述椭圆参数包括中心坐标点、椭圆的长轴P1、长轴相对于水平坐标的偏转角P2、椭圆的短轴P3以及短轴相对于垂直坐标的偏转角P4;
[0040] P=(P1,P2,P3,P4);
[0041] 将拟合后的左眼椭圆的中心坐标点(x1,y1)和右眼椭圆的中心坐标点(x2,y2)作为所述人眼位置对称特征Q;
[0042] Q=(x1,y1, x2,y2);
[0043] 所述将所述人眼轮廓特征和所述人眼位置对称特征进行融合,融合后的特征为:()。
[0044] 进一步地,还包括:
[0045] 将所述第一闭眼帧数目、所述第二闭眼帧数目和所述第三闭眼帧数目分别与设定阈值进行比较,若均大于设定阈值,则表明驾驶员处于疲劳加剧的状态。
[0046] 进一步地,还包括:
[0047] 利用眼睛类训练数据集对所述改进版ShuffleNet v1模型进行迭代训练,得到训练好的ShuffleNet v1分类模型;对于给定的训练样本标签H和预测的标签h,通过如下公式来计算样本误差:
[0048]
[0049] 其中,T为样本标签的总个数;为可调节参数,Hi表示第i个训练样本标签,hi表示对应的第i个预测标签。
[0050] 进一步地,所述步骤6,根据所述驾驶员的疲劳状态,自动播放分级预警信息,完成主动安全辅助驾驶,具体包括:
[0051] 针对驾驶员的疲劳状态设置语音声量分级预警机制,并且在发出预警时主动打开车辆的双闪以提示周围行驶车辆注意避让。
[0052] 第二方面,本发明还提供一种主动安全辅助驾驶系统,其特征在于,该系统包括:
[0053] 获取监测视频模块,用于获取驾驶舱内连续的同一步长时间段的监测视频;并按照时间前后顺序划分成第一监测视频、第二监测视频和第三监测视频;
[0054] 第一计数模块,用于对所述第一监测视频的人眼状态为闭合的图像帧进行计数,包括:
[0055] 第一人眼状态识别模块,用于针对所述第一监测视频的每一帧图像进行人眼状态识别;
[0056] 第一统计模块,用于统计所述第一监测视频的人眼状态为闭合的图像帧数目,得到第一闭眼帧数目;
[0057] 第二计数模块,用于对所述第二监测视频的人眼状态为闭合的图像帧进行计数,包括:
[0058] 第二人眼状态识别模块,用于针对所述第二监测视频的每一帧图像进行人眼状态识别;
[0059] 第二统计模块,用于统计所述第二监测视频的人眼状态为闭合的图像帧数目,得到第二闭眼帧数目;
[0060] 第三计数模块,用于对所述第三监测视频的人眼状态为闭合的图像帧进行计数,包括:
[0061] 第三人眼状态识别模块,用于针对所述第三监测视频的每一帧图像进行人眼状态识别;
[0062] 第三统计模块,用于统计所述第三监测视频的人眼状态为闭合的图像帧数目,得到第三闭眼帧数目;
[0063] 结合分析模块,用于结合所述第一闭眼帧数目、所述第二闭眼帧数目和所述第三闭眼帧数目进行分析,得到驾驶员的疲劳状态;具体地,
[0064] 计算L1=第二闭眼帧数目‑第一闭眼帧数目;
[0065] 计算L2=第三闭眼帧数目‑第二闭眼帧数目;
[0066] 当L2>L1,则表明驾驶员处于疲劳加剧的状态;
[0067] 分级预警模块,用于根据所述驾驶员的疲劳状态,自动播放分级预警信息,完成主动安全辅助驾驶。
[0068] 进一步地,所述第一人眼状态识别模块,用于针对所述第一监测视频的每一帧图像进行人眼状态识别,具体包括:
[0069] 第一人脸识别模块,用于使用swin transformer深度学习模型对所述第一监测视频的当前帧图像进行自动人脸识别,作为第一人脸识别结果;
[0070] 第一人脸坐标模块,用于基于卷积专家约束局部模型检测出所述第一人脸识别结果的人脸坐标;
[0071] 第一提取模块,用于利用人脸坐标的对称特性和几何轮廓特征提取出人眼轮廓特征和人眼位置对称特征;
[0072] 改进模型模块,用于在ShuffleNet v1中加入CBAM注意力机制模块,具体是将CBAM注意力机制模块添加到ShuffleNet v1步长是1的基本单元模块里,以生成针对人眼图像集合分类的改进版ShuffleNet v1模型;
[0073] 第一特征融合模块,用于将所述人眼轮廓特征和所述人眼位置对称特征进行融合,并将融合后的特征输入所述改进版ShuffleNet v1模型进行识别分类,得到当前帧图像的人眼状态。
[0074] 进一步地,所述第二人眼状态识别模块,用于针对所述第二监测视频的每一帧图像进行人眼状态识别,具体包括:
[0075] 第二人脸识别模块,用于使用swin transformer深度学习模型对所述第二监测视频的当前帧图像进行自动人脸识别,作为第二人脸识别结果;
[0076] 第二人脸坐标模块,用于基于卷积专家约束局部模型检测出所述第二人脸识别结果的人脸坐标;
[0077] 第二提取模块,用于利用人脸坐标的对称特性和几何轮廓特征提取出人眼轮廓特征和人眼位置对称特征;
[0078] 第二特征融合模块,用于将所述人眼轮廓特征和所述人眼位置对称特征进行融合,并将融合后的特征输入所述改进版ShuffleNet v1模型进行识别分类,得到当前帧图像的人眼状态。
[0079] 进一步地,所述第三人眼状态识别模块,用于针对所述第三监测视频的每一帧图像进行人眼状态识别,具体包括:
[0080] 第三人脸识别模块,用于使用swin transformer深度学习模型对所述第三监测视频的当前帧图像进行自动人脸识别,作为第三人脸识别结果;
[0081] 第三人脸坐标模块,用于基于卷积专家约束局部模型检测出所述第三人脸识别结果的人脸坐标;
[0082] 第三提取模块,用于利用人脸坐标的对称特性和几何轮廓特征提取出人眼轮廓特征和人眼位置对称特征;
[0083] 第三特征融合模块,用于将所述人眼轮廓特征和所述人眼位置对称特征进行融合,并将融合后的特征输入所述改进版ShuffleNet v1模型进行识别分类,得到当前帧图像的人眼状态。
[0084] 进一步地,所述利用人脸坐标的对称特性和几何轮廓特征提取出人眼轮廓特征和人眼位置对称特征,具体包括:
[0085] 设置模块,用于设置原点为鼻尖位置,X轴为横向、Y轴为纵向的人脸直角坐标系;
[0086] 椭圆轮廓拟合模块,用于基于最小二乘法进行椭圆形眼睛轮廓拟合,利用拟合后的椭圆参数来表示所述人眼轮廓特征P;所述椭圆参数包括中心坐标点、椭圆的长轴P1、长轴相对于水平坐标的偏转角P2、椭圆的短轴P3以及短轴相对于垂直坐标的偏转角P4;
[0087] P=(P1,P2,P3,P4);
[0088] 将拟合后的左眼椭圆的中心坐标点(x1,y1)和右眼椭圆的中心坐标点(x2,y2)作为所述人眼位置对称特征Q;
[0089] Q=(x1,y1, x2,y2);
[0090] 所述将所述人眼轮廓特征和所述人眼位置对称特征进行融合,融合后的特征为:()。
[0091] 进一步地,还包括:
[0092] 比较模块,用于将所述第一闭眼帧数目、所述第二闭眼帧数目和所述第三闭眼帧数目分别与设定阈值进行比较,若均大于设定阈值,则表明驾驶员处于疲劳加剧的状态。
[0093] 进一步地,还包括:
[0094] 迭代模块,用于利用眼睛类训练数据集对所述改进版ShuffleNet v1模型进行迭代训练,得到训练好的ShuffleNet v1分类模型;对于给定的训练样本标签H和预测的标签h,通过如下公式来计算样本误差:
[0095]
[0096] 其中,T为样本标签的总个数;为可调节参数,Hi表示第i个训练样本标签,hi表示对应的第i个预测标签。
[0097] 进一步地,还包括:
[0098] 提示模块,用于针对驾驶员的疲劳状态设置语音声量分级预警机制,并且在发出预警时主动打开车辆的双闪以提示周围行驶车辆注意避让。
[0099] 有益效果:
[0100] 1. 本发明方法通过步骤1,获取驾驶舱内连续的同一步长时间段的监测视频;并按照时间前后顺序划分成第一监测视频、第二监测视频和第三监测视频;步骤2,对所述第一监测视频的人眼状态为闭合的图像帧进行计数;步骤3,对所述第二监测视频的人眼状态为闭合的图像帧进行计数;步骤4,对所述第三监测视频的人眼状态为闭合的图像帧进行计数;步骤5,结合第一闭眼帧数目、第二闭眼帧数目和第三闭眼帧数目进行分析,得到驾驶员的疲劳状态;步骤6,根据所述驾驶员的疲劳状态,自动播放分级预警信息,完成主动安全辅助驾驶。该方法通过swin transformer深度学习模型和ShuffleNet v1模型的相互结合,有效克服了干扰性和使用模型单一的缺陷,大大提高了驾驶员状态检测识别的效率,通过分析判断实现了分级报警和主动安全辅助驾驶的功能,从而起到及时提醒驾驶员,保障行车安全的作用。
[0101] 2. 创新性的利用卷积专家约束局部模型(CE‑CLM)检测出人脸坐标,并利用人脸坐标的对称特性和几何轮廓特征提取出人眼轮廓特征和人眼位置对称特征;同时设计了基于最小二乘法进行椭圆形眼睛轮廓拟合;使得提取的特征更具代表性,抑制了无用的特征信息,为后续的分类任务奠定了基础,使得分类效果更好,有效提高了疲劳状态检测的准确度。
[0102] 3. 本发明在ShuffleNet v1中加入CBAM注意力机制模块,具体是将CBAM注意力机制模块添加到ShuffleNet v1步长是1的基本单元模块里,以生成针对人眼图像集合分类的改进版ShuffleNet v1模型。通过注意力机制改进ShuffleNet v1模型,满足了算法的实时性要求,实现了模型准确率和处理速度的双向提升。

附图说明

[0103] 图1为主动安全辅助驾驶方法的步骤示意图。
[0104] 图2为在ShuffleNet v1中加入CBAM注意力机制模块的模型示意图。

具体实施方式

[0105] 下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与发明相关的部分。
[0106] 如图1‑图2所示,本实施例提供一种主动安全辅助驾驶方法,该方法包括:
[0107] 步骤1,获取驾驶舱内连续的同一步长时间段的监测视频;并按照时间前后顺序划分成第一监测视频、第二监测视频和第三监测视频;
[0108] 具体地,可以获取3秒的连续监控视频,按照1秒的步长将其平均分解成3段,第1秒的监测视频作为第一监测视频,第2秒的监测视频作为第二监测视频,第3秒的监测视频作为第三监测视频;
[0109] 步骤2,对所述第一监测视频的人眼状态为闭合的图像帧进行计数;
[0110] 步骤2.1,针对所述第一监测视频的每一帧图像进行人眼状态识别,具体包括:
[0111] 步骤2.1.1,使用swin transformer深度学习模型对所述第一监测视频的当前帧图像进行自动人脸识别,作为第一人脸识别结果;
[0112] 步骤2.1.2,基于卷积专家约束局部模型检测出所述第一人脸识别结果的人脸坐标;
[0113] 步骤2.1.3,利用人脸坐标的对称特性和几何轮廓特征提取出人眼轮廓特征和人眼位置对称特征;
[0114] 步骤2.1.4,在ShuffleNet v1中加入CBAM注意力机制模块,具体是将CBAM注意力机制模块添加到ShuffleNet v1步长是1的基本单元模块里,以生成针对人眼图像集合分类的改进版ShuffleNet v1模型;
[0115] 步骤2.1.5,将所述人眼轮廓特征和所述人眼位置对称特征进行融合,并将融合后的特征输入所述改进版ShuffleNet v1模型进行识别分类,得到当前帧图像的人眼状态;
[0116] 步骤2.2,统计所述第一监测视频的人眼状态为闭合的图像帧数目,得到第一闭眼帧数目;
[0117] 步骤3,对所述第二监测视频的人眼状态为闭合的图像帧进行计数;
[0118] 步骤3.1,针对所述第二监测视频的每一帧图像进行人眼状态识别,具体包括:
[0119] 步骤3.1.1,使用swin transformer深度学习模型对所述第二监测视频的当前帧图像进行自动人脸识别,作为第二人脸识别结果;
[0120] 步骤3.1.2,基于卷积专家约束局部模型检测出所述第二人脸识别结果的人脸坐标;
[0121] 步骤3.1.3,利用人脸坐标的对称特性和几何轮廓特征提取出人眼轮廓特征和人眼位置对称特征;
[0122] 步骤3.1.4,将所述人眼轮廓特征和所述人眼位置对称特征进行融合,并将融合后的特征输入所述改进版ShuffleNet v1模型进行识别分类,得到当前帧图像的人眼状态;
[0123] 步骤3.2,统计所述第二监测视频的人眼状态为闭合的图像帧数目,得到第二闭眼帧数目;
[0124] 步骤4,对所述第三监测视频的人眼状态为闭合的图像帧进行计数;
[0125] 步骤4.1,针对所述第三监测视频的每一帧图像进行人眼状态识别,具体包括:
[0126] 步骤4.1.1,使用swin transformer深度学习模型对所述第三监测视频的当前帧图像进行自动人脸识别,作为第三人脸识别结果;
[0127] 步骤4.1.2,基于卷积专家约束局部模型检测出所述第三人脸识别结果的人脸坐标;
[0128] 步骤4.1.3,利用人脸坐标的对称特性和几何轮廓特征提取出人眼轮廓特征和人眼位置对称特征;
[0129] 步骤4.1.4,将所述人眼轮廓特征和所述人眼位置对称特征进行融合,并将融合后的特征输入所述改进版ShuffleNet v1模型进行识别分类,得到当前帧图像的人眼状态;
[0130] 步骤4.2,统计所述第三监测视频的人眼状态为闭合的图像帧数目,得到第三闭眼帧数目;
[0131] 步骤5,结合所述第一闭眼帧数目、所述第二闭眼帧数目和所述第三闭眼帧数目进行分析,得到驾驶员的疲劳状态;具体地,
[0132] 计算L1=第二闭眼帧数目‑第一闭眼帧数目;
[0133] 计算L2=第三闭眼帧数目‑第二闭眼帧数目;
[0134] 当L2>L1,则表明驾驶员处于疲劳加剧的状态;
[0135] 具体地,通过该比较步骤,能够准确地识别出驾驶员的实时变化状态,大大提高了驾驶员状态检测的准确度。
[0136] 步骤6,根据所述驾驶员的疲劳状态,自动播放分级预警信息,完成主动安全辅助驾驶。
[0137] 在可选的实施方式中,所述利用人脸坐标的对称特性和几何轮廓特征提取出人眼轮廓特征和人眼位置对称特征,具体包括:
[0138] 设置原点为鼻尖位置,X轴为横向、Y轴为纵向的人脸直角坐标系;
[0139] 基于最小二乘法进行椭圆形眼睛轮廓拟合,利用拟合后的椭圆参数来表示所述人眼轮廓特征P;所述椭圆参数包括中心坐标点、椭圆的长轴P1、长轴相对于水平坐标的偏转角P2、椭圆的短轴P3以及短轴相对于垂直坐标的偏转角P4;
[0140] P=(P1,P2,P3,P4);
[0141] 将拟合后的左眼椭圆的中心坐标点(x1,y1)和右眼椭圆的中心坐标点(x2,y2)作为所述人眼位置对称特征Q;
[0142] Q=(x1,y1, x2,y2);
[0143] 所述将所述人眼轮廓特征和所述人眼位置对称特征进行融合,融合后的特征为:()。
[0144] 在可选的实施方式中,还包括:
[0145] 将所述第一闭眼帧数目、所述第二闭眼帧数目和所述第三闭眼帧数目分别与设定阈值进行比较,若均大于设定阈值,则表明驾驶员处于疲劳加剧的状态。
[0146] 具体地,设定3个阈值时可以设定不一样的,也可以设定一样的,依据实际需求而定。
[0147] 在可选的实施方式中,还包括:
[0148] 利用眼睛类训练数据集对所述改进版ShuffleNet v1模型进行迭代训练,得到训练好的ShuffleNet v1分类模型;对于给定的训练样本标签H和预测的标签h,通过如下公式来计算样本误差:
[0149]
[0150] 其中,T为样本标签的总个数;为可调节参数,Hi表示第i个训练样本标签,hi表示对应的第i个预测标签。
[0151] 在可选的实施方式中,还包括:所述步骤6,根据所述驾驶员的疲劳状态,自动播放分级预警信息,完成主动安全辅助驾驶,具体包括:
[0152] 针对驾驶员的疲劳状态设置语音声量分级预警机制,并且在发出预警时主动打开车辆的双闪以提示周围行驶车辆注意避让。
[0153] 基于相同的发明构思,本实施例提供一种主动安全辅助驾驶系统,该系统包括:
[0154] 获取监测视频模块,用于获取驾驶舱内连续的同一步长时间段的监测视频;并按照时间前后顺序划分成第一监测视频、第二监测视频和第三监测视频;
[0155] 具体地,可以获取3秒的连续监控视频,按照1秒的步长将其平均分解成3段,第1秒的监测视频作为第一监测视频,第2秒的监测视频作为第二监测视频,第3秒的监测视频作为第三监测视频;
[0156] 第一计数模块,用于对所述第一监测视频的人眼状态为闭合的图像帧进行计数;
[0157] 第一人眼状态识别模块,用于针对所述第一监测视频的每一帧图像进行人眼状态识别,具体包括:
[0158] 第一人脸识别模块,用于使用swin transformer深度学习模型对所述第一监测视频的当前帧图像进行自动人脸识别,作为第一人脸识别结果;
[0159] 第一人脸坐标模块,用于基于卷积专家约束局部模型检测出所述第一人脸识别结果的人脸坐标;
[0160] 第一提取模块,用于利用人脸坐标的对称特性和几何轮廓特征提取出人眼轮廓特征和人眼位置对称特征;
[0161] 改进模型模块,用于在ShuffleNet v1中加入CBAM注意力机制模块,具体是将CBAM注意力机制模块添加到ShuffleNet v1步长是1的基本单元模块里,以生成针对人眼图像集合分类的改进版ShuffleNet v1模型;
[0162] 第一特征融合模块,用于将所述人眼轮廓特征和所述人眼位置对称特征进行融合,并将融合后的特征输入所述改进版ShuffleNet v1模型进行识别分类,得到当前帧图像的人眼状态;
[0163] 第一统计模块,用于统计所述第一监测视频的人眼状态为闭合的图像帧数目,得到第一闭眼帧数目;
[0164] 第二计数模块,用于对所述第二监测视频的人眼状态为闭合的图像帧进行计数;
[0165] 第二人眼状态识别模块,用于针对所述第二监测视频的每一帧图像进行人眼状态识别,具体包括:
[0166] 第二人脸识别模块,用于使用swin transformer深度学习模型对所述第二监测视频的当前帧图像进行自动人脸识别,作为第二人脸识别结果;
[0167] 第二人脸坐标模块,用于基于卷积专家约束局部模型检测出所述第二人脸识别结果的人脸坐标;
[0168] 第二提取模块,用于利用人脸坐标的对称特性和几何轮廓特征提取出人眼轮廓特征和人眼位置对称特征;
[0169] 第二特征融合模块,用于将所述人眼轮廓特征和所述人眼位置对称特征进行融合,并将融合后的特征输入所述改进版ShuffleNet v1模型进行识别分类,得到当前帧图像的人眼状态;
[0170] 第二统计模块,用于统计所述第二监测视频的人眼状态为闭合的图像帧数目,得到第二闭眼帧数目;
[0171] 第三计数模块,用于对所述第三监测视频的人眼状态为闭合的图像帧进行计数;
[0172] 第三人眼状态识别模块,用于针对所述第三监测视频的每一帧图像进行人眼状态识别,具体包括:
[0173] 第三人脸识别模块,用于使用swin transformer深度学习模型对所述第三监测视频的当前帧图像进行自动人脸识别,作为第三人脸识别结果;
[0174] 第三人脸坐标模块,用于基于卷积专家约束局部模型检测出所述第三人脸识别结果的人脸坐标;
[0175] 第三提取模块,用于利用人脸坐标的对称特性和几何轮廓特征提取出人眼轮廓特征和人眼位置对称特征;
[0176] 第三特征融合模块,用于将所述人眼轮廓特征和所述人眼位置对称特征进行融合,并将融合后的特征输入所述改进版ShuffleNet v1模型进行识别分类,得到当前帧图像的人眼状态;
[0177] 第三统计模块,用于统计所述第三监测视频的人眼状态为闭合的图像帧数目,得到第三闭眼帧数目;
[0178] 结合分析模块,用于结合所述第一闭眼帧数目、所述第二闭眼帧数目和所述第三闭眼帧数目进行分析,得到驾驶员的疲劳状态;具体地,
[0179] 计算L1=第二闭眼帧数目‑第一闭眼帧数目;
[0180] 计算L2=第三闭眼帧数目‑第二闭眼帧数目;
[0181] 当L2>L1,则表明驾驶员处于疲劳加剧的状态;
[0182] 分级预警模块,用于根据所述驾驶员的疲劳状态,自动播放分级预警信息,完成主动安全辅助驾驶。
[0183] 在可选的实施方式中,所述利用人脸坐标的对称特性和几何轮廓特征提取出人眼轮廓特征和人眼位置对称特征,具体包括:
[0184] 设置模块,用于设置原点为鼻尖位置,X轴为横向、Y轴为纵向的人脸直角坐标系;
[0185] 椭圆轮廓拟合模块,用于基于最小二乘法进行椭圆形眼睛轮廓拟合,利用拟合后的椭圆参数来表示所述人眼轮廓特征P;所述椭圆参数包括中心坐标点、椭圆的长轴P1、长轴相对于水平坐标的偏转角P2、椭圆的短轴P3以及短轴相对于垂直坐标的偏转角P4;
[0186] P=(P1,P2,P3,P4);
[0187] 将拟合后的左眼椭圆的中心坐标点(x1,y1)和右眼椭圆的中心坐标点(x2,y2)作为所述人眼位置对称特征Q;
[0188] Q=(x1,y1, x2,y2);
[0189] 所述将所述人眼轮廓特征和所述人眼位置对称特征进行融合,融合后的特征为:()。
[0190] 在可选的实施方式中,还包括:
[0191] 比较模块,用于将所述第一闭眼帧数目、所述第二闭眼帧数目和所述第三闭眼帧数目分别与设定阈值进行比较,若均大于设定阈值,则表明驾驶员处于疲劳加剧的状态。
[0192] 在可选的实施方式中,还包括:
[0193] 迭代模块,用于利用眼睛类训练数据集对所述改进版ShuffleNet v1模型进行迭代训练,得到训练好的ShuffleNet v1分类模型;对于给定的训练样本标签H和预测的标签h,通过如下公式来计算样本误差:
[0194]
[0195] 其中,T为样本标签的总个数;为可调节参数,Hi表示第i个训练样本标签,hi表示对应的第i个预测标签。
[0196] 在可选的实施方式中,还包括:
[0197] 提示模块,用于针对驾驶员的疲劳状态设置语音声量分级预警机制,并且在发出预警时主动打开车辆的双闪以提示周围行驶车辆注意避让。
[0198] 本发明通过swin transformer深度学习模型和ShuffleNet v1模型的相互结合,有效克服了干扰性和使用模型单一的缺陷,大大提高了驾驶员状态检测识别的效率,通过分析判断实现了分级报警和主动安全辅助驾驶的功能,从而起到及时提醒驾驶员,保障行车安全的作用。