一种无人驾驶汽车转让专利

申请号 : CN201811126993.1

文献号 : CN109398310B

文献日 :

基本信息:

PDF:

法律信息:

相似专利:

发明人 : 不公告发明人

申请人 : 中创博利科技控股有限公司

摘要 :

本发明提供了一种无人驾驶汽车,该无人驾驶汽车包括:视频采集模块用于采集位于无人驾驶汽车内的搭乘者的视频;信息处理模块用于对采集的视频进行处理,获取视频中搭乘者身份的特征数据;身份识别模块用于判断搭乘者身份的特征数据与预存储的车主信息库中的有搭乘权限的人的特征数据是否匹配,若匹配成功,则将匹配结果发送至控制模块,若匹配失败,则将匹配结果通过无线网传输至车主的移动终端;控制模块用于接收匹配结果,并控制无人驾驶汽车启动。本发明通过对搭乘者的身份进行识别,进而根据匹配结果判断是否启动该汽车,该做法有效地防止了无人驾驶汽车被盗的风险,增加了无人驾驶汽车的安全性。

权利要求 :

1.一种无人驾驶汽车,其特征是,包括:视频采集模块、信息处理模块、身份识别模块和控制模块;

所述视频采集模块,用于采集位于所述无人驾驶汽车内的搭乘者的视频;

所述信息处理模块,用于对采集的视频进行处理,获取所述视频中搭乘者身份的特征数据;

所述身份识别模块,用于判断搭乘者身份的特征数据与预存储的车主信息库中的有搭乘权限的人的特征数据是否匹配,若匹配成功,则将匹配结果发送至所述控制模块,若匹配失败,则将匹配结果通过无线网传输至车主的移动终端进行报警;

所述控制模块,用于接收匹配结果,并控制所述无人驾驶汽车启动;

所述信息处理模块包括分割单元、去噪单元和特征提取单元;

所述分割单元,用于从所述视频中的一帧图像中获取搭乘者的人脸图像;

所述去噪单元,用于去除所述人脸图像中的噪声;

所述特征提取单元,用于从去噪后的人脸图像中获取表征该搭乘者身份的特征数据;

所述分割单元包括空间显著性值计算子单元、运动显著性值计算子单元和显著性融合子单元;

所述空间显著性值计算子单元,用于根据所述视频中的第t帧视频图像中各个像素点的空间位置、颜色特征和像素点的分布情况,计算该帧视频图像中所有像素点的空间显著性值;

所述运动显著性值计算子单元,用于通过光流法计算第t帧视频图像的运动场,并根据所述运动场,利用下式计算第t帧视频图像中所有像素点的运动显著性值,其中,第t帧视频图像中像素点v的运动显著性值的计算式为:式中,Fti(v)为第t帧视频图像中像素点v的运动显著性值,D(Mv,Mw)是像素点v和像素点w的光流向量差值,|·|表示取所述光流向量的幅值,像素点w是第t帧视频图像中除去像素点v的任一像素点,Λ为第t帧视频图像中所有像素点构成的集合;

所述显著性融合子单元,用于对所述空间显著性计算模块和所述运动显著性计算模块的计算结果进行融合处理,得到所述第t帧视频图像中所有像素点的综合显著性值;所述综合显著性值用于判断该视频图像中的像素点是否属于人脸图像像素点,其判断过程为:当F(r)≥λ时,则像素点r属于人脸图像像素点,当F(r)<λ时,像素点r属于背景图像的像素点,其中F(r)是第t帧视频图像中像素点r的综合显著性值,λ是设定的阈值,遍历第t帧视频图像中所有像素点,所有属于人脸图像的像素点构成的集合即为搭乘者的人脸图像。

2.根据权利要求1所述的无人驾驶汽车,其特征是,还包括应急锁定模块,所述应急锁定模块与所述身份识别模块连接,用于当匹配失败时,对所述无人驾驶汽车进行锁定。

3.根据权利要求1所述的无人驾驶汽车,其特征是,所述根据所述视频中的第t帧视频图像中各个像素点的空间位置、颜色特征和像素点的分布情况,计算该帧视频图像中所有像素点的空间显著性值,其中,第t帧视频图像中像素点p的空间显著性值可通过下式计算得到:式中,Fsp(p)是第t帧视频图像中像素点p的空间显著性值,Fsl(p)是描述像素点p与第t帧视频图像中剩余像素点之间的空间位置约束程度的显著性值;Fcol(p)是描述与像素点p的红/绿、蓝/黄的对比色度值相关的显著性值;Fsd(p)是像素点p的相似性分布的显著性值,ω1、ω2是权重因子,分别表示Fcol(p)和Fsd(p)在计算像素点p的空间显著性值时的重要程度,χ为补偿系数,用于补偿所述无人驾驶汽车车内环境带来的视觉误差。

说明书 :

一种无人驾驶汽车

技术领域

[0001] 本发明涉及车辆自动控制领域,具体涉及一种无人驾驶汽车。

背景技术

[0002] 随着无人驾驶汽车的迅猛发展,无人驾驶汽车将会普及到普通的家庭用户。现有技术的无人驾驶汽车上省去了方向盘、油门、刹车等人工驾驶的装置,可以仅设置启动和停止键,无人驾驶汽车便可以启动,载着搭乘者前往目的地。但是,上述现有的无人驾驶汽车的启动方案中,任意能够进入无人驾驶汽车的搭乘者均可以按下启动键,启动无人驾驶汽车,导致无人驾驶汽车丢失风险较大。因此,现有的无人驾驶汽车的启动方案的安全性较差。

发明内容

[0003] 针对上述问题,本发明提供一种无人驾驶汽车,用于提高无人驾驶汽车的防盗安全性。
[0004] 本发明的目的采用以下技术方案来实现:
[0005] 一种无人驾驶汽车,该无人驾驶汽车包括:视频采集模块、信息处理模块、身份识别模块和控制模块。视频采集模块,用于采集位于无人驾驶汽车内的搭乘者的视频;信息处理模块,用于对采集的视频进行处理,获取视频中搭乘者身份的特征数据;身份识别模块,用于判断搭乘者身份的特征数据与预存储的车主信息库中的有搭乘权限的人的特征数据是否匹配,若匹配成功,则将匹配结果发送至控制模块,若匹配失败,则将匹配结果通过无线网传输至车主的移动终端进行报警;控制模块,用于接收匹配结果,并控制无人驾驶汽车启动。
[0006] 本发明的有益效果为:本发明通过对搭乘者的身份进行识别,进而根据识别结果判断是否启动该无人驾驶汽车,该技术方案有效地防止了无人驾驶汽车被盗的风险,增加了无人驾驶汽车的安全性。

附图说明

[0007] 利用附图对本发明作进一步说明,但附图中的实施例不构成对本发明的任何限制,对于本领域的普通技术人员,在不付出创造性劳动的前提下,还可以根据以下附图获得其它的附图。
[0008] 图1是本发明一种无人驾驶汽车的结构图;
[0009] 图2是信息处理模块2的框架结构图。
[0010] 附图标记:视频采集模块1;信息处理模块2;身份识别模块3;控制模块4;移动终端5;应急锁定模块6;分割单元21;去噪单元22;特征提取单元23;空间显著性计算子单元211;
运动显著性值计算子单元212;显著性融合子单元213。

具体实施方式

[0011] 结合以下实施例对本发明作进一步描述。
[0012] 参见图1,一种无人驾驶汽车,该无人驾驶汽车包括:视频采集模块1、信息处理模块2、身份识别模块3和控制模块4。
[0013] 视频采集模块1,用于采集位于无人驾驶汽车内的搭乘者的视频;信息处理模块2,用于对采集的视频进行处理,获取视频中搭乘者身份的特征数据;身份识别模块3,用于判断搭乘者身份的特征数据与预存储的车主信息库中的有搭乘权限的人的特征数据是否匹配,若匹配成功,则将匹配结果发送至控制模块4,若匹配失败,则将匹配结果通过无线网传输至车主的移动终端5进行报警;控制模块4,用于接收匹配结果,并控制无人驾驶汽车启动。
[0014] 本发明的有益效果为:本发明通过对搭乘者的身份进行识别,进而根据识别结果判断是否启动该无人驾驶汽车,该技术方案有效地防止了无人驾驶汽车被盗的风险,增加了无人驾驶汽车的安全性。
[0015] 优选地,该无人驾驶汽车还包括应急锁定模块6,应急锁定模块6与身份识别模块3连接,用于当匹配失败时,对无人驾驶汽车进行锁定。
[0016] 参见图2,优选地,信息处理模块2包括分割单元21、去噪单元22和特征提取单元23;
[0017] 分割单元21,用于从视频中的一帧图像中获取搭乘者的人脸图像;去噪单元22,用于去除人脸图像中的噪声;特征提取单元23,用于从去噪后的人脸图像中获取标准该搭乘者身份的特征数据。
[0018] 优选地,分割单元21包括空间显著性值计算模块211、运动显著性值计算模块212和显著性融合模块213。
[0019] 空间显著性值计算子单元211,用于根据视频中的第t帧视频图像中各个像素点的空间位置、颜色特征和像素点的分布情况,计算该帧视频图像中所有像素点的空间显著性值。
[0020] 运动显著性值计算子单元212,用于通过光流法计算第t帧视频图像的运动场,并根据运动场,利用下式计算第t帧视频图像中所有像素点的运动显著性值,其中,第t帧视频图像中像素点v的运动显著性值的计算式为:
[0021]
[0022] 式中,Fti(v)为第t帧视频图像中像素点v的运动显著性值,D(Mv,Mw)是像素点v和像素点w的光流向量差值,|·|表示取光流向量的幅值,像素点w是第t帧视频图像中除去像素点v的任一像素点,Λ为第t帧视频图像中所有像素点构成的集合。
[0023] 显著性融合子单元213,用于对空间显著性计算模块211和运动显著性计算模块212的计算结果进行融合处理,得到第t帧视频图像中所有像素点的综合显著性值;综合显著性值用于判断该视频图像中的像素点是否属于人脸图像像素点,其判断过程为:当F(r)≥λ时,则像素点r属于人脸图像像素点,当F(r)<λ时,像素点r属于背景图像的像素点,其中F(r)是第t帧视频图像中像素点r的综合显著性值,λ是设定的阈值,遍历第t帧视频图像中所有像素点,所有属于前景图像的像素点构成的集合即为搭乘者的人脸图像。
[0024] 优选地,根据视频中的第t帧视频图像中各个像素点的空间位置、颜色特征和像素点的分布情况,计算该帧视频图像中所有像素点的空间显著性值,其中,第t帧视频图像中像素点p的空间显著性值可通过下式计算得到:
[0025]
[0026] 式中,Fsp(p)是第t帧视频图像中像素点p的空间显著性值,Fsl(p)是描述像素点p与第t帧视频图像中剩余像素点之间的空间位置约束程度的显著性值;Fcol(p)是描述与像素点p的红/绿、蓝/黄的对比色度值相关的显著性值;Fsd(p)是像素点p的相似性分布的显著性值,ω1、ω2是权重因子,分别表示Fcol(p)和Fsd(p)在计算像素点p的空间显著性值时的重要程度,χ为补偿系数,用于补偿无人驾驶汽车车内环境带来的视觉误差。
[0027] 有益效果:按照上式将Fsl(p)、Fcol(p)和Fsd(p)进行融合,得到描述第t帧视频图像的像素点p的空间显著性值,该融合方法是基于视频图像中各个像素点的空间位置、颜色特征和像素点的分布情况,不依赖人类的认识,消除了主观的个体差异。同时该方法能够更加均匀的凸显出视频图像中的人脸所在区域,有利于后续对人脸图像进行有效分割,使得在后续对搭乘者身份进行识别时,只需要分析分割出的人脸图像,提高了后续身份识别的速率,减轻了后续各个模块的工作负担,延长了各个模块的使用寿命,且通过设置这一项,使得当像素点的红/绿、蓝/黄的对比色度增强或者像素点的相似性分布紧凑时,能够吸引更多的注意力,有利于分割出人脸图像。
[0028] 优选地,用于描述像素点p与第t帧视频图像中剩余像素点之间的空间位置约束程度的显著性值Fsl(p)可通过下式计算得到:
[0029]
[0030] 式中,Fsl(p)是描述像素点p与第t帧视频图像中剩余像素点之间的空间约束程度的显著性值,A是归一化系数,‖p-q‖是像素点p和像素点q之间的空间欧式距离,Ip是像素点p的CIELAB颜色值,Iq是像素点q的CIELAB颜色值,||Ip-Iq||表示Ip和Iq之间的欧式距离,xp、yp分别是像素点p的横坐标和纵坐标,xq、yq分别是像素点q的横坐标和纵坐标,Λ为第t帧视频图像中所有像素点构成的集合。
[0031] 有益效果:上式中, 反映了像素点之间空间距离的影响,反映了像素点p的外周像素点对Fsl(p)的贡献程度,通过采用上式
计算Fsl(p),该做法能够凸显搭乘者人脸图像的边缘特征,同时抑制人脸图像内部区域的弱化。
[0032] 优选地,用于描述与像素点p的红/绿、蓝/黄的对比色度值相关的显著性值Fcol(p)可通过下式计算得到:
[0033]
[0034] 式中,Fcol(p)是描述与像素点p的红/绿、蓝/黄的对比色度值相关的显著性值,RG(p)、BY(p)分别表示像素点p的红/绿、蓝/黄的对比色度值,RG(q)、BY(q)分别表示像素点q的红/绿、蓝/黄的对比色度值,Nt代表第t帧视频图像的像素点数,其中,像素点p的红/绿、蓝/黄的对比色度值可通过下式获得:
[0035]
[0036]
[0037] 式中,r(p)是像素点p的r分量的值,g(p)是像素点p的g分量的值,b(p)是像素点p的b分量的值。
[0038] 有益效果:考虑到人类视觉大脑皮层的神经元对红/绿、蓝/黄这两个对比色响应最强,基于此,发明人提出用红/绿、蓝/黄这两个对比色度值来衡量第t帧视频图像的中各个像素点的显著性特征,该做法使得该帧视频图像中的人脸图像的内部区域得到很好地凸显,有利于后续对搭乘者的身份进行识别。
[0039] 优选地,Fsd(p)可通过下式计算得到:
[0040]
[0041] 式中,Fsd(p)是像素点p的相似性分布的显著性值,B是归一化系数,χp,q用于度量像素点p和像素点q之间颜色的相似性。
[0042] 有益效果:对于检测对象内部的像素点p,利用上式可以给属于搭乘者人脸图像的像素点分配更高的显著性值,进而达到强化人脸图像的显著性值,而弱化背景部分的显著性值,从而从视频图像中分割出完整的搭乘者的人脸图像,用于后面对搭乘者的身份进行识别。
[0043] 优选地,所述对空间显著性计算模块211和运动显著性计算模块212的计算结果进行融合处理,得到第t帧视频图像中所有像素点的综合显著性值,具体地,对像素点p的空间显著性值和运动显著性值进行融合是利用下方的融合公式实现的:
[0044] F(p)=[Fsp(p)]∈+[Fti(p)]1-∈
[0045] 式中,F(p)是像素点p的综合显著性值,∈是调节因子,且满足0<∈<1;
[0046] 有益效果:利用上面的融合公式对像素点p的空间显著性值和运动显著性值进行融合,该融合方法能够根据搭乘者在车内的动作幅度的大小自由设定,有利于提高各个像素点的综合显著性值的精确度,进而实现对搭乘者人脸图像的准确分割,便于后续对搭乘者身份进行识别,同时也降低了后续处理过程的复杂程度。
[0047] 最后应当说明的是,以上实施例仅用以说明本发明的技术方案,而非对本发明保护范围的限制,尽管参照较佳实施例对本发明作了详细地说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本发明技术方案的实质和范围。