一种基于行人重识别的安全帽佩戴与颜色识别方法及装置转让专利

申请号 : CN202010106467.X

文献号 : CN111275058B

文献日 :

基本信息:

PDF:

法律信息:

相似专利:

发明人 : 黄惠南邵汉阳陈忠平樊治国

申请人 : 上海高重信息科技有限公司

摘要 :

本发明提供一种基于行人重识别的安全帽佩戴与颜色识别方法及装置,所述方法包括:获取原始数据,收集行人监控视频,检测监控视频中的每一帧图像,从检测出的行人区域中提取行人整体特征;将提取的所述行人整体特征输入训练好的第一深度卷积神经网络模型,获取行人深度特征;所述第一深度卷积神经网络模型包括基础网络层、瓶颈网络层、全连接层;将所述行人深度特征输入训练好的第二深度卷积神经网络模型,获取并显示分类结果;所述第二深度卷积神经网络模型包括基础网络层、瓶颈网络层、属性分类层。根据本发明的方案,能够获得识别安全帽实用性强、识别精度高的效果。

权利要求 :

1.一种基于行人重识别的安全帽佩戴与颜色识别方法,其特征在于,包括以下步骤:步骤S101:获取原始数据,收集行人监控视频,检测监控视频中的每一帧图像,从检测出的行人区域中提取行人整体特征;

步骤S102:将提取的所述行人整体特征输入训练好的第一深度卷积神经网络模型,获取行人深度特征;所述第一深度卷积神经网络模型包括基础网络层、瓶颈网络层、全连接层;基础深度CNN网络f0包括卷积层和池化层;所述瓶颈网络层f1,由单个卷积层、批归一化层、非线性激励函数层和Dropout层组成;

步骤S103:将所述行人深度特征输入训练好的第二深度卷积神经网络模型,获取并显示分类结果;所述第二深度卷积神经网络模型包括基础网络层、瓶颈网络层、属性分类层;

所述步骤S103中所述训练好的第二深度卷积神经网络模型通过以下步骤获得,包括:步骤S1031:设置分类类别,所述分类类别包括不戴安全帽,戴了某种颜色的安全帽;

步骤S1032:构建包括基础深度CNN网络f0、瓶颈网络层f1和属性分类层的第二深度卷积神经网络;加载所述训练好的第一深度卷积神经网络模型的除全连接层外的其余各层的参数;

步骤S1033:对公开的行人重识别数据集中的行人图像数据进行预处理和数据增强,得到训练用样本图像数据;对所述训练用样本图像数据进行人工确认,标定其所属的类别;并按类别建立文件夹,将人工确认并标定后的训练用样本图像数据存储到对应的文件夹中;

步骤S1034:将所述训练用样本图像数据输入所述第二深度卷积神经网络,结合标定的所属类别,对所述第二深度卷积神经网络的属性分类层的参数进行训练,得到训练好的第二深度卷积神经网络;

所述步骤S102中所述训练好的第一深度卷积神经网络模型通过以下步骤获得:步骤S1021:构建包括基础深度CNN网络f0、瓶颈网络层f1和全连接层FC的前向传播的第一深度卷积神经网络;

步骤S1022:对公开的行人重识别数据集中的行人图像数据进行预处理和数据增强,得到训练用样本图像数据;

步骤S1023:将所述训练用样本图像数据输入所述第一深度卷积神经网络,结合联合作用于所述第一深度卷积神经网络的三元损失函数和分类损失函数构建联合损失函数,对所述第一深度卷积神经网络进行训练;

所述联合损失函数的表达式为:

其中,I为训练用样本图像数据,y为真实数据标签,T为每次网络迭代需要的输入图像数据的个数, 为三元损失函数,C(θ,y)为交叉熵分类损失函数;三元损失函数使用瓶颈网络层输出的特征t,作用于基础网络f0和瓶颈网络层f1;

三元损失函数 可以有效提取行人特征,在公式(3)中,参数θ指的是损失函数作用的网络层;三元损失函数接受三组图片同时作为输入,a是基准图片,p是和基准图片为同一个人的图片,n是和基准图片不是同一个人的图片;Da,n是基准图片和相同类别图片提取出的特征向量之间的距离;Da,p是基准图片和不同类别图片提取出的特征向量之间的距离;m是Da,p和Da,n的距离之间的边界值;

交叉熵分类损失函数C(θ,y)为标准的分类函数,对全连接层FC输出的特征s进行归一化和对数据处理后,与实际分类的数据计算误差;

训练第一深度卷积神经网络的每次迭代,全连接层FC层的输出与真实的类标之间的差异反馈给网络进行反向传导,所述真实的类标为C维的one‑hot向量,样本图像中的人对应的索引为1,其他索引为0。

2.如权利要求1所述的基于行人重识别的安全帽佩戴与颜色识别方法,其特征在于,所述步骤S102还包括:

步骤S1024:对所述行人整体特征数据进行预处理,再进行加载,得到待处理图像数据;

步骤S1025:加载所述训练好的第一深度卷积网络模型,并对所述训练好的第一深度卷积网络模型进行处理,即去除全连接层FC的权重系数;

步骤S1026:将所述待处理图像数据输入处理后的所述第一深度卷积网络模型,提取瓶颈网络层输出的特征作为行人深度特征。

3.一种基于行人重识别的安全帽佩戴与颜色识别装置,其特征在于,所述装置包括:行人整体特征获取模块:获取原始数据,收集行人监控视频,检测监控视频中的每一帧图像,从检测出的行人区域中提取行人整体特征;

行人深度特征获取模块:将提取的所述行人整体特征输入训练好的第一深度卷积神经网络模型,获取行人深度特征;所述第一深度卷积神经网络模型包括基础网络层、瓶颈网络层、全连接层;基础深度CNN网络f0包括卷积层和池化层;所述瓶颈网络层f1,由单个卷积层、批归一化层、非线性激励函数层和Dropout层组成;

分类结果显示模块:将所述行人深度特征输入训练好的第二深度卷积神经网络模型,获取并显示分类结果;所述第二深度卷积神经网络模型包括基础网络层、瓶颈网络层、属性分类层;

所述分类结果显示模块,包括:

分类类别设置子模块:设置分类类别,所述分类类别包括不戴安全帽,戴了某种颜色的安全帽;

第二构建子模块:构建包括基础深度CNN网络f0、瓶颈网络层f1和属性分类层的第二深度卷积神经网络;加载所述训练好的第一深度卷积神经网络模型的除全连接层外的其余各层的参数;

第二训练数据子模块:对公开的行人重识别数据集中的行人图像数据进行预处理和数据增强,得到训练用样本图像数据;对所述训练用样本图像数据进行人工确认,标定其所属的类别;并按类别建立文件夹,将人工确认并标定后的训练用样本图像数据存储到对应的文件夹中;

第二训练子模块:将所述训练用样本图像数据输入所述第二深度卷积神经网络,结合标定的所属类别,对所述第二深度卷积神经网络的属性分类层的参数进行训练,得到训练好的第二深度卷积神经网络;

所述行人深度特征获取模块,包括:第一构建子模块:构建包括基础深度CNN网络f0、瓶颈网络层f1和全连接层FC的前向传播的第一深度卷积神经网络;

第一训练数据子模块:对公开的行人重识别数据集中的行人图像数据进行预处理和数据增强,得到训练用样本图像数据;

第一训练子模块:将所述训练用样本图像数据输入所述第一深度卷积神经网络,结合联合作用于所述第一深度卷积神经网络的三元损失函数和分类损失函数构建联合损失函数,对所述第一深度卷积神经网络进行训练;

所述联合损失函数的表达式为:

其中,I为训练用样本图像数据,y为真实数据标签,T为每次网络迭代需要的输入图像数据的个数, 为三元损失函数,C(θ,y)为交叉熵分类损失函数;三元损失函数使用瓶颈网络层输出的特征t,作用于基础网络f0和瓶颈网络层f1;

三元损失函数 可以有效提取行人特征,在公式(3)中,参数θ指的是损失函数作用的网络层;三元损失函数接受三组图片同时作为输入,a是基准图片,p是和基准图片为同一个人的图片,n是和基准图片不是同一个人的图片;Da,n是基准图片和相同类别图片提取出的特征向量之间的距离;Da,p是基准图片和不同类别图片提取出的特征向量之间的距离;m是Da,p和Da,n的距离之间的边界值;

交叉熵分类损失函数C(θ,y)为标准的分类函数,对全连接层FC输出的特征s进行归一化和对数据处理后,与实际分类的数据计算误差;

训练第一深度卷积神经网络的每次迭代,全连接层FC层的输出与真实的类标之间的差异反馈给网络进行反向传导,所述真实的类标为C维的one‑hot向量,样本图像中的人对应的索引为1,其他索引为0。

4.如权利要求3所述的基于行人重识别的安全帽佩戴与颜色识别装置,其特征在于,所述行人整体特征获取模块,包括:

原数据获取子模块:获取原始数据,收集行人的监控视频,将该视频保存为图片,作为行人检测基本数据源;

行人整体特征获取子模块:利用深度目标检测算法对监控视频中的每一帧图像进行检测,并从检测出的行人区域中提取行人整体特征。

5.如权利要求3所述的基于行人重识别的安全帽佩戴与颜色识别装置,其特征在于,所述行人深度特征获取模块还包括:

第一预处理子模块:对所述行人整体特征数据进行预处理,再进行加载,得到待处理图像数据;

第一加载子模块:加载所述训练好的第一深度卷积网络模型,并对所述训练好的第一深度卷积网络模型进行处理,即去除全连接层FC的权重系数;

第一输入子模块:将所述待处理图像数据输入处理后的所述第一深度卷积网络模型,提取瓶颈网络层输出的特征作为行人深度特征。

6.如权利要求3所述的基于行人重识别的安全帽佩戴与颜色识别装置,其特征在于,所述分类结果显示模块还包括:

第二获取子模块:获取所述行人深度特征;

第二加载子模块:加载所述训练好的第二深度卷积网络模型;第二显示子模块:返回分类结果,即对应的分类类别,完成安全帽佩戴和颜色识别。

说明书 :

一种基于行人重识别的安全帽佩戴与颜色识别方法及装置

技术领域

[0001] 本发明涉及视频监控领域,尤其涉及一种基于行人重识别的安全帽佩戴与颜色识别方法及装置。

背景技术

[0002] 安防监控是视频监控的一个分支,指的是通过安防监控摄像头对施工区域进行监控,如有人进入该区域而没有正确佩戴安全帽则及时提醒或发出报警信息。
[0003] 近几年,随着深度学习技术的发展,出现了使用深度卷积神经网络识别安全帽的方法。这些方法一般分为两种:第一种方法是使用深度卷积神经网络目标检测技术对人体
头部信息分类;第二种方法是先检测出目标人体,再进行图像分类。但第一种方法需要进行
数据标定,需要将人员头部信息数据集标记为戴安全帽和未戴安全帽两类。识别的精度取
决于场景、数据质量和数据量,该方法的数据标定费时费力,在室内低杆角度的场景较好,
室外较大远景因为头部区域较小,导致检测效果变差。实际上,施工区域大多需要在室外较
开阔的场景下展开,因此,该方法实用性较差。第二种方法适合在室外场景,并且标定数据
也较为简单,但是由于安全帽属于人体头部区域信息,属于细粒度的图像分类任务,使用第
二种方法的分类模型精度较差。
[0004] 现有技术中存在识别安全帽实用性差、识别精度差的问题。

发明内容

[0005] 为解决上述技术问题,本发明提出了一种基于行人重识别的安全帽佩戴与颜色识别方法及装置,所述方法及装置,用以解决现有技术中识别安全帽实用性差、识别精度差的
技术问题。
[0006] 根据本发明的第一方面,提供一种基于行人重识别的安全帽佩戴与颜色识别方法,所述方法包括以下步骤:
[0007] 步骤S101:获取原始数据,收集行人监控视频,检测监控视频中的每一帧图像,从检测出的行人区域中提取行人整体特征;
[0008] 步骤S102:将提取的所述行人整体特征输入训练好的第一深度卷积神经网络模型,获取行人深度特征;所述第一深度卷积神经网络模型包括基础网络层、瓶颈网络层、全
连接层;
[0009] 步骤S103:将所述行人深度特征输入训练好的第二深度卷积神经网络模型,获取并显示分类结果;所述第二深度卷积神经网络模型包括基础网络层、瓶颈网络层、属性分类
层。
[0010] 进一步地,所述步骤S101:获取原始数据,收集行人监控视频,检测监控视频中的每一帧图像,从检测出的行人区域中提取行人整体特征,包括:
[0011] 步骤S1011:获取原始数据,收集行人的监控视频,将该视频保存为图片,作为行人检测基本数据源;
[0012] 步骤S1012:利用深度目标检测算法对监控视频中的每一帧图像进行检测,并从检测出的行人区域中提取行人整体特征。
[0013] 进一步地,所述训练好的第一深度卷积神经网络模型通过以下步骤获得:
[0014] 步骤S1021:构建包括基础深度CNN网络f0、瓶颈网络层f1和全连接层FC的前向传播的第一深度卷积神经网络;
[0015] 步骤S1022:对公开的行人重识别数据集中的行人图像数据进行预处理和数据增强,得到训练用样本图像数据;
[0016] 步骤S1023:将所述训练用样本图像数据输入所述第一深度卷积神经网络,结合联合作用于所述第一深度卷积神经网络的三元损失函数和分类损失函数构建联合损失函数,
对所述第一深度卷积神经网络进行训练;
[0017] 所述联合损失函数的表达式为:
[0018]
[0019] 其中,I为训练用样本图像数据,y为真实数据标签,T为每次网络迭代需要的输入图像数据的个数, 为三元损失函数,C(θ,y)为交叉熵分类损失函数;三元损失函数使
用瓶颈网络层输出的特征t,作用于基础网络f0和瓶颈网络层f1;
[0020]
[0021] 三元损失函数 可以有效提取行人特征,在公式(3)中,参数θ指的是损失函数作用的网络层;三元损失函数接受三组图片同时作为输入,a是基准图片,p是和基准图片为
同一个人的图片,n是和基准图片不是同一个人的图片;Da,n是基准图片和相同类别图片提
取出的特征向量之间的距离;Da,p是基准图片和不同类别图片提取出的特征向量之间的距
离;m是距离之间的边界值;
[0022]
[0023] 交叉熵分类损失函数C(θ,y)为标准的分类函数,对全连接层FC输出的特征s进行归一化和对数据处理后,与实际分类的数据计算误差;
[0024] 训练第一深度卷积神经网络的每次迭代,全连接层FC层的输出与真实的类标之间的差异反馈给网络进行反向传导,所述真实的类标为C维的one‑hot向量,样本图像中的人
对应的索引为1,其他索引为0。
[0025] 进一步地,所述步骤S102还包括:
[0026] 步骤S1024:对所述行人整体特征数据进行预处理,再进行加载,得到待处理图像数据;
[0027] 步骤S1025:加载所述训练好的第一深度卷积网络模型,并对所述训练好的第一深度卷积网络模型进行处理,即去除全连接层FC的权重系数;
[0028] 步骤S1026:将所述待处理图像数据输入处理后的所述第一深度卷积网络模型,提取瓶颈网络层输出的特征作为行人深度特征。
[0029] 进一步地,所述步骤S103中所述训练好的第二深度卷积神经网络模型通过以下步骤获得,包括:
[0030] 步骤S1031:设置分类类别,所述分类类别包括不戴安全帽,戴了某种颜色的安全帽;
[0031] 步骤S1032:构建包括基础深度CNN网络f0、瓶颈网络层f1和属性分类层的第二深度卷积神经网络;加载所述训练好的第一深度卷积神经网络模型的除全连接层外的其余各层
的参数;
[0032] 步骤S1033:对公开的行人重识别数据集中的行人图像数据进行预处理和数据增强,得到训练用样本图像数据;对所述训练用样本图像数据进行人工确认,标定其所属的类
别;并按类别建立文件夹,将人工确认并标定后的训练用样本图像数据存储到对应的文件
夹中;
[0033] 步骤S1034:将所述训练用样本图像数据输入所述第二深度卷积神经网络,结合标定的所属类别,对所述第二深度卷积神经网络的属性分类层的参数进行训练,得到训练好
的第二深度卷积神经网络。
[0034] 进一步地,所述步骤S103还包括:
[0035] 步骤S1035:获取所述行人深度特征;
[0036] 步骤S1036:加载所述训练好的第二深度卷积网络模型;
[0037] 步骤S1037:返回分类结果,即对应的分类类别,完成安全帽佩戴和颜色识别。
[0038] 根据本发明第二方面,提供一种基于行人重识别的安全帽佩戴与颜色识别装置,所述装置包括:
[0039] 行人整体特征获取模块:获取原始数据,收集行人监控视频,检测监控视频中的每一帧图像,从检测出的行人区域中提取行人整体特征;
[0040] 行人深度特征获取模块:将提取的所述行人整体特征输入训练好的第一深度卷积神经网络模型,获取行人深度特征;所述第一深度卷积神经网络模型包括基础网络层、瓶颈
网络层、全连接层;
[0041] 分类结果显示模块:将所述行人深度特征输入训练好的第二深度卷积神经网络模型,获取并显示分类结果;所述第二深度卷积神经网络模型包括基础网络层、瓶颈网络层、
属性分类层。
[0042] 进一步地,所述行人整体特征获取模块,包括:
[0043] 原数据获取子模块:获取原始数据,收集行人的监控视频,将该视频保存为图片,作为行人检测基本数据源;
[0044] 行人整体特征获取子模块:利用深度目标检测算法对监控视频中的每一帧图像进行检测,并从检测出的行人区域中提取行人整体特征。
[0045] 进一步地,所述行人深度特征获取模块,包括:
[0046] 第一构建子模块:构建包括基础深度CNN网络f0、瓶颈网络层f1和全连接层FC的前向传播的第一深度卷积神经网络;
[0047] 第一训练数据子模块:对公开的行人重识别数据集中的行人图像数据进行预处理和数据增强,得到训练用样本图像数据;
[0048] 第一训练子模块:将所述训练用样本图像数据输入所述第一深度卷积神经网络,结合联合作用于所述第一深度卷积神经网络的三元损失函数和分类损失函数构建联合损
失函数,对所述第一深度卷积神经网络进行训练;
[0049] 所述联合损失函数的表达式为:
[0050]
[0051] 其中,I为训练用样本图像数据,y为真实数据标签,T为每次网络迭代需要的输入图像数据的个数, 为三元损失函数,C(θ,y)为交叉熵分类损失函数;三元损失函数使
用瓶颈网络层输出的特征t,作用于基础网络f0和瓶颈网络层f1;
[0052]
[0053] 三元损失函数 可以有效提取行人特征,在公式(3)中,参数θ指的是损失函数作用的网络层;三元损失函数接受三组图片同时作为输入,a是基准图片,p是和基准图片为
同一个人的图片,n是和基准图片不是同一个人的图片;Da,n是基准图片和相同类别图片提
取出的特征向量之间的距离;Da,p是基准图片和不同类别图片提取出的特征向量之间的距
离;m是距离之间的边界值;
[0054]
[0055] 交叉熵分类损失函数C(θ,y)为标准的分类函数,对全连接层FC输出的特征s进行归一化和对数据处理后,与实际分类的数据计算误差;
[0056] 训练第一深度卷积神经网络的每次迭代,全连接层FC层的输出与真实的类标之间的差异反馈给网络进行反向传导,所述真实的类标为C维的one‑hot向量,样本图像中的人
对应的索引为1,其他索引为0。
[0057] 进一步地,所述行人深度特征获取模块还包括:
[0058] 第一预处理子模块:对所述行人整体特征数据进行预处理,再进行加载,得到待处理图像数据;
[0059] 第一加载子模块:加载所述训练好的第一深度卷积网络模型,并对所述训练好的第一深度卷积网络模型进行处理,即去除全连接层FC的权重系数;
[0060] 第一输入子模块:将所述待处理图像数据输入处理后的所述第一深度卷积网络模型,提取瓶颈网络层输出的特征作为行人深度特征。
[0061] 进一步地,所述分类结果显示模块,包括:
[0062] 分类类别设置子模块:设置分类类别,所述分类类别包括不戴安全帽,戴了某种颜色的安全帽;
[0063] 第二构建子模块:构建包括基础深度CNN网络f0、瓶颈网络层f1和属性分类层的第二深度卷积神经网络;加载所述训练好的第一深度卷积神经网络模型的除全连接层外的其
余各层的参数;
[0064] 第二训练数据子模块:对公开的行人重识别数据集中的行人图像数据进行预处理和数据增强,得到训练用样本图像数据;对所述训练用样本图像数据进行人工确认,标定其
所属的类别;并按类别建立文件夹,将人工确认并标定后的训练用样本图像数据存储到对
应的文件夹中;
[0065] 第二训练子模块:将所述训练用样本图像数据输入所述第二深度卷积神经网络,结合标定的所属类别,对所述第二深度卷积神经网络的属性分类层的参数进行训练,得到
训练好的第二深度卷积神经网络。
[0066] 进一步地,所述分类结果显示模块还包括:
[0067] 第二获取子模块:获取所述行人深度特征;
[0068] 第二加载子模块:加载所述训练好的第二深度卷积网络模型;
[0069] 第二显示子模块:返回分类结果,即对应的分类类别,完成安全帽佩戴和颜色识别。
[0070] 根据本发明第三方面,提供一种基于行人重识别的安全帽佩戴与颜色识别系统,包括:
[0071] 处理器,用于执行多条指令;
[0072] 存储器,用于存储多条指令;
[0073] 其中,所述多条指令,用于由所述存储器存储,并由所述处理器加载并执行如前所述的基于行人重识别的安全帽佩戴与颜色识别方法。
[0074] 根据本发明第四方面,提供一种计算机可读存储介质,所述存储介质中存储有多条指令;所述多条指令,用于由处理器加载并执行如前所述的基于行人重识别的安全帽佩
戴与颜色识别方法。
[0075] 根据本发明的上述方案,能够获得识别安全帽实用性强、识别精度高的效果。
[0076] 上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,并可依照说明书的内容予以实施,以下以本发明的较佳实施例并配合附图详细说明如后。

附图说明

[0077] 构成本发明的一部分的附图用来提供对本发明的进一步理解,本发明提供如下附图进行说明。在附图中:
[0078] 图1为本发明一个实施方式的基于行人重识别的安全帽佩戴与颜色识别方法流程图;
[0079] 图2为本发明一个实施方式的第一深度卷积神经网络示意图;
[0080] 图3为本发明一个实施方式的第一深度卷积神经网络示意图;
[0081] 图4为本发明一个实施方式的基于行人重识别的安全帽佩戴与颜色识别装置结构框图;
[0082] 图5为本发明的计算机系统的结构示意图。

具体实施方式

[0083] 为使本发明的目的、技术方案和优点更加清楚,下面将结合本发明具体实施例及相应的附图对本发明技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本发明一
部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做
出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
[0084] 行人重识别是利用计算机视觉技术判断图像或者视频序列中是否存在特定行人的技术,被认为是一个图像检索的子问题。给定一个监控行人的图像,检索出不同位置不同
监控设备下的该行人图像。目前的行人重识别方法使用深度卷积神经网络对行人图像进行
特征提取,再进行特征相似度计算和排序,使用行人重识别深度模型可以有效提取人体的
头部信息。
[0085] 首先结合图1说明为本发明一个实施方式的基于行人重识别的安全帽佩戴与颜色识别方法流程图。如图1所示,包括以下步骤:
[0086] 步骤S101:获取原始数据,收集行人监控视频,检测监控视频中的每一帧图像,从检测出的行人区域中提取行人整体特征;
[0087] 步骤S102:将提取的所述行人整体特征输入训练好的第一深度卷积神经网络模型,获取行人深度特征;所述第一深度卷积神经网络模型包括基础网络层、瓶颈网络层、全
连接层;
[0088] 步骤S103:将所述行人深度特征输入训练好的第二深度卷积神经网络模型,获取并显示分类结果;所述第二深度卷积神经网络模型包括基础网络层、瓶颈网络层、属性分类
层。
[0089] 所述步骤S101:获取原始数据,收集行人监控视频,检测监控视频中的每一帧图像,从检测出的行人区域中提取行人整体特征,包括:
[0090] 步骤S1011:获取原始数据,收集行人的监控视频,将该视频保存为图片,作为行人检测基本数据源;
[0091] 其中,将该视频以至少5fps保存为图片。
[0092] 步骤S1012:利用深度目标检测算法对监控视频中的每一帧图像进行检测,并从检测出的行人区域中提取行人整体特征。
[0093] 具体地,深度目标检测算法可以为Faster‑RCNN、SSD或YOLO。
[0094] 步骤S102:将提取的所述行人整体特征输入训练好的第一深度卷积神经网络模型,获取行人深度特征;所述第一深度卷积神经网络模型包括基础网络层、瓶颈网络层、全
连接层,
[0095] 具体地,所述训练好的第一深度卷积神经网络模型通过以下步骤获得:
[0096] 步骤S1021:构建包括基础深度CNN网络f0、瓶颈网络层f1和全连接层FC的前向传播的第一深度卷积神经网络;
[0097] 以下结合图2说明为本发明一个实施方式的第一深度卷积神经网络示意图。如图2所示:
[0098] 可以用下面的公式1来表示第一深度卷积神经网络输入输出过程:
[0099]
[0100] 其中,I是输入的样本图片数据,f0是包括卷积层和池化层的基础深度CNN网络,f1指的是瓶颈网络层,由单个卷积层、批归一化层、非线性激励函数层和Dropout层组成;FC指
的是最后具有C个类别的分类层,s指的是最后输出的C维分类概率的特征向量,C即等于数
据集中不同人的个数。在训练过程中,图片首先经过基础网络f0,再经过是瓶颈网络层f1,最
后经过分类的FC层。
[0101] 进一步地,所述基础深度CNN网络采用Resnet50,但不限于Densnet201或Inception。
[0102] 步骤S1022:对公开的行人重识别数据集中的行人图像数据进行预处理和数据增强,得到训练用样本图像数据;
[0103] 本实施例所述公开的行人重识别数据集为Market1501、DukeMTMC和CUHK数据集,但不限于使用MSMT17、Mars等公开的行人重识别数据集或者是私人数据集。所述数据增强
包括但不限于尺寸统一化、色彩增强、随机裁剪、随机擦除。
[0104] 步骤S1023:将所述训练用样本图像数据输入所述第一深度卷积神经网络,结合联合作用于所述第一深度卷积神经网络的三元损失函数和分类损失函数构建联合损失函数,
对所述第一深度卷积神经网络进行训练;
[0105] 所述联合损失函数的表达式为:
[0106]
[0107] 其中,I为训练用样本图像数据,y为真实数据标签,T为每次网络迭代需要的输入图像数据的个数, 为三元损失函数,C(θ,y)为交叉熵分类损失函数;三元损失函数使
用瓶颈网络层输出的特征t,作用于基础网络f0和瓶颈网络层f1;
[0108]
[0109] 三元损失函数 可以有效提取行人特征,在公式(3)中,参数θ指的是损失函数作用的网络层;三元损失函数接受三组图片同时作为输入,a是基准图片,p是和基准图片为
同一个人的图片,n是和基准图片不是同一个人的图片;Da,n是基准图片和相同类别图片提
取出的特征向量之间的距离;Da,p是基准图片和不同类别图片提取出的特征向量之间的距
离;m是Da,p和Da,n的距离之间的边界值;
[0110] 本实施例中,选择P=16和K=8,也就是16个人,每个人有8张不同的图片组成128张(T=128)的小批量图片数据集作为输入,实际计算采用的是欧氏距离,距离边界值选取
的是0.3。
[0111]
[0112] 交叉熵分类损失函数C(θ,y)为标准的分类函数,对全连接层FC输出的特征s进行归一化和对数据处理后,与实际分类的数据计算误差;
[0113] 训练第一深度卷积神经网络的每次迭代,全连接层FC层的输出与真实的类标之间的差异反馈给网络进行反向传导,所述真实的类标为C维的one‑hot向量,样本图像中的人
对应的索引为1,其他索引为0。
[0114] 经过大量的迭代,深度神经网络的输出接近于真实的类标,具有一定的未知行人的推理能力,基础神经网络可以实现对行人特征的有效提取,瓶颈网络层实现了对全局最
大池化后对行人特征进行压缩,可以提取出行人深度特征。最后的FC层作为分类损失层,作
用于基础网络层。
[0115] 在整个训练过程中,有三元损失函数和分类损失函数联合作用于网络。采用三元损失函数和交叉熵分类损失函数联合的方式,共同调整基础网络f0完成对行人特征的提
取,可以有效地提高分类的精度,比单独使用一种损失函数的效果要好。
[0116] 本实施例中瓶颈网络层f1输出的特征维度为2048维。进一步地,使用了Resnet50的预训练模型(去除Resnet50最后的分类层)加快收敛,采用Adam优化求解器。采用网络模
型的常规训练方式,如采用Adam优化求解器,一共训练300步,前150步学习速率为3e‑4,从
第150步开始进行学习速率的调整,逐渐下降到3e‑7。
[0117] 进一步地,所述步骤S102还包括:
[0118] 步骤S1024:对所述行人整体特征数据进行预处理,再进行加载,得到待处理图像数据;
[0119] 所述预处理包括但不限于尺寸归一化。
[0120] 步骤S1025:加载所述训练好的第一深度卷积网络模型,并对所述训练好的第一深度卷积网络模型进行处理,即去除全连接层FC的权重系数;
[0121] 步骤S1026:将所述待处理图像数据输入处理后的所述第一深度卷积网络模型,提取瓶颈网络层输出的特征作为行人深度特征。
[0122] 本实施例中,所述行人深度特征为2048维。
[0123] 所述步骤S103:将所述行人深度特征输入训练好的第二深度卷积神经网络模型,获取并显示分类结果;所述第二深度卷积神经网络模型包括基础网络层、瓶颈网络层、属性
分类层,包括:
[0124] 具体地,所述训练好的第二深度卷积神经网络模型通过以下步骤获得:
[0125] 步骤S1031:设置分类类别,所述分类类别包括不戴安全帽,戴了某种颜色的安全帽;
[0126] 所述安全帽的颜色可以根据实际项目需要设置,例如某个区域有红黄蓝白四种颜色安全帽,则分类结果包括不戴安全帽、戴红色安全帽、戴黄色安全帽、戴蓝色安全帽、以及
戴蓝色安全帽五个类别。
[0127] 步骤S1032:构建包括基础深度CNN网络f0、瓶颈网络层f1和属性分类层的第二深度卷积神经网络;加载所述训练好的第一深度卷积神经网络模型的除全连接层外的其余各层
的参数;
[0128] 如图3所示,为本发明一个实施方式的第二深度卷积神经网络示意图。
[0129] 步骤S1033:对公开的行人重识别数据集中的行人图像数据进行预处理和数据增强,得到训练用样本图像数据;对所述训练用样本图像数据进行人工确认,标定其所属的类
别;并按类别建立文件夹,将人工确认并标定后的训练用样本图像数据存储到对应的文件
夹中;
[0130] 进一步地,所述基础深度CNN网络采用Resnet50。
[0131] 本实施例所述公开的行人重识别数据集为Market1501、DukeMTMC和CUHK数据集,但不限于使用MSMT17、Mars等公开的行人重识别数据集或者是私人数据集。所述数据增强
包括但不限于尺寸统一化、色彩增强、随机裁剪、随机擦除。
[0132] 步骤S1034:将所述训练用样本图像数据输入所述第二深度卷积神经网络,结合标定的所属类别,对所述第二深度卷积神经网络的属性分类层的参数进行训练,得到训练好
的第二深度卷积神经网络。
[0133] 本实施例中需要训练的是属性分类层的参数,对除属性分类层的其余各层的参数进行冻结。本实施例采用Adam优化求解器。采用网络模型的常规训练方式,如采用Adam优化
求解器,一共训练30步,前15步学习速率为3e‑4,从第15步开始进行学习速率的调整,降低
学习速率为1e‑4。训练过程中保存最佳验证结果的参数。
[0134] 进一步地,所述步骤S103还包括:
[0135] 步骤S1035:获取所述行人深度特征;
[0136] 步骤S1036:加载所述训练好的第二深度卷积网络模型;
[0137] 步骤S1037:返回分类结果,即对应的分类类别,完成安全帽佩戴和颜色识别。
[0138] 本实施例的基于行人重识别的安全帽佩戴与颜色识别方法与常规卷积神经网络(DCNN)识别技术进行比较,二者都采用Resnet50网络模型,其识别精度比常规卷积神经网
络(DCNN)在识别安全帽二分类的F1分值提高了15%左右。该测试基于某项目实际数据,测
试数据分别为戴安全帽的行人图片和不戴安全帽的行人图片,数量分别为34000张和7000
张。精度对比如表1所示:
[0139] 方法 F1分值常规识别方法 70%
本发明提出的识别方法 85%
[0140] 表1
[0141] 本发明实施例进一步给出一种基于行人重识别的安全帽佩戴与颜色识别装置,如图4所示,所述装置包括:
[0142] 行人整体特征获取模块:获取原始数据,收集行人监控视频,检测监控视频中的每一帧图像,从检测出的行人区域中提取行人整体特征;
[0143] 行人深度特征获取模块:将提取的所述行人整体特征输入训练好的第一深度卷积神经网络模型,获取行人深度特征;所述第一深度卷积神经网络模型包括基础网络层、瓶颈
网络层、全连接层;
[0144] 分类结果显示模块:将所述行人深度特征输入训练好的第二深度卷积神经网络模型,获取并显示分类结果;所述第二深度卷积神经网络模型包括基础网络层、瓶颈网络层、
属性分类层。
[0145] 本发明实施例进一步给出一种基于行人重识别的安全帽佩戴与颜色识别的系统,包括:
[0146] 处理器,用于执行多条指令;
[0147] 存储器,用于存储多条指令;
[0148] 其中,所述多条指令,用于由所述存储器存储,并由所述处理器加载并执行如前所述的基于行人重识别的安全帽佩戴与颜色识别的方法。
[0149] 本发明实施例进一步给出一种计算机可读存储介质,所述存储介质中存储有多条指令;所述多条指令,用于由处理器加载并执行如前所述的基于行人重识别的安全帽佩戴
与颜色识别的方法。
[0150] 需要说明的是,在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。
[0151] 现参照图5,该图示出了适合实施本申请实施方式的计算机系统的结构示意图。计算机系统500包括中央处理单元(CPU)501,其可根据存储在只读存储器(ROM)502中的程序
或从存储部分508加载至随机存取存储器(RAM)503中的程序而执行各种适当的动作和过
程。在RAM503中,还存储有系统500操作所需要的各种程序和数据。CPU501、ROM502和RAM503
通过总线彼此连接。输入/输出I/O接口505也与总线504连接。
[0152] 以下为与I/O接口连接的部件:包括键盘、鼠标等的输入部分506;包括阴极射线管CRT、液晶显示设备LCD和扬声器等的输出部分507;包括硬盘等的存储部分508;以及包括网
络接口卡(如LAN卡和调制解调器等)的通信部分509。通信部分509通过诸如因特网等网络
执行通信处理。根据需要,驱动器510也与I/O接口505连接。如磁盘、光盘、磁光盘、半导体存
储器等的可拆卸介质511可安装在驱动器510上,以便于从其上读出的计算机程序根据需要
被安装入存储部分508。
[0153] 具体地,根据本公开的实施方式,以上参照图1描述的过程可实施为计算机软件程序。例如,本公开的实施方式包括计算机程序产品,该产品包括有形地体现在机器可读介质
中的计算机程序。该计算机程序包括用于执行图1的方法的程序代码。在这种实施方式中,
计算机程序可通过通信部分509从网络上下载并进行安装,和/或可从可拆卸介质511安装。
[0154] 本发明可以应用于终端设备、计算机系统以及服务器等电子设备中,其可与众多其它通用或专用计算系统环境或配置一起操作。适于与终端设备、计算机系统、服务器等电
子设备一起使用的众所周知的终端设备、计算系统、环境和/或配置的例子包括但不限于:
个人计算机系统、服务器计算机系统、手持或膝上设备、基于微处理器的系统、机顶盒、可编
程消费电子产品、网络个人电脑、小型计算机系统、大型计算机系统以及包括上述任何系统
的分布式云计算技术环境等等。
[0155] 终端设备、计算机系统、服务器等电子设备可以在由计算机系统执行的计算机系统可执行指令(诸如程序模块)的一般语境下描述。通常,程序模块可以包括例程、程序、目
标程序、组件、逻辑、数据结构等等,它们执行特定的任务或者实现特定的抽象数据类型。计
算机系统/服务器可以在分布式云计算环境中实施,分布式云计算环境中,任务是由通过通
信网络链接的远程处理设备执行的。在分布式云计算环境中,程序模块可以位于包括存储
设备的本地或远程计算系统存储介质上。
[0156] 在本发明所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的
划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如,多个单元或组
件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示
或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接
耦合或通信连接,可以是电性,机械或其它的形式。
[0157] 所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个
网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目
的。
[0158] 另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单
元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
[0159] 上述以软件功能单元的形式实现的集成的单元,可以存储在一个计算机可读取存储介质中。上述软件功能单元存储在一个存储介质中,包括若干指令用以使得一台计算机
装置(可以是个人计算机,实体机服务器,或者网络云服务器等,需安装Windows或者
Windows Server操作系统)执行本发明各个实施例所述方法的部分步骤。而前述的存储介
质包括:U盘、移动硬盘、只读存储器(Read‑Only Memory,ROM)、随机存取存储器(Random 
Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
[0160] 以上所述,仅是本发明的较佳实施例而已,并非对本发明作任何形式上的限制,依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化与修饰,均仍属于本发
明技术方案的范围内。