一种基于现代机器学习模型的运动状态精准评估方法转让专利

申请号 : CN202211227806.5

文献号 : CN115700843A

文献日 :

基本信息:

PDF:

法律信息:

相似专利:

发明人 : 别荣芳王耀飞

申请人 : 北京师范大学

摘要 :

本发明提出了一种基于现代机器学习模型的运动状态精准评估方法,涉及健身领域。通过先分别将不同疲劳状态下的人脸图像样本和肢体动作视频样本送给对应的卷积神经网络模型中进行训练学习,得到人脸疲劳状态检测模型和肢体动作疲劳检测模型。然后获取运动者的运动视频,将识别出的运动视频中的运动者的人脸图像和肢体动作信息分别送入人脸疲劳状态检测模型和肢体动作疲劳检测模型,接着根据人脸疲劳检测结果和肢体疲劳检测结果进行综合判断,即能够精准快速的识别出运动者的疲劳状态。该方法简单快捷,能够基于人脸图像和肢体动作信息,结合目标检测和超分辨率重建等技术,利用卷积神经网络模型对运动者的疲劳状态进行精准评估。

权利要求 :

1.一种基于现代机器学习模型的运动状态精准评估方法,其特征在于,包括以下步骤:获取不同疲劳状态的人脸图像样本;

将不同疲劳状态的人脸图像样本输入预置的卷积神经网络模型中进行训练学习,得到人脸疲劳状态检测模型;

获取不同疲劳状态的肢体动作视频样本;

将不同疲劳状态的肢体动作视频样本输入预置的卷积神经网络模型中进行训练学习,得到肢体动作疲劳检测模型;

获取待检测视频;

在多尺度下利用目标检测模型检测待检测视频,得到第一运动目标区域视频;

利用超分辨率重建技术对第一运动目标区域视频进行超分辨率重建,得到第二运动目标区域视频;

将第二运动目标区域视频输入肢体动作疲劳检测模型,得到肢体疲劳检测结果;

获取第二运动目标区域视频中的人脸图像,并输入人脸疲劳状态检测模型,得到人脸疲劳检测结果;

分析肢体疲劳检测结果和人脸疲劳检测结果,得到最终疲劳检测结果。

2.如权利要求1所述的一种基于现代机器学习模型的运动状态精准评估方法,其特征在于,所述利用超分辨率重建技术对第一运动目标区域视频进行超分辨率重建,得到第二运动目标区域视频的步骤具体包括:依次获取第一运动目标区域视频的每一帧图像;

利用5x5的卷积对每一帧图像进行特征采样,得到第一图像向量;

利用1x1的卷积对第一图像向量进行压缩,得到第二图像向量;

利用3x3的卷积将第二图像向量非线性映射为第三图像向量;

利用9x9的卷积对第三图像向量进行过滤重建,得到新的每一帧图像;

将新的每一帧图像进行合成,得到第二运动目标区域视频。

3.如权利要求1所述的一种基于现代机器学习模型的运动状态精准评估方法,其特征在于,所述获取第二运动目标区域视频中的人脸图像,并输入人脸疲劳状态检测模型,得到人脸疲劳检测结果的步骤具体包括:为第二运动目标区域视频中的每一帧捕获两个相邻帧中的光流图像;

将捕获的光流图像及其对应的RGB视频序列送给深卷积神经网络模型;

深卷积神经网络模型自动生成第二运动目标区域视频的关键帧图像;

将关键帧图像输入人脸疲劳状态检测模型,得到人脸疲劳检测结果。

4.如权利要求3所述的一种基于现代机器学习模型的运动状态精准评估方法,其特征在于,所述深卷积神经网络模型自动生成第二运动目标区域视频的关键帧图像的步骤具体包括:通过送入的光流图像及其对应的RGB视频序列提取每个帧的外观和运动信息;

融合每个帧的外观和运动特征,形成融合特征;

将融合特征使用LDA算法降维,形成低维特征;

利用低维特征生成每个帧的标签;

获取每个帧的标签后,则利用捕获的光流图像及其对应的RGB视频序列训练深卷积神经网络模型进行自动生成第二运动目标区域视频中关键帧的位置预测;

训练后的深卷积神经网络模型自动生成第二运动目标区域视频的关键帧图像。

5.如权利要求1所述的一种基于现代机器学习模型的运动状态精准评估方法,其特征在于,所述利用超分辨率重建技术对运动目标区域进行超分辨率重建,得到第二运动目标区域视频的步骤之后还包括以下步骤:对第二运动目标区域视频进行影像处理。

6.如权利要求5所述的一种基于现代机器学习模型的运动状态精准评估方法,其特征在于,所述对第二运动目标区域视频进行影像处理的步骤之后还包括以下步骤:对影像处理后的第二运动目标区域视频进行第一次边缘检测。

7.如权利要求6所述的一种基于现代机器学习模型的运动状态精准评估方法,其特征在于,所述对影像处理后的第二运动目标区域视频进行第一次边缘检测的步骤之后还包括以下步骤:对进行了第一次边缘检测后的第二运动目标区域视频进行第二次边缘检测。

8.如权利要求7所述的一种基于现代机器学习模型的运动状态精准评估方法,其特征在于,所述第一次边缘检测采用Canny Edge Detection算法,所述第二次边缘检测采用Local Binary Pattern算法。

9.一种电子设备,其特征在于,包括:

存储器,用于存储一个或多个程序;

处理器;

当所述一个或多个程序被所述处理器执行时,实现如权利要求1‑8中任一项所述的方法。

10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时实现如权利要求1‑8中任一项所述的方法。

说明书 :

一种基于现代机器学习模型的运动状态精准评估方法

技术领域

[0001] 本发明涉及健身领域,具体而言,涉及一种基于现代机器学习模型的运动状态精准评估方法。

背景技术

[0002] 随着社会的发展,越来越多的民众更加重视运动。运动可以提升民众的身体素质,放松心情并提升自身的免疫力。然而,疲劳式的运动方式不仅不能起到积极作用,还会成为身体的一种负担,危害民众的身体健康。因此,对民众的运动状态进行准确评估有非常重要的应用价值。
[0003] 传统的方法已经可以对运动状态进行评估,但往往需要较为冗余的辅助设备,而且无法保持较高的评估精准度。事实上,面部表情和肢体动作均可以作为疲劳程度判断的重要参考。因此,充分结合面部表情和肢体动作,利用现代机器学习模型对运动状态进行评估是一项非常有意义且亟待解决的问题。

发明内容

[0004] 本发明的目的在于提供一种基于现代机器学习模型的运动状态精准评估方法,其能够基于人脸图像和肢体动作信息,结合目标检测和超分辨率重建等技术,利用卷积神经网络模型对运动者的疲劳状态进行精准评估。
[0005] 本发明的实施例是这样实现的:
[0006] 第一方面,本申请实施例提供一种基于现代机器学习模型的运动状态精准评估方法,其包括以下步骤:
[0007] 获取不同疲劳状态的人脸图像样本;
[0008] 将不同疲劳状态的人脸图像样本输入预置的卷积神经网络模型中进行训练学习,得到人脸疲劳状态检测模型;
[0009] 获取不同疲劳状态的肢体动作视频样本;
[0010] 将不同疲劳状态的肢体动作视频样本输入预置的卷积神经网络模型中进行训练学习,得到肢体动作疲劳检测模型;
[0011] 获取待检测视频;
[0012] 在多尺度下利用目标检测模型检测待检测视频,得到第一运动目标区域视频;
[0013] 利用超分辨率重建技术对第一运动目标区域视频进行超分辨率重建,得到第二运动目标区域视频;
[0014] 将第二运动目标区域视频输入肢体动作疲劳检测模型,得到肢体疲劳检测结果;
[0015] 获取第二运动目标区域视频中的人脸图像,并输入人脸疲劳状态检测模型,得到人脸疲劳检测结果;
[0016] 分析肢体疲劳检测结果和人脸疲劳检测结果,得到最终疲劳检测结果。
[0017] 基于第一方面,在本发明的一些实施例中,上述利用超分辨率重建技术对第一运动目标区域视频进行超分辨率重建,得到第二运动目标区域视频的步骤具体包括:
[0018] 依次获取第一运动目标区域视频的每一帧图像;
[0019] 利用5x5的卷积对每一帧图像进行特征采样,得到第一图像向量;
[0020] 利用1x1的卷积对第一图像向量进行压缩,得到第二图像向量;
[0021] 利用3x3的卷积将第二图像向量非线性映射为第三图像向量;
[0022] 利用9x9的卷积对第三图像向量进行过滤重建,得到新的每一帧图像;
[0023] 将新的每一帧图像进行合成,得到第二运动目标区域视频。
[0024] 在本发明的一些实施例中,上述获取第二运动目标区域视频中的人脸图像,并输入人脸疲劳状态检测模型,得到人脸疲劳检测结果的步骤具体包括:
[0025] 为第二运动目标区域视频中的每一帧捕获两个相邻帧中的光流图像;
[0026] 将捕获的光流图像及其对应的RGB视频序列送给深卷积神经网络模型;
[0027] 深卷积神经网络模型自动生成第二运动目标区域视频的关键帧图像;
[0028] 将关键帧图像输入人脸疲劳状态检测模型,得到人脸疲劳检测结果。
[0029] 在本发明的一些实施例中,上述深卷积神经网络模型自动生成第二运动目标区域视频的关键帧图像的步骤具体包括:
[0030] 通过送入的光流图像及其对应的RGB视频序列提取每个帧的外观和运动信息;
[0031] 融合每个帧的外观和运动特征,形成融合特征;
[0032] 将融合特征使用LDA算法降维,形成低维特征;
[0033] 利用低维特征生成每个帧的标签;
[0034] 获取每个帧的标签后,则利用捕获的光流图像及其对应的RGB视频序列训练深卷积神经网络模型进行自动生成第二运动目标区域视频中关键帧的位置预测;
[0035] 训练后的深卷积神经网络模型自动生成第二运动目标区域视频的关键帧图像。
[0036] 在本发明的一些实施例中,上述利用超分辨率重建技术对运动目标区域进行超分辨率重建,得到第二运动目标区域视频的步骤之后还包括以下步骤:
[0037] 对第二运动目标区域视频进行影像处理。
[0038] 在本发明的一些实施例中,上述对第二运动目标区域视频进行影像处理的步骤之后还包括以下步骤:
[0039] 对影像处理后的第二运动目标区域视频进行第一次边缘检测。
[0040] 在本发明的一些实施例中,上述对影像处理后的第二运动目标区域视频进行第一次边缘检测的步骤之后还包括以下步骤:
[0041] 对进行了第一次边缘检测后的第二运动目标区域视频进行第二次边缘检测。
[0042] 在本发明的一些实施例中,上述第一次边缘检测采用Canny Edge Detection算法,上述第二次边缘检测采用Local Binary Pattern算法。
[0043] 第二方面,本申请实施例提供一种电子设备,其包括存储器,用于存储一个或多个程序;处理器。当上述一个或多个程序被上述处理器执行时,实现如上述第一方面中任一项上述的方法。
[0044] 第三方面,本申请实施例提供一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如上述第一方面中任一项上述的方法。
[0045] 相对于现有技术,本发明的实施例至少具有如下优点或有益效果:
[0046] 先分别将不同疲劳状态下的人脸图像样本和肢体动作视频样本送给对应的卷积神经网络模型中进行训练学习,得到人脸疲劳状态检测模型和肢体动作疲劳检测模型。然后获取运动者的运动视频,将识别出的运动视频中的运动者的人脸图像和肢体动作信息分别送入人脸疲劳状态检测模型和肢体动作疲劳检测模型,接着根据人脸疲劳检测结果和肢体疲劳检测结果进行综合判断,即能够精准快速的识别出运动者的疲劳状态。该方法简单快捷,能够基于人脸图像和肢体动作信息,结合目标检测和超分辨率重建等技术,利用卷积神经网络模型对运动者的疲劳状态进行精准评估。

附图说明

[0047] 为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
[0048] 图1为本发明实施例提供的一种基于现代机器学习模型的运动状态精准评估方法的具体流程图;
[0049] 图2为本发明实施例中用超分辨率重建技术对第一运动目标区域视频进行超分辨率重建,得到第二运动目标区域视频的具体流程图;
[0050] 图3为本发明实施例中获取第二运动目标区域视频中的人脸图像,并输入人脸疲劳状态检测模型,得到人脸疲劳检测结果的具体流程图;
[0051] 图4为本发明实施例中深卷积神经网络模型自动生成第二运动目标区域视频的关键帧图像的具体流程图;
[0052] 图5为本发明实施例提供的一种基于现代机器学习模型的运动状态精准评估方法的又一具体流程图;
[0053] 图6为本发明实施例提供的一种电子设备的结构框图。
[0054] 图标:1、存储器;2、处理器;3、通信接口。

具体实施方式

[0055] 为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本申请实施例的组件可以以各种不同的配置来布置和设计。
[0056] 因此,以下对在附图中提供的本申请的实施例的详细描述并非旨在限制要求保护的本申请的范围,而是仅仅表示本申请的选定实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
[0057] 应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。同时,在本申请的描述中,术语“第一”、“第二”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
[0058] 下面结合附图,对本申请的一些实施方式作详细说明。在不冲突的情况下,下述的各个实施例及实施例中的各个特征可以相互组合。
[0059] 实施例
[0060] 请参阅图1‑5,图1所示为本发明实施例提供的一种基于现代机器学习模型的运动状态精准评估方法的具体流程图,图2所示为本发明实施例中用超分辨率重建技术对第一运动目标区域视频进行超分辨率重建,得到第二运动目标区域视频的具体流程图,图3所示为本发明实施例中获取第二运动目标区域视频中的人脸图像,并输入人脸疲劳状态检测模型,得到人脸疲劳检测结果的具体流程图,图4所示为本发明实施例中深卷积神经网络模型自动生成第二运动目标区域视频的关键帧图像的具体流程图,图5所示为本发明实施例提供的一种基于现代机器学习模型的运动状态精准评估方法的又一具体流程图。该一种基于现代机器学习模型的运动状态精准评估方法包括以下步骤:
[0061] 步骤S1:获取不同疲劳状态的人脸图像样本。
[0062] 步骤S2:将不同疲劳状态的人脸图像样本输入预置的卷积神经网络模型中进行训练学习,得到人脸疲劳状态检测模型。
[0063] 上述步骤S1‑S2中,通常我们可以通过观察一个人的面部表情动作即可看出他的疲劳状态,例如如果一个人面部表情呆滞,经常处于打哈欠或者眨眼状态,就可以判断出其应该处于疲劳状态。通过获取不同疲劳状态的人脸图像样本,标记出图像样本中的人脸疲劳状态类别信息,然后送入预置的卷积神经网络模型中。卷积神经网络可以先将人脸图像样本中的面部轮廓以及五官轮廓进行特征提取,然后进行训练分类,得到精准的人脸疲劳状态检测模型。
[0064] 步骤S3:获取不同疲劳状态的肢体动作视频样本。
[0065] 步骤S4:将不同疲劳状态的肢体动作视频样本输入预置的卷积神经网络模型中进行训练学习,得到肢体动作疲劳检测模型。
[0066] 上述步骤S3‑S4中,我们通常可以通过观察一个人的肢体动作判断他的疲劳状态,例如一个人的肢体动作不协调、站立不稳或喘气剧烈,则可以判断出其应该处于疲劳状态。通过获取不同疲劳状态的肢体动作视频样本,标记出肢体动作视频样本中的肢体动作疲劳状态类别信息,然后送入预置的卷积神经网络模型中。卷积神经网络可以先将肢体动作视频样本中的肢体轮廓以及肢体动作进行特征提取,然后进行训练分类,得到精准的肢体动作疲劳检测模型。
[0067] 上述步骤S1‑S4中,原理是利用给定的类别或已知的训练数据训练学习分类规则,然后对未知的数据即可进行分类和预测。即获取的不同疲劳状态的人脸图像样本和肢体动作视频样本先进行人工或者其他方式标注,标注出样本中目标人物的疲劳状态情况,然后用来训练学习分类规则,得到相应的人脸疲劳状态检测模型和肢体动作疲劳检测模型后,就可以对待检测视频中的运动者的疲劳状态进行分类和预测。需要注意的是,步骤S1和步骤S3之间并无先后顺序区分,步骤S3也可以早于步骤S1,或者同时进行。
[0068] 步骤S5:获取待检测视频。
[0069] 上述步骤中,可以利用运动场所中已安装的摄像装置对运动者进行跟踪拍摄得到待检测视频,也可以在健身器材上安装摄像装置从而记录使用者的运动状态视频,也可以通过自主上传视频进行检测。
[0070] 步骤S6:在多尺度下利用目标检测模型检测待检测视频,得到第一运动目标区域视频。
[0071] 上述步骤中,目标检测模型由基础网络和检测头部构成。前者作为特征提取器,给出待检测视频每一帧图像不同大小、不同抽象层次的表示;后者则依据这些表示和监督信息学习类别和位置关联。检测头部负责的类别预测和位置回归两个任务常常是并行进行的,构成多任务的损失进行联合训练。最后将得到的包括预测框的每一帧图像合成为得到第一运动目标区域视频。
[0072] 步骤S7:利用超分辨率重建技术对第一运动目标区域视频进行超分辨率重建,得到第二运动目标区域视频。
[0073] 具体地,请参阅图2,图2所示为本发明实施例中用超分辨率重建技术对第一运动目标区域视频进行超分辨率重建,得到第二运动目标区域视频的具体流程图。上述利用超分辨率重建技术对第一运动目标区域视频进行超分辨率重建,得到第二运动目标区域视频的步骤具体包括:
[0074] 步骤S7‑1:依次获取第一运动目标区域视频的每一帧图像;
[0075] 步骤S7‑2:利用5x5的卷积对每一帧图像进行特征采样,得到第一图像向量;
[0076] 步骤S7‑3:利用1x1的卷积对第一图像向量进行压缩,得到第二图像向量;
[0077] 步骤S7‑4:利用3x3的卷积将第二图像向量非线性映射为第三图像向量;
[0078] 步骤S7‑5:利用9x9的卷积对第三图像向量进行过滤重建,得到新的每一帧图像;
[0079] 步骤S7‑6:将新的每一帧图像进行合成,得到第二运动目标区域视频。
[0080] 上述步骤中,通过依次获取第一运动目标区域视频的每一帧图像后,对每一帧图像依次进行特征提取、压缩、映射、扩展和去卷积,从而得到更高分辨率的新的每一帧图像。最终将新的每一帧图像进行合成,得到高分辨率的第二运动目标区域视频,可以为后续的检测提供更高质量的视频信息。
[0081] 步骤S11:将第二运动目标区域视频输入肢体动作疲劳检测模型,得到肢体疲劳检测结果。
[0082] 步骤S12:获取第二运动目标区域视频中的人脸图像,并输入人脸疲劳状态检测模型,得到人脸疲劳检测结果。
[0083] 具体地,请参阅图3,图3所示为本发明实施例中获取第二运动目标区域视频中的人脸图像,并输入人脸疲劳状态检测模型,得到人脸疲劳检测结果的具体流程图。上述获取第二运动目标区域视频中的人脸图像,并输入人脸疲劳状态检测模型,得到人脸疲劳检测结果的步骤具体包括:
[0084] 步骤S12‑1:为第二运动目标区域视频中的每一帧捕获两个相邻帧中的光流图像;
[0085] 上述步骤中,为第二运动目标区域视频中的每一帧捕获两个相邻帧中的光流图像,能够为后续处理提供详细的信息,并且不会错过每一帧的信息,提高处理的准确性。
[0086] 步骤S12‑2:将捕获的光流图像及其对应的RGB视频序列送给深卷积神经网络模型;
[0087] 上述步骤中,利用深卷积神经网络模型的学习能够有效的处理送入的光流图像及其对应的RGB视频序列,提高处理效率和准确度。
[0088] 步骤S12‑3:深卷积神经网络模型自动生成第二运动目标区域视频的关键帧图像;
[0089] 上述步骤中,利用深卷积神经网络模型自动生成第二运动目标区域视频的关键帧图像,不需要使用者去关心具体处理步骤,就将能够自动的高效率和高准确度的提取关键帧图像,为后续处理提供依据。
[0090] 步骤S12‑4:将关键帧图像输入人脸疲劳状态检测模型,得到人脸疲劳检测结果。
[0091] 具体地,请参阅图4,图4所示为发明实施例中深卷积神经网络模型自动生成第二运动目标区域视频的关键帧图像的具体流程图。上述深卷积神经网络模型自动生成第二运动目标区域视频的关键帧图像的步骤具体包括:
[0092] 步骤S12‑3‑1:通过送入的光流图像及其对应的RGB视频序列提取每个帧的外观和运动信息;
[0093] 上述步骤中,由于后续检测关注的是第二运动目标区域视频中人物的活动和行为等事件信息,而通过对第二运动目标区域视频的每一帧的光流图像提取,对其进行识别和运算后就能很好的将第二运动目标区域视频中人类动作和框架识别出来。
[0094] 步骤S12‑3‑2:融合每个帧的外观和运动特征,形成融合特征;
[0095] 上述步骤中,通过融合每个帧的外观和运动特征,形成融合特征,增强各个帧的表示能力,能够更好更准确的识别每个帧中的特征。
[0096] 步骤S12‑3‑3:将融合特征使用LDA算法降维,形成低维特征;
[0097] 上述步骤中,将融合特征使用LDA算法降维,使其缩小到低维空间,形成低维特征表示。这里采用LDA算法,能将复杂的融合特征压缩到低维空间,有效的降低运算量,并且这里选用LDA算法能很好的保证低维的特征有最佳的可分离性。在复杂的第二运动目标区域视频中运用LDA算法进行分类和降维,这不仅能很好的对数据分类,也能对数据进行降维处理,并且还能保证数据的准确性。
[0098] 步骤S12‑3‑4:利用低维特征生成每个帧的标签;
[0099] 上述步骤中,利用低维特征生成每个帧的标签,能大大的减少标签的计算和存储内存,减少系统负担。
[0100] 步骤S12‑3‑5:获取每个帧的标签后,则利用捕获的光流图像及其对应的RGB视频序列训练深卷积神经网络模型进行自动生成第二运动目标区域视频中关键帧的位置预测;
[0101] 上述步骤中,获取每个帧的标签后,则利用捕获的光流图像及其对应的RGB视频序列训练深卷积神经网络模型进行自动生成第二运动目标区域视频中关键帧的位置预测,训练后的深卷积神经网络模型将能够自动生成第二运动目标区域视频的关键帧。实现自动精准的生成第二运动目标区域视频的关键帧,提高检测效率和准确度。
[0102] 步骤S12‑3‑6:训练后的深卷积神经网络模型自动生成第二运动目标区域视频的关键帧图像。
[0103] 步骤S13:分析肢体疲劳检测结果和人脸疲劳检测结果,得到最终疲劳检测结果。
[0104] 上述步骤中,若肢体疲劳检测结果和人脸疲劳检测结果中有任意一个以上结果判断运动者是处于疲劳状态,则可以判断运动者处于疲劳运动状态,从而发出通知提醒运动者进行休息。若肢体疲劳检测结果和人脸疲劳检测结果均为非疲劳状态,则通知运动者可以继续进行适当运动。
[0105] 请参阅图5,图5所示为发明实施例提供的一种基于现代机器学习模型的运动状态精准评估方法的又一具体流程图。上述利用超分辨率重建技术对运动目标区域进行超分辨率重建,得到第二运动目标区域视频的步骤之后还包括以下步骤:
[0106] 对第二运动目标区域视频进行影像处理。
[0107] 上述步骤中,对第二运动目标区域视频进行影像处理,可以为后续对运动目标的检测分析提供更加优质的视频信息。示例性地,对第二运动目标区域视频进行影像处理方法包括:颜色变换、噪音消除或画质调整中的一种或多种。通常由于影像在数字化和传输过程中可能会受到成像设备与外部环境的影响,从而导致影像质量可能会不太好,根据实际需要,可以对影像进行影像处理,比如说颜色变换、噪音消除或画质调整中的一种或多种。这样处理后的影像质量将能够变得更好,从而能对影像进行更好的分析判断,提高处理的效率和准确度。
[0108] 参阅图5,图5所示为发明实施例提供的一种基于现代机器学习模型的运动状态精准评估方法的又一具体流程图。上述对第二运动目标区域视频进行影像处理的步骤之后还包括以下步骤:
[0109] 对影像处理后的第二运动目标区域视频进行第一次边缘检测。
[0110] 上述步骤中,由于运动者在第二运动目标区域视频中的区域位置不固定,所以通过对第二运动目标区域视频进行第一次边缘检测,可以区分出运动者和运动者以外的视频区域。从而识别出运动者所处区域后,后续具体分析运动者的信息时,就可以只对运动者所处区域进行计算,大大的减少了不必要的运算量。上述第一次边缘检测可以采用Canny Edge Detection算法。使用Canny Edge Detection算法可以保证运动者所处区域的边缘信息不被损耗的情况下,有效的区分出动者和运动者以外的视频区域。
[0111] 参阅图5,图5所示为发明实施例提供的一种基于现代机器学习模型的运动状态精准评估方法的又一具体流程图。上述对影像处理后的第二运动目标区域视频进行第一次边缘检测的步骤之后还包括以下步骤:
[0112] 对进行了第一次边缘检测后的第二运动目标区域视频进行第二次边缘检测。
[0113] 上述步骤中,对进行了第一次边缘检测后的第二运动目标区域视频进行第二次边缘检测,能够更好的对运动者的肢体动作和人脸图像中包括的外形轮廓信息进行计算,提高计算的准确度。上述第二次边缘检测可以采用Local Binary Pattern算法。使用Local Binary Pattern算法进行二次边缘检测,可以避免光照变化对运动者的肢体动作和人脸图像中的外形轮廓信息的影响,以至于能够更加准确对运动者的肢体动作和人脸图像进行分析。
[0114] 请参阅图6,图6为本发明实施例提供的一种电子设备的结构框图。该电子设备包括存储器1、处理器2和通信接口3,该存储器1、处理器2和通信接口3相互之间直接或间接地电性连接,以实现数据的传输或交互。例如,这些元件相互之间可通过一条或多条通讯总线或信号线实现电性连接。存储器1可用于存储软件程序及模块,如本申请实施例所提供的一种基于现代机器学习模型的运动状态精准评估方法对应的程序指令/模块,处理器2通过执行存储在存储器1内的软件程序及模块,从而执行各种功能应用以及数据处理。该通信接口3可用于与其他节点设备进行信令或数据的通信。
[0115] 其中,存储器1可以是但不限于,随机存取存储器(Random Access Memory,RAM),只读存储器(Read Only Memory,ROM),可编程只读存储器(Programmable Read‑Only Memory,PROM),可擦除只读存储器(Erasable Programmable Read‑Only Memory,EPROM),电可擦除只读存储器(Electric Erasable Programmable Read‑Only Memory,EEPROM)等。
[0116] 处理器2可以是一种集成电路芯片,具有信号处理能力。该处理器2可以是通用处理器,包括中央处理器(Central  Processing Unit,CPU)、网络处理器(Network Processor,NP)等;还可以是数字信号处理器(Digital Signal Processing,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
[0117] 可以理解,图6所示的结构仅为示意,电子设备还可包括比图6中所示更多或者更少的组件,或者具有与图6所示不同的配置。图6中所示的各组件可以采用硬件、软件或其组合实现。
[0118] 在本申请所提供的实施例中,应该理解到,所揭露的装置和方法,也可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,附图中的流程图和框图显示了根据本申请的多个实施例的装置、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现方式中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
[0119] 另外,在本申请各个实施例中的各功能模块可以集成在一起形成一个独立的部分,也可以是各个模块单独存在,也可以两个或两个以上模块集成形成一个独立的部分。
[0120] 上述功能如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read‑Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
[0121] 综上所述,本申请实施例提供的一种基于现代机器学习模型的运动状态精准评估方法,先分别将不同疲劳状态下的人脸图像样本和肢体动作视频样本送给对应的卷积神经网络模型中进行训练学习,得到人脸疲劳状态检测模型和肢体动作疲劳检测模型。然后获取运动者的运动视频,将识别出的运动视频中的运动者的人脸图像和肢体动作信息分别送入人脸疲劳状态检测模型和肢体动作疲劳检测模型,接着根据人脸疲劳检测结果和肢体疲劳检测结果进行综合判断,即能够精准快速的识别出运动者的疲劳状态。
[0122] 以上所述仅为本申请的优选实施例而已,并不用于限制本申请,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。
[0123] 对于本领域技术人员而言,显然本申请不限于上述示范性实施例的细节,而且在不背离本申请的精神或基本特征的情况下,能够以其它的具体形式实现本申请。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本申请的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化囊括在本申请内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。