基于音视频的疲劳状态检测方法和装置转让专利
申请号 : CN202111021587.0
文献号 : CN113642522B
文献日 : 2022-02-08
发明人 : 陶建华 , 肖明远 , 刘斌 , 连政
申请人 : 中国科学院自动化研究所
摘要 :
权利要求 :
1.基于音视频的疲劳状态检测方法,其特征在于,所述方法包括:S101:驾驶员身份识别:通过人脸识别技术在本地驾驶员档案数据库中确认目标驾驶员身份,如果没有对应人员信息,则新建驾驶员档案;
S102:目标驾驶员数据采集:在车辆驾驶过程中,采集目标驾驶员在驾驶过程中的音视频信息和生理信息,并提取出所述音视频信息和生理信息中与疲劳检测相关的数据,得到疲劳检测数据;所述音视频信息包括:面部视频信息、整体躯干部位视频信息和音频信息;
S103:目标驾驶员疲劳状态检测:根据所述疲劳检测数据和历史的疲劳检测数据对目标驾驶员当前状态进行分析,得出局部疲劳状态;
S104:疲劳状态示警:根据所述局部疲劳状态,以及目标驾驶员当前持续驾驶时间,计算目标驾驶员综合疲劳状态;
从所述生理信息中提取与疲劳检测相关的数据包括:心率、肌电频率和皮肤电传导;从所述面部视频信息提取与疲劳检测相关的数据包括:眼部和嘴部部位的视频信息;从整体躯干部位视频信息中提取姿态信息;
应用所述眼部和嘴部部位的视频信息得到所述局部疲劳状态的第一部分,第一局部疲劳状态La,具体方法为:将眼部和嘴部部位的视频信息按指定帧率转化为视频帧序列,得到面部视频帧序列;然后剔除非人脸的区域,对所述面部视频帧序列进行人脸检测和定位,得到人脸关键点眼部和嘴部的视频帧序列数据;将所述眼部和嘴部的视频帧序列数据输入第一卷积神经网络,得到眼嘴状态检测数据,应用所述眼嘴状态检测数据计算第一局部疲劳状态La;
所述应用所述眼嘴状态检测数据计算第一局部疲劳状态La的具体方法包括:应用眼状态检测数据计算眨眼频率BF;
正常情况下人的每分钟眨眼次数是20到30次,每次眨眼时间为0.25秒到0.3秒,如果在一段时间内的眨眼次数高于正常频率;
应用眼状态检测数据计算眨眼频率BF,计算公式为:其中,BTendj代表第j段视频帧结束时的总眨眼次数;BTstartj代表第j段视频帧开始时的总眨眼次数;Tj代表该段视频帧的长度应用嘴状态检测数据计算打哈欠频率YF;
在驾驶员正常状态下,从之前的眼嘴框检测步骤中检测到闭合及说话状态的嘴部位置;而在驾驶员打哈欠时,嘴部动作状态明显,因此在眼嘴框检测步骤中不会返回检测框,应用嘴状态检测数据计算打哈欠频率YF,计算公式为:其中,nj代表第j段视频帧中未出现嘴部框的次数;Tj代表该段视频帧的长度;
将所述眨眼频率BF和打哈欠频率YF融合,得到融合后的特征向量f;
其中,ω1和ω2表示为BF和YF设置的不同权重且ω1+ω2=1;
具体的,在利用驾驶员历史的疲劳检测数据训练进行超参数权值ω的最优值寻找后,得到最优的ω1和ω2;
将所述融合后的特征向量f输入第一局部疲劳状态分类预测模型,得到第一局部疲劳状态La的判定结果;
应用所述整体躯干部位视频信息得到所述局部疲劳状态的第二部分,第二局部疲劳状态Lb,具体方法为:捕捉上半身影像,对目标驾驶员上半身12个关节点进行姿态估计,得到姿态估计特征,将所述姿态估计特征输入第二卷积神经网络,得到第二局部疲劳状态Lb的判定结果;
第一局部疲劳状态La和第二局部疲劳状态Lb的判定结果均为:(1) 正常状态;
(2) 轻微疲劳状态;
(3) 中度疲劳状态;
(4) 重度疲劳状态;
所述得到姿态估计特征的具体方法为:根据目标驾驶员上半身12个关节点,构建目标驾驶员骨架模型时空图;具体方法如下:对目标驾驶员上半身骨架模型构建时空图G=(V,E),其中驾驶员关节点矩阵集合 ;
其中,
Vti表示某一帧的某个关节点,t表示帧数,
T表示某段数据总帧数,
i表示某一帧的节点索引,
N表示某一帧节点的总数,
V表示驾驶员关节点矩阵集合,E表示视频帧中的边集,
所述驾驶员关节点矩阵集合V包含了目标驾驶员在时间和空间上的上半身显示的关节点,
所述边集分为空间和时间上的边集:空间上的边集,按照 构建空间边集,其中i和j代表同一时刻的视频帧中不同位置的关节点;
其中,
i!=j 表示两个不同关节点,Es表示edgeset space‑空间上的边集,vti表示某一帧某一节点,t代表当前时刻,
表示的含义是某一帧下两个不同关节点之间的连线,即item定义,将其汇总起来即为空间边集,
时间上边集,按照 构建时间边集,其中t代表当前时刻,t+1代表下一时刻;
ET表示时间上的边集
v(t+1)i表示下一时刻帧的位置节点;
所述构建时空图G=(V,E)为作为目标驾驶员姿态估计特征。
2.根据权利要求1所述的基于音视频的疲劳状态检测方法,其特征在于,应用所述生理信息得到所述局部疲劳状态的第三部分,第三局部疲劳状态Lc,具体方法为:应用心率提取心率变异性;
将心率变异性输入到生理信号特征的疲劳状态检测模型,得到第三局部疲劳状态Lc;
第三局部疲劳状态Lc的判定结果为:(1) 正常状态;
(2) 轻微疲劳状态;
(3) 中度疲劳状态;
(4) 重度疲劳状态。
3.根据权利要求2所述的基于音视频的疲劳状态检测方法,其特征在于,所述计算目标驾驶员综合疲劳状态的具体方法为:利用加权投票融合方式对所述第一局部疲劳状态Lb、第二局部疲劳状态Lb和第三局部疲劳状态Lc进行决策层融合,得到综合疲劳状态。
4.根据权利要求3所述的基于音视频的疲劳状态检测方法,其特征在于,所述加权投票融合的具体过程包括:
构建决策信息标签矩阵M:
其中,mij表示分类器i对视频帧j的分类标签,一共有四个类别,n为视频帧的个数;
根据决策信息标签矩阵M,构建投票决策矩阵V:其中,V(i)是单位矩阵I的第i行,其中I 的维度为疲劳状态数量4;
当m11 = 1时,V(m11)为4*4单位矩阵的第一行[1,0,0,0];当m11= 2时,V(m11)为4*4单位矩阵的第二行[0,1,0,0];当m11 = 3时,V(m11)为4*4单位矩阵的第三行[0,0,1,0];当m11 =
4时,V(m11)为4*4单位矩阵的最后一行[0,0,0,1];分类器i的权重ωi表示为:其中,yj表示第j个视频帧的真实标签值;n表示视频帧的个数;加权投票融合,计算目标驾驶员的综合疲劳状态为:
其中,W为由ωi构成的矩阵;V(j)表示投票决策矩阵V的第j列。
5.根据权利要求1‑4任一项所述的基于音视频的疲劳状态检测方法,其特征在于,所述S104:疲劳状态示警,根据映射关系进行安全评价,根据安全评价的等级对所述目标驾驶员进行防疲劳驾驶示警操作。
6.基于音视频的疲劳状态检测装置,其特征在于,所述装置包括:身份验证模块、信息采集模块、疲劳分析模块;所述身份验证模块与所述信息采集模块连接,所述信息采集模块与所述疲劳分析模块连接;
所述身份验证模块通过人脸识别技术在本地驾驶员档案数据库中确认目标驾驶员身份,如果没有对应人员信息,则新建驾驶员档案;
所述信息采集模块在车辆驾驶过程中,采集目标驾驶员在驾驶过程中的音视频信息和生理信息,并提取出所述音视频信息和生理信息中与疲劳检测相关的数据,得到疲劳检测数据;所述音视频信息包括:面部视频信息、整体躯干部位视频信息和音频信息;
所述疲劳分析模块根据所述疲劳检测数据和历史的疲劳检测数据对目标驾驶员当前状态进行分析,得出局部疲劳状态;根据所述局部疲劳状态,以及目标驾驶员当前持续驾驶时间,计算目标驾驶员综合疲劳状态;
从所述生理信息中提取与疲劳检测相关的数据包括:心率、肌电频率和皮肤电传导;从所述面部视频信息提取与疲劳检测相关的数据包括:眼部和嘴部部位的视频信息;从整体躯干部位视频信息中提取姿态信息;
应用所述眼部和嘴部部位的视频信息得到所述局部疲劳状态的第一部分,第一局部疲劳状态La,具体方法为:将眼部和嘴部部位的视频信息按指定帧率转化为视频帧序列,得到面部视频帧序列;然后剔除非人脸的区域,对所述面部视频帧序列进行人脸检测和定位,得到人脸关键点眼部和嘴部的视频帧序列数据;将所述眼部和嘴部的视频帧序列数据输入第一卷积神经网络,得到眼嘴状态检测数据,应用所述眼嘴状态检测数据计算第一局部疲劳状态La;
所述应用所述眼嘴状态检测数据计算第一局部疲劳状态La的具体方法包括:应用眼状态检测数据计算眨眼频率BF;
正常情况下人的每分钟眨眼次数是20到30次,每次眨眼时间为0.25秒到0.3秒,如果在一段时间内的眨眼次数高于正常频率;
应用眼状态检测数据计算眨眼频率BF,计算公式为:其中,BTendj代表第j段视频帧结束时的总眨眼次数;BTstartj代表第j段视频帧开始时的总眨眼次数;Tj代表该段视频帧的长度应用嘴状态检测数据计算打哈欠频率YF;
在驾驶员正常状态下,从之前的眼嘴框检测步骤中检测到闭合及说话状态的嘴部位置;而在驾驶员打哈欠时,嘴部动作状态明显,因此在眼嘴框检测步骤中不会返回检测框,应用嘴状态检测数据计算打哈欠频率YF,计算公式为:其中,nj代表第j段视频帧中未出现嘴部框的次数;Tj代表该段视频帧的长度;
将所述眨眼频率BF和打哈欠频率YF融合,得到融合后的特征向量f;
其中,ω1和ω2表示为BF和YF设置的不同权重且ω1+ω2=1;
具体的,在利用驾驶员历史的疲劳检测数据训练进行超参数权值ω的最优值寻找后,得到最优的ω1和ω2;
将所述融合后的特征向量f输入第一局部疲劳状态分类预测模型,得到第一局部疲劳状态La的判定结果;
应用所述整体躯干部位视频信息得到所述局部疲劳状态的第二部分,第二局部疲劳状态Lb,具体方法为:捕捉上半身影像,对目标驾驶员上半身12个关节点进行姿态估计,得到姿态估计特征,将所述姿态估计特征输入第二卷积神经网络,得到第二局部疲劳状态Lb的判定结果;
第一局部疲劳状态La和第二局部疲劳状态Lb的判定结果均为:(1) 正常状态;
(2) 轻微疲劳状态;
(3) 中度疲劳状态;
(4) 重度疲劳状态;
所述得到姿态估计特征的具体方法为:根据目标驾驶员上半身12个关节点,构建目标驾驶员骨架模型时空图;具体方法如下:对目标驾驶员上半身骨架模型构建时空图G=(V,E),其中驾驶员关节点矩阵集合;
其中,
Vti表示某一帧的某个关节点,t表示帧数,
T表示某段数据总帧数,
i表示某一帧的节点索引,
N表示某一帧节点的总数,
V表示驾驶员关节点矩阵集合,E表示视频帧中的边集,
所述驾驶员关节点矩阵集合V包含了目标驾驶员在时间和空间上的上半身显示的关节点,
所述边集分为空间和时间上的边集:空间上的边集,按照构建空间边集,其中i和j代表同一时刻的视频帧中不同位置的关节点;
其中,
i!=j 表示两个不同关节点,Es表示edgeset space‑空间上的边集,vti表示某一帧某一节点,t代表当前时刻,
表示的含义是某一帧下两个不同关节点之间的连线,即item定义,将其汇总起来即为空间边集,
时间上边集,按照 构建时间边集,其中t代表当前时刻,t+1代表下一时刻;
ET表示时间上的边集
v(t+1)i表示下一时刻帧的位置节点;
所述构建时空图G=(V,E)为作为目标驾驶员姿态估计特征。
7.根据权利要求6所述的基于音视频的疲劳状态检测装置,其特征在于,所述装置还包括安全评级模块和示警接管模块,所述疲劳分析模块与所述安全评级模块连接,所述安全评级模块与所述示警接管模块连接;
所述安全评级模块根据所述局部疲劳状态,以及目标驾驶员当前持续驾驶时间,根据映射关系进行安全评价;
所述示警接管模块根据安全评价的等级对所述目标驾驶员进行防疲劳驾驶示警操作。
说明书 :
基于音视频的疲劳状态检测方法和装置
技术领域
背景技术
分散、打瞌睡、视野变窄、信息漏看、反应判断迟钝,出现驾驶操作失误或完全丧失驾驶能
力,以至发生碰撞、冲出路面等严重交通事故。如果能提前2秒钟预警将能减少92%的交通事
故,提前0.5秒钟预警,将会避免73%的交通事故。因此,一种高效快速的预警系统,可以避免
拯救成千上万人的生命,避免财产及经济的损失。
置若干摄像头,实时拍摄车辆在车道中的位置,从而获得车道偏移数据来判断驾驶员疲劳
状态。这种方法的主要缺点是,拍摄画面效果受光线和天气影响很大,而且当路面没有分割
线或分割线不清晰时就很难进行分析,但这种方式容易受驾驶员个人习惯的影响出现误
判;基于驾驶员生理心理特征需要相应的传感器直接接触驾驶员的身体,容易造成不适应
感,并影响操作,同时其信号也容易受到噪音的干扰;当计算机视觉作用于驾驶员时,主要
是通过图像分析手段对驾驶员的脸部与眼部特征进行疲劳估计,由于其具有非接触、无干
扰、实时效果好、准确率高及精度高等优点,目前得到了广泛的研究。一般来说,在前挡风玻
璃之后会放置若干摄像头,实时拍摄驾驶员的头部。通过拍摄画面可以分析驾驶员的眨眼
频率(驾驶员疲劳时眨眼频率一般会降低)、眼睑闭合度PERCLOS(1分钟内眼睑80%闭合的时
间;驾驶员疲劳时眼睑闭合时间通常会增加)、眼球跟踪(观察驾驶员是否正视前方,是否主
动检查后视镜和侧视镜)、瞳孔反应(驾驶员疲劳时瞳孔对光线变化的反应会变慢)、点头
(驾驶员打瞌睡时头通常会垂得更低,点头动作会增多)、打哈欠(基于嘴部状态)等动作,从
而判断驾驶员是否疲劳。
有的驾驶特点。
止,考虑到实际所处的驾驶环境,很容易由此引发其他交通事故如后车追尾等。
发明内容
得到疲劳检测数据;所述音视频信息包括:面部视频信息、整体躯干部位视频信息和音频信
息;
位的视频信息;从整体躯干部位视频信息中提取姿态信息。
化为视频帧序列,得到面部视频帧序列;然后剔除非人脸的区域,对所述面部视频帧序列进
行人脸检测和定位,得到人脸关键点眼部和嘴部的视频帧序列数据;将所述眼部和嘴部的
视频帧序列数据输入第一卷积神经网络,得到眼嘴状态检测数据,应用所述眼嘴状态检测
数据计算第一局部疲劳状态La。
点进行姿态估计,得到姿态估计特征,将所述姿态估计特征输入第二卷积神经网络,得到第
二局部疲劳状态Lb的判定结果;
决策层融合,得到综合疲劳状态。
m11 = 4时,V(m11)为4*4单位矩阵的最后一行[0,0,0,1];
检测数据;所述音视频信息包括:面部视频信息、整体躯干部位视频信息和音频信息;
驾驶时间,计算目标驾驶员综合疲劳状态。
述示警接管模块连接;
频信息和生理信息,并提取出所述音视频信息和生理信息中与疲劳检测相关的数据,得到
疲劳检测数据;面部视频信息、整体躯干部位视频信息和音频信息;根据疲劳检测数据和历
史的疲劳检测数据对目标驾驶员当前状态进行分析,得出局部疲劳状态;根据局部疲劳状
态,以及目标驾驶员当前持续驾驶时间,计算目标驾驶员综合疲劳状态并根据映射关系进
行安全评价,根据安全评价的等级对所述目标驾驶员进行防疲劳驾驶示警操作。
附图说明
具体实施方式
中所描述的实施方式并不代表与本发明相一致的所有实施方式。相反,它们仅是与如所附
权利要求书中所详述的、本发明的一些方面相一致的装置和方法的例子。
得到疲劳检测数据;所述音视频信息包括:面部视频信息、整体躯干部位视频信息和音频信
息;
位的视频信息;从整体躯干部位视频信息中提取姿态信息。
化为视频帧序列,得到面部视频帧序列;然后剔除非人脸的区域,对所述面部视频帧序列进
行人脸检测和定位,得到人脸关键点眼部和嘴部的视频帧序列数据;将所述眼部和嘴部的
视频帧序列数据输入第一卷积神经网络,得到眼嘴状态检测数据,应用所述眼嘴状态检测
数据计算第一局部疲劳状态La。
上半身12个关节点,对目标驾驶员上半身12个关节点进行姿态估计,得到姿态估计特征,将
所述姿态估计特征输入第二卷积神经网络,得到第二局部疲劳状态Lb的判定结果;
决策层融合,得到综合疲劳状态。
m11 = 4时,V(m11)为4*4单位矩阵的最后一行[0,0,0,1];
份,辅助后续基于音视频的疲劳状态检测;
信息,并提取出所述音视频信息和生理信息中与疲劳检测相关的数据,得到疲劳检测数据;
所述音视频信息包括:面部视频信息、整体躯干部位视频信息和音频信息;
整体躯干部位视频信息中提取姿态信息;
后的表现进行判断,所以基于生理信号的疲劳检测可能会提供更充分的预警时间;
视频帧序列,得到面部视频帧序列;然后剔除非人脸的区域,对所述面部视频帧序列进行人
脸检测和定位,得到人脸关键点眼部和嘴部的视频帧序列数据;将所述眼部和嘴部的视频
帧序列数据输入第一卷积神经网络,得到眼嘴状态检测数据,应用所述眼嘴状态检测数据
计算第一局部疲劳状态La,具体方法包括:
骤中不会返回检测框,应用嘴状态检测数据计算打哈欠频率YF,计算公式为:
La;
的疲劳行为可以包括但不限于如下行为中的至少一个:点头、喝水、抽烟、打电话、单手或双
手脱离方向盘、未面向正前方以及更换驾驶员;
对数据进行目标检测操作对驾驶员的位置进行定位;然后利用姿态估计算法对目标驾驶员
的姿态进行提取和估计;最后利用目标驾驶员的姿态特征训练出驾驶员整体姿态疲劳状态
模型;在预测阶段,利用目标驾驶员整体实时音视频数据经过同样的目标检测即第二卷积
神经网络、姿态估计等步骤得到当前目标驾驶员的整体姿态疲劳状态Lb;
度,对于那些评分较高的区域可以视为检测结果;
得到姿态估计特征,将所述姿态估计特征输入第二卷积神经网络,得到第二局部疲劳状态
Lb的判定结果;
驾驶员在时间和空间上的上半身显示的关节点。E表示视频帧中的边集,边集分为空间和时
间上的边集:空间上,按照 构建空间边集,其中i和j代表同一时刻
的视频帧中不同位置的关节点。
的生理学指标,反映了交感和副交感神经之间的平衡;
神经之间的平衡关系,因此HRV常用于人体精神负荷检测和自主神经功能均衡性的评价指
标,研究发现,在精神疲劳状态下,被试者心率下降,心率变异性增大;
式如下:
能代表心跳的特征HRV;
云端利用现有的生理信号疲劳状态数据集进行训练,得到针对生理信号特征的疲劳状态检
测模型,具体流程图如图7所示;
所述目标驾驶员进行防疲劳驾驶示警操作;
综合疲劳状态;
m11 = 4时,V(m11)为4*4单位矩阵的最后一行[0,0,0,1];
系数;t表示当前的驾驶时间,t严格大于等于0。
劳状态检测,然后从云端传送回当前安全评价;在本地疲劳状态检测系统收到运算结果后
进行相应的措施。
所述疲劳分析模块与所述安全评级模块连接,所述安全评级模块与所述示警接管模块连
接;
置于疲劳状态检测装置中,也可以单独作为一个人脸识别模块进行运行;
到的人脸图像信息,首先判断该驾驶员身份是否存在于本地驾驶员档案数据库中,如果不
存在则需要在车载终端上进行注册操作,并将信息同步到本地驾驶员档案数据库中,并保
留当前驾驶员的登录状态;如果存在则直接保留当前驾驶员的登录状态;
能联网或者网速很慢,以致于不能正常使用;
驾驶员档案数据库;
接管车辆自动导航到目的地;
检测数据;所述音视频信息包括:面部视频信息、整体躯干部位视频信息和音频信息;
负责采集目标驾驶员的动作姿态信息及语音信息;接触式传感器设备负责采集目标驾驶员
的生理信息;面部采集设备可以是摄像头、摄像机等设备,可以将其设置于目标车辆驾驶室
的正前方,以便于采集目标驾驶员面部的正对信息,主要侧重点在于眼部、嘴部等,并将拍
摄的视频数据发送至疲劳状态检测装置中,以便进行后续分析;
围环境进行拍摄,并且同时收集区域内的音频数据。采集的主要目的在于分析目标驾驶员
的驾驶状态是否规范(是否有打电话,单手驾驶等等),以及目标驾驶员所在车辆的环境是
否为嘈杂环境,以便进行后续分析
解这个问题,接触式传感器设备可以是内置辅助传感器的方向盘和驾驶员座椅,采集生理
信号可以包括但不限于:心率(驾驶员瞌睡时心率变化会变慢)、肌电频率(肌电的频率随着
疲劳的产生和疲劳程度的加深呈现下降趋势,肌电的幅值随疲劳程度增加而增大)、皮肤电
传导等;
后的表现进行判断,所以基于生理信号的疲劳检测可能会提供更充分的预警时间,将采集
到的生理指标数据发送至疲劳状态检测装置中,以便进行后续分析。
如果不能正常访问云端,就发送到本地疲劳状态检测装置中;
形式,除非上下文清楚地表示其他含义。还应当理解,本文中使用的术语“和/或”是指并包
含一个或多个相关联的列出项目的任何或所有可能组合。
本发明范围的情况下,第一信息也可以被称为第二信息,类似地,第二信息也可以被称为第
一信息。取决于语境,如在此所使用的词语“如果”可以被解释成为“在……时”或“当……
时”或“响应于确定”。
件、或者它们中的一个或多个的组合。本说明书中描述的主题的实施例可以实现为一个或
多个计算机程序,即编码在有形非暂时性程序载体上以被数据处理装置执行或控制数据处
理装置的操作的计算机程序指令中的一个或多个模块。可替代地或附加地,程序指令可以
被编码在人工生成的传播信号上,例如机器生成的电、光或电磁信号,该信号被生成以将信
息编码并传输到合适的接收机装置以由数据处理装置执行。计算机存储介质可以是机器可
读存储设备、机器可读存储基板、随机或串行存取存储器设备、或它们中的一个或多个的组
合。
述处理及逻辑流程还可以由专用逻辑电路—例如FPGA(现场可编程门阵列)或ASIC(专用集
成电路)来执行,并且装置也可以实现为专用逻辑电路。
令和数据。计算机的基本组件包括用于实施或执行指令的中央处理单元以及用于存储指令
和数据的一个或多个存储器设备。通常,计算机还将包括用于存储数据的一个或多个大容
量存储设备,例如磁盘、磁光盘或光盘等,或者计算机将可操作地与此大容量存储设备耦接
以从其接收数据或向其传送数据,抑或两种情况兼而有之。然而,计算机不是必须具有这样
的设备。此外,计算机可以嵌入在另一设备中,例如移动电话、个人数字助理(PDA)、移动音
频或视频播放器、游戏操纵台、全球定位系统(GPS)接收机、或例如通用串行总线(USB)闪存
驱动器的便携式存储设备,仅举几例。
磁盘(例如内部硬盘或可移动盘)、磁光盘以及CD ROM和DVD‑ROM盘。处理器和存储器可由专
用逻辑电路补充或并入专用逻辑电路中。
多个实施例中描述的某些特征也可以在单个实施例中被组合实施。另一方面,在单个实施
例中描述的各种特征也可以在多个实施例中分开实施或以任何合适的子组合来实施。此
外,虽然特征可以如上所述在某些组合中起作用并且甚至最初如此要求保护,但是来自所
要求保护的组合中的一个或多个特征在一些情况下可以从该组合中去除,并且所要求保护
的组合可以指向子组合或子组合的变型。
果。在某些情况下,多任务和并行处理可能是有利的。此外,上述实施例中的各种系统模块
和组件的分离不应被理解为在所有实施例中均需要这样的分离,并且应当理解,所描述的
程序组件和系统通常可以一起集成在单个软件产品中,或者封装成多个软件产品。
外,附图中描绘的处理并非必需所示的特定顺序或顺次顺序,以实现期望的结果。在某些实
现中,多任务和并行处理可能是有利的。