场景识别模型建模方法、装置、存储介质及电子设备转让专利

申请号 : CN201910282425.9

文献号 : CN111797868A

文献日 :

基本信息:

PDF:

法律信息:

相似专利:

发明人 : 何明陈仲铭黄粟刘耀勇陈岩

申请人 : OPPO广东移动通信有限公司

摘要 :

本申请实施例提供一种场景识别模型建模方法、装置、存储介质及电子设备,所述场景识别模型建模方法包括:根据多个场景的场景数据分别对每一所述场景进行识别,以得到每一所述场景的识别准确度;根据多个所述识别准确度从所述多个场景中确定出第一类型场景和第二类型场景;使用所述第一类型场景以及所述第一类型场景对应的场景数据进行模型训练,以得到场景识别子模型;根据所述第二类型场景以及所述第二类型场景对应的场景数据对所述场景识别子模型进行训练,以得到场景识别模型。所述场景识别模型建模方法中,训练得到的场景识别模型对容易识别的场景以及较难识别的场景均能够很好地进行识别,可以提高电子设备识别场景的效率。

权利要求 :

1.一种场景识别模型建模方法,其特征在于,包括:

根据多个场景的场景数据分别对每一所述场景进行识别,以得到每一所述场景的识别准确度;

根据多个所述识别准确度从所述多个场景中确定出第一类型场景和第二类型场景,其中所述第二类型场景的识别准确度低于所述第一类型场景的识别准确度;

使用所述第一类型场景以及所述第一类型场景对应的场景数据进行模型训练,以得到场景识别子模型;

根据所述第二类型场景以及所述第二类型场景对应的场景数据对所述场景识别子模型进行训练,以得到场景识别模型。

2.根据权利要求1所述的场景识别模型建模方法,其特征在于,所述根据多个场景的场景数据分别对每一所述场景进行识别,以得到每一所述场景的识别准确度,包括:获取多个场景中每一场景的场景数据;

根据预设分类算法以及多个所述场景数据依次对每一所述场景进行分类,以得到每一所述场景的分类准确度;

将每一所述场景的分类准确度确定为所述场景的识别准确度。

3.根据权利要求2所述的场景识别模型建模方法,其特征在于,所述根据预设分类算法以及多个所述场景数据依次对每一所述场景进行分类,以得到每一所述场景的分类准确度,包括:确定每一所述场景的训练数据集,其中每一所述场景的训练数据集包括正样本和负样本,所述正样本包括所述场景的场景数据,所述负样本包括其它场景的场景数据;

根据预设分类算法依次对每一所述场景的训练数据集进行分类计算,以得到每一所述场景的分类准确度。

4.根据权利要求1至3任一项所述的场景识别模型建模方法,其特征在于,所述根据多个所述识别准确度从所述多个场景中确定出第一类型场景和第二类型场景的步骤包括:获取预设识别准确度阈值;

将大于所述预设识别准确度阈值的识别准确度对应的场景确定为第一类型场景;

将小于或等于所述预设识别准确度阈值的识别准确度对应的场景确定为第二类型场景。

5.根据权利要求1至3任一项所述的场景识别模型建模方法,其特征在于,所述使用所述第一类型场景以及所述第一类型场景对应的场景数据进行模型训练,以得到场景识别子模型,包括:通过神经网络算法使用所述第一类型场景以及所述第一类型场景对应的场景数据进行模型训练,以得到第一神经网络模型;

将所述第一神经网络模型确定为场景识别子模型。

6.根据权利要求5所述的场景识别模型建模方法,其特征在于,所述根据所述第二类型场景以及所述第二类型场景对应的场景数据对所述场景识别子模型进行训练,以得到场景识别模型,包括:将所述第一神经网络模型的输出层扩大,以得到扩大后的第一神经网络模型;

根据神经网络算法、所述第二类型场景以及所述第二类型场景对应的场景数据对所述扩大后的第一神经网络模型进行训练,以得到第二神经网络模型;

将所述第二神经网络模型确定为场景识别模型。

7.一种场景识别模型建模装置,其特征在于,包括:

识别模块,用于根据多个场景的场景数据分别对每一所述场景进行识别,以得到每一所述场景的识别准确度;

确定模块,用于根据多个所述识别准确度从所述多个场景中确定出第一类型场景和第二类型场景,其中所述第二类型场景的识别准确度低于所述第一类型场景的识别准确度;

第一训练模块,用于使用所述第一类型场景以及所述第一类型场景对应的场景数据进行模型训练,以得到场景识别子模型;

第二训练模块,用于根据所述第二类型场景以及所述第二类型场景对应的场景数据对所述场景识别子模型进行训练,以得到场景识别模型。

8.根据权利要求7所述的场景识别模型建模方法,其特征在于,所述识别模块用于:获取多个场景中每一场景的场景数据;

根据预设分类算法以及多个所述场景数据依次对每一所述场景进行分类,以得到每一所述场景的分类准确度;

将每一所述场景的分类准确度确定为所述场景的识别准确度。

9.根据权利要求8所述的场景识别模型建模方法,其特征在于,根据预设分类算法以及多个所述场景数据依次对每一所述场景进行分类,以得到每一所述场景的分类准确度时,所述识别模块用于:确定每一所述场景的训练数据集,其中每一所述场景的训练数据集包括正样本和负样本,所述正样本包括所述场景的场景数据,所述负样本包括其它场景的场景数据;

根据预设分类算法依次对每一所述场景的训练数据集进行分类计算,以得到每一所述场景的分类准确度。

10.一种存储介质,其特征在于,所述存储介质中存储有计算机程序,当所述计算机程序在计算机上运行时,使得所述计算机执行权利要求1至6任一项所述的场景识别模型建模方法。

11.一种电子设备,其特征在于,所述电子设备包括处理器和存储器,所述存储器中存储有计算机程序,所述处理器通过调用所述存储器中存储的所述计算机程序,用于执行权利要求1至6任一项所述的场景识别模型建模方法。

说明书 :

场景识别模型建模方法、装置、存储介质及电子设备

技术领域

[0001] 本申请涉及电子技术领域,特别涉及一种场景识别模型建模方法、装置、存储介质及电子设备。

背景技术

[0002] 随着电子技术的发展,诸如智能手机等电子设备能够为用户提供的服务越来越多。例如,电子设备可以为用户提供社交服务、导航服务、旅游推荐服务等。为了能够给用户提供针对性、个性化的服务,电子设备需要对用户所处的场景进行识别。

发明内容

[0003] 本申请实施例提供一种场景识别模型建模方法、装置、存储介质及电子设备,可以提高电子设备识别场景的效率。
[0004] 本申请实施例提供一种场景识别模型建模方法,包括:
[0005] 根据多个场景的场景数据分别对每一所述场景进行识别,以得到每一所述场景的识别准确度;
[0006] 根据多个所述识别准确度从所述多个场景中确定出第一类型场景和第二类型场景,其中所述第二类型场景的识别准确度低于所述第一类型场景的识别准确度;
[0007] 使用所述第一类型场景以及所述第一类型场景对应的场景数据进行模型训练,以得到场景识别子模型;
[0008] 根据所述第二类型场景以及所述第二类型场景对应的场景数据对所述场景识别子模型进行训练,以得到场景识别模型。
[0009] 本申请实施例还提供一种场景识别模型建模装置,包括:
[0010] 识别模块,用于根据多个场景的场景数据分别对每一所述场景进行识别,以得到每一所述场景的识别准确度;
[0011] 确定模块,用于根据多个所述识别准确度从所述多个场景中确定出第一类型场景和第二类型场景,其中所述第二类型场景的识别准确度低于所述第一类型场景的识别准确度;
[0012] 第一训练模块,用于使用所述第一类型场景以及所述第一类型场景对应的场景数据进行模型训练,以得到场景识别子模型;
[0013] 第二训练模块,用于根据所述第二类型场景以及所述第二类型场景对应的场景数据对所述场景识别子模型进行训练,以得到场景识别模型。
[0014] 本申请实施例还提供一种存储介质,所述存储介质中存储有计算机程序,当所述计算机程序在计算机上运行时,使得所述计算机执行上述场景识别模型建模方法。
[0015] 本申请实施例还提供一种电子设备,包括处理器和存储器,所述存储器中存储有计算机程序,所述处理器通过调用所述存储器中存储的所述计算机程序,用于执行上述场景识别模型建模方法。
[0016] 本申请实施例提供的场景识别模型建模方法,包括:根据多个场景的场景数据分别对每一所述场景进行识别,以得到每一所述场景的识别准确度;根据多个所述识别准确度从所述多个场景中确定出第一类型场景和第二类型场景,其中所述第二类型场景的识别准确度低于所述第一类型场景的识别准确度;使用所述第一类型场景以及所述第一类型场景对应的场景数据进行模型训练,以得到场景识别子模型;根据所述第二类型场景以及所述第二类型场景对应的场景数据对所述场景识别子模型进行训练,以得到场景识别模型。所述场景识别模型建模方法中,由于先确定出容易识别的第一类型场景以及较难识别的第二类型场景,并分别根据所述第一类型场景对应的场景数据以及所述第二类型场景对应的场景数据进行训练,从而使得训练得到的场景识别模型对容易识别的场景以及较难识别的场景均能够很好地进行识别,减少场景识别模型对较难识别的场景进行识别时所耗费的时间,从而提高电子设备识别场景的效率。

附图说明

[0017] 为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍。显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
[0018] 图1为本申请实施例提供的场景识别模型建模方法的应用场景示意图。
[0019] 图2为本申请实施例提供的场景识别模型建模方法的第一种流程示意图。
[0020] 图3为本申请实施例提供的场景识别模型建模方法的第二种流程示意图。
[0021] 图4为本申请实施例提供的场景识别模型建模方法的第三种流程示意图。
[0022] 图5为本申请实施例提供的场景识别模型建模方法的第四种流程示意图。
[0023] 图6为本申请实施例提供的场景识别模型建模装置的结构示意图。
[0024] 图7为本申请实施例提供的电子设备的第一种结构示意图。
[0025] 图8为本申请实施例提供的电子设备的第二种结构示意图。

具体实施方式

[0026] 下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述。显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域技术人员在没有付出创造性劳动前提下所获得的所有其他实施例,都属于本申请的保护范围。
[0027] 参考图1,图1为本申请实施例提供的场景识别模型建模方法的应用场景示意图。所述场景识别模型建模方法应用于电子设备。所述电子设备中设置有全景感知架构。所述全景感知架构为电子设备中用于实现所述场景识别模型建模方法的硬件和软件的集成。
[0028] 其中,全景感知架构包括信息感知层、数据处理层、特征抽取层、情景建模层以及智能服务层。
[0029] 信息感知层用于获取电子设备自身的信息或者外部环境中的信息。所述信息感知层可以包括多个传感器。例如,所述信息感知层包括距离传感器、磁场传感器、光线传感器、加速度传感器、指纹传感器、霍尔传感器、位置传感器、陀螺仪、惯性传感器、姿态感应器、气压计、心率传感器等多个传感器。
[0030] 其中,距离传感器可以用于检测电子设备与外部物体之间的距离。磁场传感器可以用于检测电子设备所处环境的磁场信息。光线传感器可以用于检测电子设备所处环境的光线信息。加速度传感器可以用于检测电子设备的加速度数据。指纹传感器可以用于采集用户的指纹信息。霍尔传感器是根据霍尔效应制作的一种磁场传感器,可以用于实现电子设备的自动控制。位置传感器可以用于检测电子设备当前所处的地理位置。陀螺仪可以用于检测电子设备在各个方向上的角速度。惯性传感器可以用于检测电子设备的运动数据。姿态感应器可以用于感应电子设备的姿态信息。气压计可以用于检测电子设备所处环境的气压。心率传感器可以用于检测用户的心率信息。
[0031] 数据处理层用于对信息感知层获取到的数据进行处理。例如,数据处理层可以对信息感知层获取到的数据进行数据清理、数据集成、数据变换、数据归约等处理。
[0032] 其中,数据清理是指对信息感知层获取到的大量数据进行清理,以剔除无效数据和重复数据。数据集成是指将信息感知层获取到的多个单维度数据集成到一个更高或者更抽象的维度,以对多个单维度的数据进行综合处理。数据变换是指对信息感知层获取到的数据进行数据类型的转换或者格式的转换等,以使变换后的数据满足处理的需求。数据归约是指在尽可能保持数据原貌的前提下,最大限度的精简数据量。
[0033] 特征抽取层用于对数据处理层处理后的数据进行特征抽取,以提取所述数据中包括的特征。提取到的特征可以反映出电子设备自身的状态或者用户的状态或者电子设备所处环境的环境状态等。
[0034] 其中,特征抽取层可以通过过滤法、包装法、集成法等方法来提取特征或者对提取到的特征进行处理。
[0035] 过滤法是指对提取到的特征进行过滤,以删除冗余的特征数据。包装法用于对提取到的特征进行筛选。集成法是指将多种特征提取方法集成到一起,以构建一种更加高效、更加准确的特征提取方法,用于提取特征。
[0036] 情景建模层用于根据特征抽取层提取到的特征来构建模型,所得到的模型可以用于表示电子设备的状态或者用户的状态或者环境状态等。例如,情景建模层可以根据特征抽取层提取到的特征来构建关键值模型、模式标识模型、图模型、实体联系模型、面向对象模型等。
[0037] 智能服务层用于根据情景建模层所构建的模型为用户提供智能化的服务。例如,智能服务层可以为用户提供基础应用服务,可以为电子设备进行系统智能优化,还可以为用户提供个性化智能服务。
[0038] 此外,全景感知架构中还可以包括多种算法,每一种算法都可以用于对数据进行分析处理,所述多种算法可以构成算法库。例如,所述算法库中可以包括马尔科夫算法、隐含狄里克雷分布算法、贝叶斯分类算法、支持向量机(Support Vector Machine,SVM)、K均值聚类算法、K近邻算法、条件随机场、残差网络、长短期记忆网络、卷积神经网络、循环神经网络等算法。
[0039] 本申请实施例提供一种场景识别模型建模方法,所述场景识别模型建模方法可以应用于电子设备中。所述电子设备可以为智能手机、平板电脑、游戏设备、AR(Augmented Reality,增强现实)设备、汽车、数据存储装置、音频播放装置、视频播放装置、笔记本电脑、桌面计算设备、可穿戴设备诸如电子手表、电子眼镜、电子头盔、电子手链、电子项链、电子衣物等设备。
[0040] 参考图2,图2为本申请实施例提供的场景识别模型建模方法的第一种流程示意图。
[0041] 其中,所述场景识别模型建模方法包括以下步骤:
[0042] 110,根据多个场景的场景数据分别对每一所述场景进行识别,以得到每一所述场景的识别准确度。
[0043] 电子设备可以获取多个场景的场景数据。例如,用户可以通过电子设备获取起床场景、跑步场景、乘坐地铁场景等多个场景的场景数据。其中,每一场景都可以预先设置一个对应的场景标签,也即场景名称。例如,电子设备中可以将场景标签通过y表示,对应的场景数据通过x表示。
[0044] 随后,电子设备可以根据所述多个场景的场景数据分别对每一所述场景进行识别,得到识别结果。电子设备可以根据识别结果判断每一所述场景的识别准确度。其中,所述识别准确度可以通过数值进行表示。
[0045] 例如,电子设备对起床场景的识别准确度可以为90%,对跑步场景的识别准确度可以为80%,对乘坐地铁场景的识别准确度可以为70%。
[0046] 120,根据多个所述识别准确度从所述多个场景中确定出第一类型场景和第二类型场景,其中所述第二类型场景的识别准确度低于所述第一类型场景的识别准确度。
[0047] 电子设备得到多个场景中每一场景的识别准确度后,可以根据多个所述识别准确度从所述多个场景中确定出第一类型场景和第二类型场景。其中,所述第一类型场景包括至少一个场景,所述第二类型场景也包括至少一个场景。所述第二类型场景的识别准确度低于所述第一类型场景的识别准确度。也即,所述第二类型场景的识别难度大于所述第一类型场景的识别难度。
[0048] 需要说明的是,所述第二类型场景中每一场景的识别准确度均低于所述第一类型场景中每一场景的识别准确度。
[0049] 例如,所述多个场景包括场景y1、y2、y3、y4、y5、y6。其中,场景y1的识别准确度为85%,场景y2的识别准确度为60%,场景y3的识别准确度为82%,场景y4的识别准确度为
65%,场景y5的识别准确度为90%,场景y6的识别准确度为55%。那么,电子设备可以将所述场景y1、y3、y5确定为第一类型场景,将所述场景y2、y4、y6确定为第二类型场景。
[0050] 130,使用所述第一类型场景以及所述第一类型场景对应的场景数据进行模型训练,以得到场景识别子模型。
[0051] 电子设备确定出第一类型场景和第二类型场景后,可以使用所述第一类型场景以及所述第一类型场景对应的场景数据进行模型训练,以得到场景识别子模型。由于训练过程中将第一类型场景对应的场景数据进行训练,因此训练得到的所述场景识别子模型可以对所述第一类型场景进行识别。
[0052] 例如,场景y1、y3、y5为第一类型场景。其中,场景y1对应的场景数据为x1,场景y3对应的场景数据为x3,场景y5对应的场景数据为x5。那么,电子设备可以对所述场景y1、y3、y5以及所述场景数据x1、x3、x5进行训练,以得到场景识别子模型。
[0053] 140,根据所述第二类型场景以及所述第二类型场景对应的场景数据对所述场景识别子模型进行训练,以得到场景识别模型。
[0054] 电子设备训练得到场景识别子模型后,可以根据所述第二类型场景以及所述第二类型场景对应的场景数据对所述场景识别子模型进行训练,以得到场景识别模型。由于训练过程中将第二类型场景对应的场景数据进行训练,因此训练得到的所述场景识别模型可以对所述第二类型场景进行识别。
[0055] 例如,场景y2、y4、y6为第二类型场景。其中,场景y2对应的场景数据为x2,场景y4对应的场景数据为x4,场景y6对应的场景数据为x6。那么,电子设备可以根据所述场景y2、y4、y6以及所述场景数据x2、x4、x6对所述场景识别子模型进行训练,以得到场景识别模型。
[0056] 例如,在一些实施例中,电子设备可以通过信息感知层获取多个场景的场景数据,并由智能服务层根据所述多个场景的场景数据分别对每一所述场景进行识别,以得到每一所述场景的识别准确度。可以理解的,智能服务层分别对每一所述场景进行识别之前,还可以通过数据处理层对所述多个场景的场景数据进行处理,例如进行数据清理、数据变换等处理。随后,智能服务层根据数据处理层处理后的场景数据分别对每一场景进行识别。
[0057] 随后,电子设备通过智能服务层根据多个所述识别准确度从所述多个场景中确定出第一类型场景和第二类型场景,并通过情景建模层对所述第一类型场景以及所述第一类型场景对应的场景数据进行训练,以得到场景识别子模型,以及通过情景建模层根据所述第二类型场景以及所述第二类型场景对应的场景数据对所述场景识别子模型进行训练,以得到场景识别模型。
[0058] 本申请实施例提供的场景识别模型建模方法,由于先确定出容易识别的第一类型场景以及较难识别的第二类型场景,并分别根据所述第一类型场景对应的场景数据以及所述第二类型场景对应的场景数据进行训练,从而使得训练得到的场景识别模型对容易识别的场景以及较难识别的场景均能够很好地进行识别,减少场景识别模型对较难识别的场景进行识别时所耗费的时间,从而提高电子设备识别场景的效率。
[0059] 在一些实施例中,参考图3,图3为本申请实施例提供的场景识别模型建模方法的第二种流程示意图。
[0060] 其中,步骤110、根据多个场景的场景数据分别对每一所述场景进行识别,以得到每一所述场景的识别准确度,包括:
[0061] 111,获取多个场景中每一场景的场景数据;
[0062] 112,根据预设分类算法以及多个所述场景数据依次对每一所述场景进行分类,以得到每一所述场景的分类准确度;
[0063] 113,将每一所述场景的分类准确度确定为所述场景的识别准确度。
[0064] 电子设备可以分别获取多个场景中每一场景的场景数据。例如,当电子设备需要进行场景识别模型建模任务时,用户可以控制电子设备分别在多个不同的场景中采集场景数据。
[0065] 其中,所述场景数据可以包括任意的数据。例如,所述场景数据可以包括环境温度、环境光强度、环境噪声等环境数据。所述场景数据还可以包括电子设备上的图像数据、内存数据、电子设备上显示的文本数据等电子设备的运行数据。所述场景数据还可以包括用户行为习惯数据,例如用户的作息时间、用户进行的娱乐活动等。
[0066] 其中,电子设备可以通过上述全景感知架构中的信息感知层来采集所述多个场景中每一场景的场景数据。例如,电子设备可以通过温度传感器来检测环境温度,通过光线传感器来检测环境光强度,通过麦克风来检测环境噪声,通过电子设备的处理电路调取电子设备上的图像数据、内存数据等,通过显示控制电路来获取电子设备上显示的文本数据。此外,电子设备还可以通过信息感知层来感知用户的行为并进行记录,以形成用户的行为习惯数据。
[0067] 随后,电子设备根据预设分类算法以及多个所述场景数据依次对每一所述场景进行分类,以得到每一所述场景的分类准确度。其中,所述预设分类算法例如可以为支持向量机(Support Vector Machine,SVM)分类算法。
[0068] 其中,电子设备可以将获取的多个所述场景数据输入到预设分类算法模型中,由所述预设分类算法模型进行分类计算,并输出分类结果。所述分类结果中即可包括对每一所述场景的分类准确度。
[0069] 电子设备得到每一所述场景的分类准确度后,可以将每一所述场景的分类准确度确定为所述场景的识别准确度。
[0070] 在一些实施例中,参考图4,图4为本申请实施例提供的场景识别模型建模方法的第三种流程示意图。
[0071] 其中,步骤112、根据预设分类算法以及多个所述场景数据依次对每一所述场景进行分类,以得到每一所述场景的分类准确度,包括:
[0072] 1121,确定每一所述场景的训练数据集,其中每一所述场景的训练数据集包括正样本和负样本,所述正样本包括所述场景的场景数据,所述负样本包括其它场景的场景数据;
[0073] 1122,根据预设分类算法依次对每一所述场景的训练数据集进行分类计算,以得到每一所述场景的分类准确度。
[0074] 电子设备获取到多个场景中每一场景的场景数据后,可以根据多个所述场景数据确定每一所述场景的训练数据集。其中,每一所述场景的训练数据集包括正样本和负样本,所述正样本包括所述场景的场景数据,所述负样本包括其它场景的场景数据。
[0075] 例如,所述多个场景包括场景y1、y2、y3、y4、y5、y6,其中场景y1对应的场景数据为x1,场景y2对应的场景数据为x2,场景y3对应的场景数据为x3,场景y4对应的场景数据为x4,场景y5对应的场景数据为x5,场景y6对应的场景数据为x6。针对场景y1,电子设备可以将场景数据x1作为正样本,将场景数据x2、x3、x4、x5、x6作为负样本,以形成所述场景y1的训练数据集D1。针对场景y2,电子设备可以将场景数据x2作为正样本,将场景数据x1、x3、x4、x5、x6作为负样本,以形成所述场景y2的训练数据集D2。以此类推,电子设备可以分别确定场景y3的训练数据集D3、场景y4的训练数据集D4、场景y5的训练数据集D5、场景y6的训练数据集D6。
[0076] 随后,电子设备根据预设分类算法依次对每一所述场景的训练数据集进行分类计算,以得到每一所述场景的分类准确度。例如,电子设备可以根据SVM分类算法对场景y1的训练数据集D1进行分类计算,以得到场景y1的分类准确度。以此类推,电子设备可以依次得到场景y2、y3、y4、y5、y6的分类准确度。
[0077] 在一些实施例中,参考图5,图5为本申请实施例提供的场景识别模型建模方法的第四种流程示意图。
[0078] 其中,步骤120、根据多个所述识别准确度从所述多个场景中确定出第一类型场景和第二类型场景,包括:
[0079] 121,获取预设识别准确度阈值;
[0080] 122,将大于所述预设识别准确度阈值的识别准确度对应的场景确定为第一类型场景;
[0081] 123,将小于或等于所述预设识别准确度阈值的识别准确度对应的场景确定为第二类型场景。
[0082] 电子设备得到每一场景的识别准确度后,可以获取预设识别准确度阈值。其中,所述预设识别准确度阈值可以为预先存储在电子设备中的一个数值。例如,所述预设识别准确度阈值可以为80%。
[0083] 随后,电子设备将大于所述预设识别准确度阈值的识别准确度对应的场景确定为第一类型场景,将小于或等于所述预设识别准确度阈值的识别准确度对应的场景确定为第二类型场景。
[0084] 例如,场景y1的识别准确度为85%,场景y2的识别准确度为60%,场景y3的识别准确度为82%,场景y4的识别准确度为65%,场景y5的识别准确度为90%,场景y6的识别准确度为55%。那么,场景y1、y3、y5的识别准确度大于所述预设识别准确度阈值80,场景y2、y4、y6的识别准确度小于所述预设识别准确度阈值。随后,电子设备可以将所述场景y1、y3、y5确定为第一类型场景,将所述场景y2、y4、y6确定为第二类型场景。
[0085] 在一些实施例中,继续参考图5,其中步骤130、使用所述第一类型场景以及所述第一类型场景对应的场景数据进行模型训练,以得到场景识别子模型,包括:
[0086] 131,通过神经网络算法使用所述第一类型场景以及所述第一类型场景对应的场景数据进行模型训练,以得到第一神经网络模型;
[0087] 132,将所述第一神经网络模型确定为场景识别子模型。
[0088] 电子设备确定出第一类型场景和第二类型场景后,即可通过神经网络算法对所述第一类型场景以及所述第一类型场景对应的场景数据进行训练,以得到第一神经网络模型。
[0089] 例如,电子设备可以通过神经网络算法对所述场景y1、y3、y5以及所述场景数据x1、x3、x5进行训练,以得到第一神经网络模型。其中,训练得到第一神经网络模型的过程中,输入数据为所述场景数据x1、x3、x5,输出数据为所述场景y1、y3、y5。
[0090] 随后,电子设备将所述第一神经网络模型确定为场景识别子模型。由于所述场景识别子模型通过第一类型场景以及所述第一类型场景对应的场景数据训练得到,从而所述场景识别子模型可以快速准确地对所述第一类型场景进行识别。
[0091] 在一些实施例中,继续参考图5,其中步骤140、根据所述第二类型场景以及所述第二类型场景对应的场景数据对所述场景识别子模型进行训练,以得到场景识别模型,包括:
[0092] 141,将所述第一神经网络模型的输出层扩大,以得到扩大后的第一神经网络模型;
[0093] 142,根据神经网络算法、所述第二类型场景以及所述第二类型场景对应的场景数据对所述扩大后的第一神经网络模型进行训练,以得到第二神经网络模型;
[0094] 143,将所述第二神经网络模型确定为场景识别模型。
[0095] 电子设备训练得到第一神经网络模型后,将所述第一神经网络模型的输出层扩大,以得到扩大后的第一神经网络模型。其中,将所述第一神经网络模型的输出层扩大时,可以在所述输出层增加多个神经元。增加的神经元的数量与所述第二类型场景的场景数量相同。例如,所述第二类型场景包括10个场景,那么可以在所述输出层增加10个神经元。
[0096] 随后,电子设备根据神经网络算法、所述第二类型场景以及所述第二类型场景对应的场景数据对所述扩大后的第一神经网络模型进行训练,以得到第二神经网络模型。
[0097] 例如,电子设备可以根据神经网络算法、所述场景y2、y4、y6以及所述场景数据x2、x4、x6对所述扩大后的第一神经网络模型进行训练,以得到第二神经网络模型。其中,训练得到第二神经网络模型的过程中,输入数据为所述场景数据x2、x4、x6,输出数据为所述场景y2、y4、y6。
[0098] 随后,电子设备将所述第二神经网络模型确定为场景识别模型。由于所述场景识别模型通过第二类型场景以及所述第二类型场景对应的场景数据训练得到,从而所述场景识别模型可以快速准确地对所述第二类型场景进行识别。并且,由于所述场景识别模型是在场景识别子模型的基础上训练得到的,因此所述场景识别模型也可以快速准确地对所述第一类型场景进行识别。
[0099] 在本申请的描述中,需要理解的是,诸如“第一”、“第二”等术语仅用于区分类似的对象,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。
[0100] 具体实施时,本申请不受所描述的各个步骤的执行顺序的限制,在不产生冲突的情况下,某些步骤还可以采用其它顺序进行或者同时进行。
[0101] 由上可知,本申请实施例提供的场景识别模型建模方法,包括:根据多个场景的场景数据分别对每一所述场景进行识别,以得到每一所述场景的识别准确度;根据多个所述识别准确度从所述多个场景中确定出第一类型场景和第二类型场景,其中所述第二类型场景的识别准确度低于所述第一类型场景的识别准确度;使用所述第一类型场景以及所述第一类型场景对应的场景数据进行模型训练,以得到场景识别子模型;根据所述第二类型场景以及所述第二类型场景对应的场景数据对所述场景识别子模型进行训练,以得到场景识别模型。所述场景识别模型建模方法中,由于先确定出容易识别的第一类型场景以及较难识别的第二类型场景,并分别根据所述第一类型场景对应的场景数据以及所述第二类型场景对应的场景数据进行训练,从而使得训练得到的场景识别模型对容易识别的场景以及较难识别的场景均能够很好地进行识别,减少场景识别模型对较难识别的场景进行识别时所耗费的时间,从而提高电子设备识别场景的效率。
[0102] 本申请实施例还提供一种场景识别模型建模装置,所述场景识别模型建模装置可以集成在电子设备中。所述电子设备可以为智能手机、平板电脑、游戏设备、AR(Augmented Reality,增强现实)设备、汽车、数据存储装置、音频播放装置、视频播放装置、笔记本电脑、桌面计算设备、可穿戴设备诸如电子手表、电子眼镜、电子头盔、电子手链、电子项链、电子衣物等设备。
[0103] 参考图6,图6为本申请实施例提供的场景识别模型建模装置200的结构示意图。
[0104] 其中,所述场景识别模型建模装置200包括:识别模块201、确定模块202、第一训练模块203、第二训练模块204。
[0105] 识别模块201,用于根据多个场景的场景数据分别对每一所述场景进行识别,以得到每一所述场景的识别准确度。
[0106] 所述识别模块201可以获取多个场景的场景数据。例如,所述识别模块201可以获取用户的起床场景、跑步场景、乘坐地铁场景等多个场景的场景数据。其中,每一场景都可以预先设置一个对应的场景标签,也即场景名称。例如,电子设备中可以将场景标签通过y表示,对应的场景数据通过x表示。
[0107] 随后,所述识别模块201可以根据所述多个场景的场景数据分别对每一所述场景进行识别,得到识别结果。随后,识别模块201可以根据识别结果判断每一所述场景的识别准确度。其中,所述识别准确度可以通过数值进行表示。
[0108] 例如,识别模块201对起床场景的识别准确度可以为90%,对跑步场景的识别准确度可以为80%,对乘坐地铁场景的识别准确度可以为70%。
[0109] 确定模块202,用于根据多个所述识别准确度从所述多个场景中确定出第一类型场景和第二类型场景,其中所述第二类型场景的识别准确度低于所述第一类型场景的识别准确度。
[0110] 识别模块201得到多个场景中每一场景的识别准确度后,确定模块202可以根据多个所述识别准确度从所述多个场景中确定出第一类型场景和第二类型场景。其中,所述第一类型场景包括至少一个场景,所述第二类型场景也包括至少一个场景。所述第二类型场景的识别准确度低于所述第一类型场景的识别准确度。也即,所述第二类型场景的识别难度大于所述第一类型场景的识别难度。
[0111] 需要说明的是,所述第二类型场景中每一场景的识别准确度均低于所述第一类型场景中每一场景的识别准确度。
[0112] 例如,所述多个场景包括场景y1、y2、y3、y4、y5、y6。其中,场景y1的识别准确度为85%,场景y2的识别准确度为60%,场景y3的识别准确度为82%,场景y4的识别准确度为
65%,场景y5的识别准确度为90%,场景y6的识别准确度为55%。那么,电子设备可以将所述场景y1、y3、y5确定为第一类型场景,将所述场景y2、y4、y6确定为第二类型场景。
[0113] 第一训练模块203,用于使用所述第一类型场景以及所述第一类型场景对应的场景数据进行模型训练,以得到场景识别子模型。
[0114] 确定模块202确定出第一类型场景和第二类型场景后,第一训练模块203可以对所述第一类型场景以及所述第一类型场景对应的场景数据进行训练,以得到场景识别子模型。由于训练过程中将第一类型场景对应的场景数据进行训练,因此训练得到的所述场景识别子模型可以对所述第一类型场景进行识别。
[0115] 例如,场景y1、y3、y5为第一类型场景。其中,场景y1对应的场景数据为x1,场景y3对应的场景数据为x3,场景y5对应的场景数据为x5。那么,第一训练模块203可以对所述场景y1、y3、y5以及所述场景数据x1、x3、x5进行训练,以得到场景识别子模型。
[0116] 第二训练模块204,用于根据所述第二类型场景以及所述第二类型场景对应的场景数据对所述场景识别子模型进行训练,以得到场景识别模型。
[0117] 第一训练模块203训练得到场景识别子模型后,第二训练模块204可以根据所述第二类型场景以及所述第二类型场景对应的场景数据对所述场景识别子模型进行训练,以得到场景识别模型。由于训练过程中将第二类型场景对应的场景数据进行训练,因此训练得到的所述场景识别模型可以对所述第二类型场景进行识别。
[0118] 例如,场景y2、y4、y6为第二类型场景。其中,场景y2对应的场景数据为x2,场景y4对应的场景数据为x4,场景y6对应的场景数据为x6。那么,第二训练模块204可以根据所述场景y2、y4、y6以及所述场景数据x2、x4、x6对所述场景识别子模型进行训练,以得到场景识别模型。
[0119] 本申请实施例提供的场景识别模型建模装置,由于先确定出容易识别的第一类型场景以及较难识别的第二类型场景,并分别根据所述第一类型场景对应的场景数据以及所述第二类型场景对应的场景数据进行训练,从而使得训练得到的场景识别模型对容易识别的场景以及较难识别的场景均能够很好地进行识别,减少场景识别模型对较难识别的场景进行识别时所耗费的时间,从而提高电子设备识别场景的效率。
[0120] 在一些实施例中,所述识别模块201用于执行以下步骤:
[0121] 获取多个场景中每一场景的场景数据;
[0122] 根据预设分类算法以及多个所述场景数据依次对每一所述场景进行分类,以得到每一所述场景的分类准确度;
[0123] 将每一所述场景的分类准确度确定为所述场景的识别准确度。
[0124] 识别模块201可以分别获取多个场景中每一场景的场景数据。例如,当电子设备需要进行场景识别模型建模任务时,所述识别模块201可以分别在多个不同的场景中采集场景数据。
[0125] 其中,所述场景数据可以包括任意的数据。例如,所述场景数据可以包括环境温度、环境光强度、环境噪声等环境数据。所述场景数据还可以包括电子设备上的图像数据、内存数据、电子设备上显示的文本数据等电子设备的运行数据。所述场景数据还可以包括用户行为习惯数据,例如用户的作息时间、用户进行的娱乐活动等。
[0126] 其中,识别模块201可以通过电子设备的全景感知架构中的信息感知层来采集所述多个场景中每一场景的场景数据。例如,识别模块201可以通过电子设备中的温度传感器来检测环境温度,通过光线传感器来检测环境光强度,通过麦克风来检测环境噪声,通过电子设备的处理电路调取电子设备上的图像数据、内存数据等,通过显示控制电路来获取电子设备上显示的文本数据。此外,所述识别模块201还可以通过信息感知层来感知用户的行为并进行记录,以形成用户的行为习惯数据。
[0127] 随后,所述识别模块201根据预设分类算法以及多个所述场景数据依次对每一所述场景进行分类,以得到每一所述场景的分类准确度。其中,所述预设分类算法例如可以为支持向量机(Support Vector Machine,SVM)分类算法。
[0128] 其中,识别模块201可以将获取的多个所述场景数据输入到预设分类算法模型中,由所述预设分类算法模型进行分类计算,并输出分类结果。所述分类结果中即可包括对每一所述场景的分类准确度。
[0129] 识别模块201得到每一所述场景的分类准确度后,可以将每一所述场景的分类准确度确定为所述场景的识别准确度。
[0130] 在一些实施例中,根据预设分类算法以及多个所述场景数据依次对每一所述场景进行分类,以得到每一所述场景的分类准确度时,所述识别模块201用于执行以下步骤:
[0131] 确定每一所述场景的训练数据集,其中每一所述场景的训练数据集包括正样本和负样本,所述正样本包括所述场景的场景数据,所述负样本包括其它场景的场景数据;
[0132] 根据预设分类算法依次对每一所述场景的训练数据集进行分类计算,以得到每一所述场景的分类准确度。
[0133] 识别模块201获取到多个场景中每一场景的场景数据后,可以根据多个所述场景数据确定每一所述场景的训练数据集。其中,每一所述场景的训练数据集包括正样本和负样本,所述正样本包括所述场景的场景数据,所述负样本包括其它场景的场景数据。
[0134] 例如,所述多个场景包括场景y1、y2、y3、y4、y5、y6,其中场景y1对应的场景数据为x1,场景y2对应的场景数据为x2,场景y3对应的场景数据为x3,场景y4对应的场景数据为x4,场景y5对应的场景数据为x5,场景y6对应的场景数据为x6。针对场景y1,识别模块201可以将场景数据x1作为正样本,将场景数据x2、x3、x4、x5、x6作为负样本,以形成所述场景y1的训练数据集D1。针对场景y2,识别模块201可以将场景数据x2作为正样本,将场景数据x1、x3、x4、x5、x6作为负样本,以形成所述场景y2的训练数据集D2。以此类推,识别模块201可以分别确定场景y3的训练数据集D3、场景y4的训练数据集D4、场景y5的训练数据集D5、场景y6的训练数据集D6。
[0135] 随后,识别模块201根据预设分类算法依次对每一所述场景的训练数据集进行分类计算,以得到每一所述场景的分类准确度。例如,识别模块201可以根据SVM分类算法对场景y1的训练数据集D1进行分类计算,以得到场景y1的分类准确度。以此类推,识别模块201可以依次得到场景y2、y3、y4、y5、y6的分类准确度。
[0136] 在一些实施例中,确定模块202用于执行以下步骤:
[0137] 获取预设识别准确度阈值;
[0138] 将大于所述预设识别准确度阈值的识别准确度对应的场景确定为第一类型场景;
[0139] 将小于或等于所述预设识别准确度阈值的识别准确度对应的场景确定为第二类型场景。
[0140] 识别模块201得到每一场景的识别准确度后,确定模块202可以获取预设识别准确度阈值。其中,所述预设识别准确度阈值可以为预先存储在电子设备中的一个数值。例如,所述预设识别准确度阈值可以为80%。
[0141] 随后,确定模块202将大于所述预设识别准确度阈值的识别准确度对应的场景确定为第一类型场景,将小于或等于所述预设识别准确度阈值的识别准确度对应的场景确定为第二类型场景。
[0142] 例如,场景y1的识别准确度为85%,场景y2的识别准确度为60%,场景y3的识别准确度为82%,场景y4的识别准确度为65%,场景y5的识别准确度为90%,场景y6的识别准确度为55%。那么,场景y1、y3、y5的识别准确度大于所述预设识别准确度阈值80,场景y2、y4、y6的识别准确度小于所述预设识别准确度阈值。随后,确定模块202可以将所述场景y1、y3、y5确定为第一类型场景,将所述场景y2、y4、y6确定为第二类型场景。
[0143] 在一些实施例中,第一训练模块203用于执行以下步骤:
[0144] 通过神经网络算法使用所述第一类型场景以及所述第一类型场景对应的场景数据进行模型训练,以得到第一神经网络模型;
[0145] 将所述第一神经网络模型确定为场景识别子模型。
[0146] 确定模块202确定出第一类型场景和第二类型场景后,第一训练模块203即可通过神经网络算法对所述第一类型场景以及所述第一类型场景对应的场景数据进行训练,以得到第一神经网络模型。
[0147] 例如,第一训练模块203可以通过神经网络算法对所述场景y1、y3、y5以及所述场景数据x1、x3、x5进行训练,以得到第一神经网络模型。其中,训练得到第一神经网络模型的过程中,输入数据为所述场景数据x1、x3、x5,输出数据为所述场景y1、y3、y5。
[0148] 随后,第一训练模块203将所述第一神经网络模型确定为场景识别子模型。由于所述场景识别子模型通过第一类型场景以及所述第一类型场景对应的场景数据训练得到,从而所述场景识别子模型可以快速准确地对所述第一类型场景进行识别。
[0149] 在一些实施例中,第二训练模块204用于执行以下步骤:
[0150] 将所述第一神经网络模型的输出层扩大,以得到扩大后的第一神经网络模型;
[0151] 根据神经网络算法、所述第二类型场景以及所述第二类型场景对应的场景数据对所述扩大后的第一神经网络模型进行训练,以得到第二神经网络模型;
[0152] 将所述第二神经网络模型确定为场景识别模型。
[0153] 第一训练模块203训练得到第一神经网络模型后,第二训练模块204将所述第一神经网络模型的输出层扩大,以得到扩大后的第一神经网络模型。其中,将所述第一神经网络模型的输出层扩大时,可以在所述输出层增加多个神经元。增加的神经元的数量与所述第二类型场景的场景数量相同。例如,所述第二类型场景包括10个场景,那么可以在所述输出层增加10个神经元。
[0154] 随后,第二训练模块204根据神经网络算法、所述第二类型场景以及所述第二类型场景对应的场景数据对所述扩大后的第一神经网络模型进行训练,以得到第二神经网络模型。
[0155] 例如,第二训练模块204可以根据神经网络算法、所述场景y2、y4、y6以及所述场景数据x2、x4、x6对所述扩大后的第一神经网络模型进行训练,以得到第二神经网络模型。其中,训练得到第二神经网络模型的过程中,输入数据为所述场景数据x2、x4、x6,输出数据为所述场景y2、y4、y6。
[0156] 随后,第二训练模块204将所述第二神经网络模型确定为场景识别模型。由于所述场景识别模型通过第二类型场景以及所述第二类型场景对应的场景数据训练得到,从而所述场景识别模型可以快速准确地对所述第二类型场景进行识别。并且,由于所述场景识别模型是在场景识别子模型的基础上训练得到的,因此所述场景识别模型也可以快速准确地对所述第一类型场景进行识别。
[0157] 具体实施时,以上各个模块可以作为独立的实体来实现,也可以进行任意组合,作为同一或若干个实体来实现。
[0158] 由上可知,本申请实施例提供的场景识别模型建模装置200,包括:识别模块201,用于根据多个场景的场景数据分别对每一所述场景进行识别,以得到每一所述场景的识别准确度;确定模块202,用于根据多个所述识别准确度从所述多个场景中确定出第一类型场景和第二类型场景,其中所述第二类型场景的识别准确度低于所述第一类型场景的识别准确度;第一训练模块203,用于使用所述第一类型场景以及所述第一类型场景对应的场景数据进行模型训练,以得到场景识别子模型;第二训练模块204,用于根据所述第二类型场景以及所述第二类型场景对应的场景数据对所述场景识别子模型进行训练,以得到场景识别模型。所述场景识别模型建模装置中,由于先确定出容易识别的第一类型场景以及较难识别的第二类型场景,并分别根据所述第一类型场景对应的场景数据以及所述第二类型场景对应的场景数据进行训练,从而使得训练得到的场景识别模型对容易识别的场景以及较难识别的场景均能够很好地进行识别,减少场景识别模型对较难识别的场景进行识别时所耗费的时间,从而提高电子设备识别场景的效率。
[0159] 本申请实施例还提供一种电子设备。所述电子设备可以为智能手机、平板电脑、游戏设备、AR(Augmented Reality,增强现实)设备、汽车、数据存储装置、音频播放装置、视频播放装置、笔记本电脑、桌面计算设备、可穿戴设备诸如电子手表、电子眼镜、电子头盔、电子手链、电子项链、电子衣物等设备。
[0160] 参考图7,图7为本申请实施例提供的电子设备的第一种结构示意图。
[0161] 其中,电子设备300包括处理器301和存储器302。其中,处理器301与存储器302电性连接。
[0162] 处理器301是电子设备300的控制中心,利用各种接口和线路连接整个电子设备的各个部分,通过运行或调用存储在存储器302内的计算机程序,以及调用存储在存储器302内的数据,执行电子设备的各种功能和处理数据,从而对电子设备进行整体监控。
[0163] 在本实施例中,电子设备300中的处理器301会按照如下的步骤,将一个或一个以上的计算机程序的进程对应的指令加载到存储器302中,并由处理器301来运行存储在存储器302中的计算机程序,从而实现各种功能:
[0164] 根据多个场景的场景数据分别对每一所述场景进行识别,以得到每一所述场景的识别准确度;
[0165] 根据多个所述识别准确度从所述多个场景中确定出第一类型场景和第二类型场景,其中所述第二类型场景的识别准确度低于所述第一类型场景的识别准确度;
[0166] 使用所述第一类型场景以及所述第一类型场景对应的场景数据进行模型训练,以得到场景识别子模型;
[0167] 根据所述第二类型场景以及所述第二类型场景对应的场景数据对所述场景识别子模型进行训练,以得到场景识别模型。
[0168] 在一些实施例中,根据多个场景的场景数据分别对每一所述场景进行识别,以得到每一所述场景的识别准确度时,处理器301执行以下步骤:
[0169] 获取多个场景中每一场景的场景数据;
[0170] 根据预设分类算法以及多个所述场景数据依次对每一所述场景进行分类,以得到每一所述场景的分类准确度;
[0171] 将每一所述场景的分类准确度确定为所述场景的识别准确度。
[0172] 在一些实施例中,根据预设分类算法以及多个所述场景数据依次对每一所述场景进行分类,以得到每一所述场景的分类准确度时,处理器301执行以下步骤:
[0173] 确定每一所述场景的训练数据集,其中每一所述场景的训练数据集包括正样本和负样本,所述正样本包括所述场景的场景数据,所述负样本包括其它场景的场景数据;
[0174] 根据预设分类算法依次对每一所述场景的训练数据集进行分类计算,以得到每一所述场景的分类准确度。
[0175] 在一些实施例中,根据多个所述识别准确度从所述多个场景中确定出第一类型场景和第二类型场景时,处理器301执行以下步骤:
[0176] 获取预设识别准确度阈值;
[0177] 将大于所述预设识别准确度阈值的识别准确度对应的场景确定为第一类型场景;
[0178] 将小于或等于所述预设识别准确度阈值的识别准确度对应的场景确定为第二类型场景。
[0179] 在一些实施例中,使用所述第一类型场景以及所述第一类型场景对应的场景数据进行模型训练,以得到场景识别子模型时,处理器301执行以下步骤:
[0180] 通过神经网络算法使用所述第一类型场景以及所述第一类型场景对应的场景数据进行模型训练,以得到第一神经网络模型;
[0181] 将所述第一神经网络模型确定为场景识别子模型。
[0182] 在一些实施例中,根据所述第二类型场景以及所述第二类型场景对应的场景数据对所述场景识别子模型进行训练,以得到场景识别模型时,处理器301执行以下步骤:
[0183] 将所述第一神经网络模型的输出层扩大,以得到扩大后的第一神经网络模型;
[0184] 根据神经网络算法、所述第二类型场景以及所述第二类型场景对应的场景数据对所述扩大后的第一神经网络模型进行训练,以得到第二神经网络模型;
[0185] 将所述第二神经网络模型确定为场景识别模型。
[0186] 存储器302可用于存储计算机程序和数据。存储器302存储的计算机程序中包含有可在处理器中执行的指令。计算机程序可以组成各种功能模块。处理器301通过调用存储在存储器302的计算机程序,从而执行各种功能应用以及数据处理。
[0187] 在一些实施例中,参考图8,图8为本申请实施例提供的电子设备的第二种结构示意图。
[0188] 其中,电子设备300还包括:显示屏303、控制电路304、输入单元305、传感器306以及电源307。其中,处理器301分别与显示屏303、控制电路304、输入单元305、传感器306以及电源307电性连接。
[0189] 显示屏303可用于显示由用户输入的信息或提供给用户的信息以及电子设备的各种图形用户接口,这些图形用户接口可以由图像、文本、图标、视频和其任意组合来构成。
[0190] 控制电路304与显示屏303电性连接,用于控制显示屏303显示信息。
[0191] 输入单元305可用于接收输入的数字、字符信息或用户特征信息(例如指纹),以及产生与用户设置以及功能控制有关的键盘、鼠标、操作杆、光学或者轨迹球信号输入。其中,输入单元305可以包括指纹识别模组。
[0192] 传感器306用于采集电子设备自身的信息或者用户的信息或者外部环境信息。例如,传感器306可以包括距离传感器、磁场传感器、光线传感器、加速度传感器、指纹传感器、霍尔传感器、位置传感器、陀螺仪、惯性传感器、姿态感应器、气压计、心率传感器等多个传感器。
[0193] 电源307用于给电子设备300的各个部件供电。在一些实施例中,电源307可以通过电源管理系统与处理器301逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。
[0194] 尽管图8中未示出,电子设备300还可以包括摄像头、蓝牙模块等,在此不再赘述。
[0195] 由上可知,本申请实施例提供了一种电子设备,所述电子设备执行以下步骤:根据多个场景的场景数据分别对每一所述场景进行识别,以得到每一所述场景的识别准确度;根据多个所述识别准确度从所述多个场景中确定出第一类型场景和第二类型场景,其中所述第二类型场景的识别准确度低于所述第一类型场景的识别准确度;使用所述第一类型场景以及所述第一类型场景对应的场景数据进行模型训练,以得到场景识别子模型;根据所述第二类型场景以及所述第二类型场景对应的场景数据对所述场景识别子模型进行训练,以得到场景识别模型。所述电子设备由于先确定出容易识别的第一类型场景以及较难识别的第二类型场景,并分别根据所述第一类型场景对应的场景数据以及所述第二类型场景对应的场景数据进行训练,从而使得训练得到的场景识别模型对容易识别的场景以及较难识别的场景均能够很好地进行识别,减少场景识别模型对较难识别的场景进行识别时所耗费的时间,从而提高电子设备识别场景的效率。
[0196] 本申请实施例还提供一种存储介质,所述存储介质中存储有计算机程序,当所述计算机程序在计算机上运行时,所述计算机执行上述任一实施例所述的场景识别模型建模方法。
[0197] 需要说明的是,本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过计算机程序来指令相关的硬件来完成,所述计算机程序可以存储于计算机可读存储介质中,所述存储介质可以包括但不限于:只读存储器(ROM,Read Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁盘或光盘等。
[0198] 以上对本申请实施例所提供的场景识别模型建模方法、装置、存储介质及电子设备进行了详细介绍。本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本申请的限制。