用户类别确定方法及装置、推荐内容确定方法、电子设备转让专利

申请号 : CN202011377521.0

文献号 : CN112364937B

文献日 :

基本信息:

PDF:

法律信息:

相似专利:

发明人 : 钟子宏

申请人 : 腾讯科技(深圳)有限公司

摘要 :

本公开提供一种用户类别确定方法及装置、推荐内容确定方法、电子设备;涉及人工智能领域。用户类别确定方法包括:基于历史推荐内容的特征以及多个候选中心数,对所述历史推荐内容进行聚类,得到各所述候选中心数对应的聚类模型;根据各所述聚类模型的聚类效果评估数据,从所述多个候选中心数中确定出目标中心数;根据样本用户的联合特征以及所述目标中心数训练得到目标聚类模型;利用所述目标聚类模型基于预测用户的联合特征,对所述预测用户进行聚类,并将属于同一聚类簇的所述预测用户确定为同一类别;其中,用户的联合特征是根据所述用户的用户特征以及与所述用户关联的历史推荐内容的特征而确定。本公开能够提高用户分类的准确性。

权利要求 :

1.一种用户类别确定方法,其特征在于,包括:基于历史推荐内容的特征以及多个候选中心数,对所述历史推荐内容进行聚类,得到各所述候选中心数对应的聚类模型;

根据各所述聚类模型的聚类效果评估数据,从所述多个候选中心数中确定出目标中心数;

根据用户的用户特征以及与所述用户关联的历史推荐内容的特征得到所述用户的整体特征;将所述用户的整体特征根据维度划分为稀疏特征和稠密特征;对所述用户的稀疏特征进行降维得到对应的嵌入向量特征;拼接所述嵌入向量特征和所述稠密特征,得到所述用户的联合特征;其中,所述用户为样本用户或预测用户;

根据样本用户的联合特征以及所述目标中心数训练得到目标聚类模型;

利用所述目标聚类模型基于预测用户的联合特征,对所述预测用户进行聚类,并将属于同一聚类簇的所述预测用户确定为同一类别。

2.根据权利要求1所述的用户类别确定方法,其特征在于,基于历史推荐内容的特征以及多个候选中心数,对所述历史推荐内容进行聚类,包括:遍历候选中心数2至N,对于候选中心数i执行下述过程:基于历史推荐内容的特征以及该所述候选中心数i,对所述预测用户进行聚类,得到候选中心数i对应的聚类模型;

其中,N为大于2的整数,i为整数且i∈[2,N]。

3.根据权利要求2所述的用户类别确定方法,其特征在于,从所述多个候选中心数中确定出目标中心数,包括:

分别计算各候选中心数i对应的聚类模型中聚类簇间的类间方差Si;

选择对应的类间方差最大的候选中心数为所述目标中心数。

4.根据权利要求2所述的用户类别确定方法,其特征在于,从所述多个候选中心数中确定出目标中心数,包括:

分别计算各候选中心数i对应的聚类模型中聚类簇间的类间方差Si;

分别计算各候选中心数i对应的类间方差增量Si‑Si‑1;

在对应的类间方差增量小于预设值的候选中心数中,选择数值最小的候选中心数为所述目标中心数。

5.根据权利要求1所述的用户类别确定方法,其特征在于,根据样本用户的联合特征以及所述目标中心数训练得到目标聚类模型,包括:将所述样本用户分为训练样本用户以及测试样本用户;

基于训练样本用户的联合特征以及所述目标中心数,对所述训练样本用户进行聚类,得到候选聚类模型;

利用所述候选聚类模型基于所述测试样本用户的联合特征,对所述测试样本用户进行聚类;

如果对所述测试样本用户的聚类结果满足训练结束条件,则将所述候选聚类模型确定为所述目标聚类模型。

6.根据权利要求5所述的用户类别确定方法,其特征在于,利用所述候选聚类模型基于所述测试样本用户的联合特征,对所述测试样本用户进行聚类,包括:获取所述候选聚类模型中各聚类簇的聚类中心;

计算所述测试样本用户的联合特征与各所述聚类中心的距离值;

将最小距离值对应的聚类中心所在的聚类簇作为所述测试样本用户所属的聚类簇。

7.根据权利要求1所述的用户类别确定方法,其特征在于,利用所述目标聚类模型基于预测用户的联合特征,对所述预测用户进行聚类,包括:获取所述目标聚类模型中各聚类簇的聚类中心;

计算所述预测用户的联合特征与各所述聚类中心的距离值;

将最小距离值对应的聚类中心所在的聚类簇作为所述预测用户所属的聚类簇。

8.根据权利要求7所述的用户类别确定方法,其特征在于,所述方法还包括:将所述预测用户划分至对应的聚类簇之后,重新计算该所述聚类簇的聚类中心。

9.根据权利要求1所述的用户类别确定方法,其特征在于,对所述用户的稀疏特征进行降维得到对应的嵌入向量特征,包括:为所述稀疏特征确定嵌入矩阵;

根据所述稀疏特征和对应的所述嵌入矩阵,确定出与所述稀疏特征对应的嵌入向量特征。

10.根据权利要求9所述的用户类别确定方法,其特征在于,为所述稀疏特征确定嵌入矩阵,包括:

确定所述稀疏特征对应的初始矩阵;

通过深度神经网络模型对初始矩阵进行训练,以调整所述初始矩阵的权重值而得到与所述稀疏特征对应的嵌入矩阵。

11.一种用户类别确定方法,其特征在于,包括:根据用户的用户特征以及与所述用户关联的历史推荐内容的特征得到所述用户的整体特征;将所述用户的整体特征根据维度划分为稀疏特征和稠密特征;对所述用户的稀疏特征进行降维得到对应的嵌入向量特征;拼接所述嵌入向量特征和所述稠密特征,得到所述用户的联合特征;其中,所述用户为样本用户或预测用户;

利用目标聚类模型基于预测用户的联合特征,对所述预测用户进行聚类,并将属于同一聚类簇的所述预测用户确定为同一类别;

其中,所述目标聚类模型是根据样本用户的联合特征以及目标中心数训练得到;所述目标中心数是基于历史推荐内容的特征以及多个候选中心数对所述历史推荐内容聚类得到各所述候选中心数对应的聚类模型后,根据各所述聚类模型的聚类效果评估数据从所述多个候选中心数中确定。

12.一种推荐内容确定方法,其特征在于,包括:基于历史推荐内容的特征以及多个候选中心数,对所述历史推荐内容进行聚类,得到各所述候选中心数对应的聚类模型;

根据各所述聚类模型的聚类效果评估数据,从所述多个候选中心数中确定出目标中心数;

根据用户的用户特征以及与所述用户关联的历史推荐内容的特征得到所述用户的整体特征;将所述用户的整体特征根据维度划分为稀疏特征和稠密特征;对所述用户的稀疏特征进行降维得到对应的嵌入向量特征;拼接所述嵌入向量特征和所述稠密特征,得到所述用户的联合特征;其中,所述用户为样本用户或预测用户;

根据样本用户的联合特征以及所述目标中心数训练得到目标聚类模型;

利用所述目标聚类模型基于预测用户的联合特征,对所述预测用户进行聚类,并将属于同一聚类簇的所述预测用户确定为同一类别;

为属于同一类别的所述预测用户配置同样的推荐内容。

13.一种用户类别确定装置,其特征在于,包括:第一聚类模块,用于基于历史推荐内容的特征以及多个候选中心数,对所述历史推荐内容进行聚类,得到各所述候选中心数对应的聚类模型;

中心数确定模块,用于根据各所述聚类模型的聚类效果评估数据,从所述多个候选中心数中确定出目标中心数;

联合特征确定模块,用于根据用户的用户特征以及与所述用户关联的历史推荐内容的特征得到所述用户的整体特征;将所述用户的整体特征根据维度划分为稀疏特征和稠密特征;对所述用户的稀疏特征进行降维得到对应的嵌入向量特征;拼接所述嵌入向量特征和稠密特征,得到所述用户的联合特征;其中,所述用户为样本用户或预测用户;

聚类模型训练模块,用于根据样本用户的联合特征以及所述目标中心数训练得到目标聚类模型;

第二聚类模块,用于利用所述目标聚类模型基于预测用户的联合特征,对所述预测用户进行聚类,并将属于同一聚类簇的所述预测用户确定为同一类别。

14.一种电子设备,其特征在于,包括:处理器;以及

存储器,用于存储所述处理器的可执行指令;

其中,所述处理器配置为经由执行所述可执行指令来执行权利要求1‑12任一项所述的方法。

15.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时执行权利要求1‑12任意一项所述的方法。

说明书 :

用户类别确定方法及装置、推荐内容确定方法、电子设备

技术领域

[0001] 本公开涉及人工智能技术领域,具体而言,涉及基于人工智能的一种用户类别确定方法、用户类别确定方法装置、推荐内容确定方法、电子设备以及计算机可读存储介质。

背景技术

[0002] 在很多场景中,需要通过人工智能技术对用户进行分类,例如可以通过有监督机器学习方法或者无监督机器学习方法进行用户类别确定。举例而言,聚类算法属于一种常
用的无监督机器学习方法,能够把相似的用户划分到相同的聚类簇,不相似的用户划分到
不同的聚类簇。
[0003] 然而,对于如K均值聚类法等需要预先指定中心数的聚类算法,其中的中心数通常是人为设定的固定值,不一定是最优的聚类簇数量,进而导致最终的聚类结果不够准确。此
外,在部分技术中,仅基于用户的用户特征进行聚类,同样可能导致最终的聚类结果不够准
确。
[0004] 需要说明的是,在上述背景技术部分公开的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。

发明内容

[0005] 本公开实施例的目的在于提供一种用户类别确定方法、用户类别确定方法装置、推荐内容确定方法、推荐内容确定装置、电子设备以及计算机可读存储介质,进而能够更加
准确的确定用户类别。
[0006] 根据本公开的一个方面,提供一种用户类别确定方法,包括:
[0007] 基于历史推荐内容的特征以及多个候选中心数,对所述历史推荐内容进行聚类,得到各所述候选中心数对应的聚类模型;根据各所述聚类模型的聚类效果评估数据,从所
述多个候选中心数中确定出目标中心数;根据样本用户的联合特征以及所述目标中心数训
练得到目标聚类模型;利用所述目标聚类模型基于预测用户的联合特征,对所述预测用户
进行聚类,并将属于同一聚类簇的所述预测用户确定为同一类别;其中,用户的联合特征是
根据所述用户的用户特征以及与所述用户关联的历史推荐内容的特征而确定。
[0008] 在本公开的一种示例性实施例中,基于历史推荐内容的特征以及多个候选中心数,对所述历史推荐内容进行聚类,包括:
[0009] 遍历候选中心数2至N,对于候选中心数i执行下述过程:
[0010] 基于历史推荐内容的特征以及该所述候选中心数i,对所述预测用户进行聚类,得到候选中心数i对应的聚类模型;其中,N为大于2的整数,i为整数且i∈[2,N]。
[0011] 在本公开的一种示例性实施例中,从所述多个候选中心数中确定出目标中心数,包括:
[0012] 分别计算各候选中心数i对应的聚类模型中聚类簇间的类间方差Si;选择对应的类间方差最大的候选中心数为所述目标中心数。
[0013] 在本公开的一种示例性实施例中,从所述多个候选中心数中确定出目标中心数,包括:
[0014] 分别计算各候选中心数i对应的聚类模型中聚类簇间的类间方差Si;分别计算各候选中心数i对应的类间方差增量Si‑Si‑1;在对应的类间方差增量小于预设值的候选中心
数中,选择数值最小的候选中心数为所述目标中心数。
[0015] 在本公开的一种示例性实施例中,根据样本用户的联合特征以及所述目标中心数训练得到目标聚类模型,包括:
[0016] 将所述样本用户分为训练样本用户以及测试样本用户;基于训练样本用户的联合特征以及所述目标中心数,对所述训练样本用户进行聚类,得到候选聚类模型;利用所述候
选聚类模型基于所述测试样本用户的联合特征,对所述测试样本用户进行聚类;如果对所
述测试样本用户的聚类结果满足训练结束条件,则将所述候选聚类模型确定为所述目标聚
类模型。
[0017] 在本公开的一种示例性实施例中,利用所述候选聚类模型基于所述测试样本用户的联合特征,对所述测试样本用户进行聚类,包括:
[0018] 获取所述候选聚类模型中各聚类簇的聚类中心;计算所述测试样本用户的联合特征与各所述聚类中心的距离值;将最小距离值对应的聚类中心所在的聚类簇作为所述测试
样本用户所属的聚类簇。
[0019] 在本公开的一种示例性实施例中,利用所述目标聚类模型基于预测用户的联合特征,对所述预测用户进行聚类,包括:
[0020] 获取所述目标聚类模型中各聚类簇的聚类中心;计算所述预测用户的联合特征与各所述聚类中心的距离值;将最小距离值对应的聚类中心所在的聚类簇作为所述预测用户
所属的聚类簇。
[0021] 在本公开的一种示例性实施例中,所述方法还包括:
[0022] 将所述预测用户划分至对应的聚类簇之后,重新计算该所述聚类簇的聚类中心。
[0023] 在本公开的一种示例性实施例中,确定用户的联合特征包括:
[0024] 根据所述用户的用户特征以及与所述用户关联的历史推荐内容的特征得到所述用户的整体特征;将所述用户的整体特征根据维度划分为稀疏特征和稠密特征;对所述用
户的稀疏特征进行降维得到对应的嵌入向量特征;拼接所述嵌入向量特征和稠密特征,得
到所述用户的联合特征。
[0025] 在本公开的一种示例性实施例中,对所述用户的稀疏特征进行降维得到对应的嵌入向量特征,包括:
[0026] 为所述稀疏特征确定嵌入矩阵;根据所述稀疏特征和对应的所述嵌入矩阵,确定出与所述稀疏特征对应的嵌入向量特征。
[0027] 在本公开的一种示例性实施例中,为所述稀疏特征确定嵌入矩阵,包括:
[0028] 确定所述稀疏特征对应的初始矩阵;通过深度神经网络模型对初始矩阵进行训练,以调整所述初始矩阵的权重值而得到与所述稀疏特征对应的嵌入矩阵。
[0029] 根据本公开的一个方面,提供一种用户类别确定方法,包括:利用目标聚类模型基于预测用户的联合特征,对所述预测用户进行聚类,并将属于同一聚类簇的所述预测用户
确定为同一类别;其中,所述目标聚类模型是根据样本用户的联合特征以及目标中心数训
练得到;所述目标中心数是基于历史推荐内容的特征以及多个候选中心数对所述历史推荐
内容聚类得到各所述候选中心数对应的聚类模型后,根据各所述聚类模型的聚类效果评估
数据从所述多个候选中心数中确定;其中,用户的联合特征是根据所述用户的用户特征以
及与所述用户关联的历史推荐内容的特征而确定。
[0030] 根据本公开的一个方面,提供一种推荐内容确定方法,包括:
[0031] 基于历史推荐内容的特征以及多个候选中心数,对所述历史推荐内容进行聚类,得到各所述候选中心数对应的聚类模型;根据各所述聚类模型的聚类效果评估数据,从所
述多个候选中心数中确定出目标中心数;根据样本用户的联合特征以及所述目标中心数训
练得到目标聚类模型;利用所述目标聚类模型基于预测用户的联合特征,对所述预测用户
进行聚类,并将属于同一聚类簇的所述预测用户确定为同一类别;为属于同一类别的所述
预测用户配置同样的推荐内容;其中,用户的联合特征是根据所述用户的用户特征以及与
所述用户关联的历史推荐内容的特征而确定。
[0032] 根据本公开的一个方面,提供一种用户类别确定装置,包括:
[0033] 第一聚类模块,用于基于历史推荐内容的特征以及多个候选中心数,对所述历史推荐内容进行聚类,得到各所述候选中心数对应的聚类模型;中心数确定模块,用于根据各
所述聚类模型的聚类效果评估数据,从所述多个候选中心数中确定出目标中心数;聚类模
型训练模块,用于根据样本用户的联合特征以及所述目标中心数训练得到目标聚类模型;
第二聚类模块,用于利用所述目标聚类模型基于预测用户的联合特征,对所述预测用户进
行聚类,并将属于同一聚类簇的所述预测用户确定为同一类别;其中,用户的联合特征是根
据所述用户的用户特征以及与所述用户关联的历史推荐内容的特征而确定。
[0034] 在本公开的一种示例性实施例中,所述第一聚类模块通过下述方法对所述历史推荐内容进行聚类:
[0035] 遍历候选中心数2至N,对于候选中心数i执行下述过程:
[0036] 基于历史推荐内容的特征以及该所述候选中心数i,对所述预测用户进行聚类,得到候选中心数i对应的聚类模型;其中,N为大于2的整数,i为整数且i∈[2,N]。
[0037] 在本公开的一种示例性实施例中,所述中心数确定模块通过下述方法从所述多个候选中心数中确定出目标中心数:
[0038] 分别计算各候选中心数i对应的聚类模型中聚类簇间的类间方差Si;选择对应的类间方差最大的候选中心数为所述目标中心数。
[0039] 在本公开的一种示例性实施例中,所述中心数确定模块通过下述方法从所述多个候选中心数中确定出目标中心数:
[0040] 分别计算各候选中心数i对应的聚类模型中聚类簇间的类间方差Si;分别计算各候选中心数i对应的类间方差增量Si‑Si‑1;在对应的类间方差增量小于预设值的候选中心
数中,选择数值最小的候选中心数为所述目标中心数。
[0041] 在本公开的一种示例性实施例中,所述聚类模型训练模块通过下述方法训练得到目标聚类模型:
[0042] 将所述样本用户分为训练样本用户以及测试样本用户;基于训练样本用户的联合特征以及所述目标中心数,对所述训练样本用户进行聚类,得到候选聚类模型;利用所述候
选聚类模型基于所述测试样本用户的联合特征,对所述测试样本用户进行聚类;如果对所
述测试样本用户的聚类结果满足训练结束条件,则将所述候选聚类模型确定为所述目标聚
类模型。
[0043] 在本公开的一种示例性实施例中,所述聚类模型训练模块通过下述方法对所述测试样本用户进行聚类:
[0044] 获取所述候选聚类模型中各聚类簇的聚类中心;计算所述测试样本用户的联合特征与各所述聚类中心的距离值;将最小距离值对应的聚类中心所在的聚类簇作为所述测试
样本用户所属的聚类簇。
[0045] 在本公开的一种示例性实施例中,所述第二聚类模块通过下述方法对所述预测用户进行聚类,包括:
[0046] 获取所述目标聚类模型中各聚类簇的聚类中心;计算所述预测用户的联合特征与各所述聚类中心的距离值;将最小距离值对应的聚类中心所在的聚类簇作为所述预测用户
所属的聚类簇。
[0047] 在本公开的一种示例性实施例中,所述装置还包括:
[0048] 聚类中心更新模块,用于将所述预测用户划分至对应的聚类簇之后,重新计算该所述聚类簇的聚类中心。
[0049] 在本公开的一种示例性实施例中,所述装置还包括,联合特征确定模块;所述联合特征确定模块用于:
[0050] 根据所述用户的用户特征以及与所述用户关联的历史推荐内容的特征得到所述用户的整体特征;将所述用户的整体特征根据维度划分为稀疏特征和稠密特征;对所述用
户的稀疏特征进行降维得到对应的嵌入向量特征;拼接所述嵌入向量特征和稠密特征,得
到所述用户的联合特征。
[0051] 在本公开的一种示例性实施例中,所述联合特征确定模块通过下述方法对所述用户的稀疏特征进行降维得到对应的嵌入向量特征:
[0052] 为所述稀疏特征确定嵌入矩阵;根据所述稀疏特征和对应的所述嵌入矩阵,确定出与所述稀疏特征对应的嵌入向量特征。
[0053] 在本公开的一种示例性实施例中,所述联合特征确定模块通过下述方法为所述稀疏特征确定嵌入矩阵,包括:
[0054] 确定所述稀疏特征对应的初始矩阵;通过深度神经网络模型对初始矩阵进行训练,以调整所述初始矩阵的权重值而得到与所述稀疏特征对应的嵌入矩阵。
[0055] 根据本公开的一个方面,提供一种电子设备,包括:处理器;以及存储器,用于存储所述处理器的可执行指令;其中,所述处理器配置为经由执行所述可执行指令来执行上述
任意一项所述的方法。
[0056] 根据本公开的一个方面,提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述任意一项所述的方法。
[0057] 根据本公开的一个方面,提供一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机
设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得
该计算机设备执行上述的各种可选实现方式中提供的方法。
[0058] 本公开示例性实施例可以具有以下部分或全部有益效果:
[0059] 在本公开示例性实施例所提供的用户类别确定方法中,一方面,能够自动从多个候选中心数中确定出目标中心数,相比于人工设定中心数而言更加客观,且更加接近于最
优中心数;同时,也解决了目标中心数无法根据样本数据的特点自适应的进行调整的问题,
进而能够根据实际业务场景需求,自动寻找到目标中心数。另一方面,相比于仅基于用户的
用户特征进行聚类,本公开示例性实施例中,则是根据用户的用户特征以及与用户关联的
历史推荐内容的特征,共同确定出用户的联合特征,进而根据样本用户的联合特征进行聚
类,这样通过更加全面的特征可以进一步提升聚类结果的准确性。
[0060] 应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。

附图说明

[0061] 此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开
的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据
这些附图获得其他的附图。
[0062] 图1示出了可以应用本公开实施例的一种用户类别确定方法及装置的示例性系统架构的示意图。
[0063] 图2示出了适于用来实现本公开实施例的电子设备的计算机系统的结构示意图。
[0064] 图3示意性示出了根据本公开的一个实施例的用户类别确定方法的流程图。
[0065] 图4示意性示出了根据本公开的一个实施例的用户类别确定方法的算法架构图。
[0066] 图5示意性示出了根据本公开的一个实施例中对历史推荐内容聚类步骤的流程图。
[0067] 图6示意性示出了根据本公开的一个实施例中确定用户联合特征步骤的流程图。
[0068] 图7示意性示出了根据本公开的一个实施例中确定用户嵌入向量特征步骤的流程图。
[0069] 图8示意性示出了根据本公开的一个实施例中训练得到目标聚类模型步骤的流程图。
[0070] 图9示意性示出了根据本公开的一个实施例中对训练样本用户聚类步骤的流程图。
[0071] 图10示意性示出了根据本公开的一个实施例中对测试样本用户聚类步骤的流程图。
[0072] 图11示意性示出了根据本公开的一个实施例中对预测用户聚类步骤的流程图。
[0073] 图12示意性示出了根据本公开的一个实施例的推荐内容确定方法的流程图。
[0074] 图13示意性示出了根据本公开的一个实施例的推荐内容确定方法的应用场景示意图。
[0075] 图14示意性示出了根据本公开的一个实施例的用户类别确定方法的流程图。
[0076] 图15示意性示出了根据本公开的一个实施例的用户类别确定装置的框图。

具体实施方式

[0077] 现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加
全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结
构或特性可以以任何合适的方式结合在一个或更多实施方式中。在下面的描述中,提供许
多具体细节从而给出对本公开的实施方式的充分理解。然而,本领域技术人员将意识到,可
以实践本公开的技术方案而省略所述特定细节中的一个或更多,或者可以采用其它的方
法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知技术方案以避免喧宾夺主而
使得本公开的各方面变得模糊。
[0078] 此外,附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功
能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功
能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处
理器装置和/或微控制器装置中实现这些功能实体。
[0079] 图1示出了可以应用本公开实施例的一种用户类别确定方法及装置、推荐内容确定方法及装置的示例性应用环境的系统架构的示意图。
[0080] 如图1所示,系统架构100可以包括终端设备101、102、103、104中的一个或多个,网络105和服务器106。网络105用以在终端设备101、102、103、104和服务器106之间提供通信
链路的介质。网络105可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
终端设备101、102、103、104可以是智能手机、平板电脑、笔记本电脑、台式计算机、智能音
箱、智能手表、车载设备(例如车载显示屏、智能后视镜、车载导航仪等)等,但并不局限于
此。应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可
以具有任意数目的终端设备、网络和服务器。比如服务器106可以是独立的物理服务器,也
可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据
库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN、以及
大数据和人工智能平台等基础云计算服务的云服务器。
[0081] 本公开实施例所提供的用户类别确定方法及推荐内容确定方法可以在服务器106执行,相应地,用户类别确定装置及推荐内容确定装置一般设置于服务器106中。本公开实
施例所提供的用户类别确定方法及推荐内容确定方法也可以由终端设备101、102、103、104
执行,相应的,用户类别确定装置及推荐内容确定装置也可以设置于终端设备101、102、
103、104中。
[0082] 举例而言,在一种示例性实施例中,可以是用户在终端设备101、102、103或者104上登录某业务下的账号,并进行与该业务相关的操作。例如,登录电子商务平台的账号,对
服务器106推送的推荐内容进行浏览、点击、收藏、购买等操作。上述服务器106可以对该用
户的操作行为信息进行记录;例如,记录用户的点击行为信息、收藏行为信息、购买行为信
息、活跃时长信息等;此外,还可以记录该用户相关的其他行为数据。在一些示例性实施例
中,也可以是,终端设备101、102、103或者104对这些信息进行记录,并上传至上述服务器
106。服务器106可以对推荐内容相关的信息进行处理,得到推荐内容的特征;同时,对用户
的行为信息以及属性信息等进行处理,得到用户的用户特征。进而,可以基于推荐内容的特
征以及用户的用户特征,利用本发明中的用户类别确定方法,进行用户类别确定。但本领域
技术人员容易理解的是,上述应用场景仅是用于举例,本示例性实施例中并不以此为限。
[0083] 图2示出了适于用来实现本公开实施例的电子设备的计算机系统的结构示意图。
[0084] 需要说明的是,图2示出的电子设备的计算机系统200仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
[0085] 如图2所示,计算机系统200包括中央处理单元(CPU)201,其可以根据存储在只读存储器(ROM)202中的程序或者从存储部分208加载到随机访问存储器(RAM)203中的程序而
执行各种适当的动作和处理。在RAM 203中,还存储有系统操作所需的各种程序和数据。CPU 
201、ROM 202以及RAM 203通过总线204彼此相连。输入/输出(I/O)接口205也连接至总线
204。
[0086] 以下部件连接至I/O接口205:包括键盘、鼠标等的输入部分206;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分207;包括硬盘等的存储部分208;
以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分209。通信部分209经由诸如因
特网的网络执行通信处理。驱动器210也根据需要连接至I/O接口205。可拆卸介质211,诸如
磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器210上,以便于从其上读出
的计算机程序根据需要被安装入存储部分208。
[0087] 特别地,根据本公开的实施例,下文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质
上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实
施例中,该计算机程序可以通过通信部分209从网络上被下载和安装,和/或从可拆卸介质
211被安装。在该计算机程序被中央处理单元(CPU)201执行时,执行本申请的方法和装置中
限定的各种功能。在一些实施例中,计算机系统200还可以包括AI(Artificial 
Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
[0088] 人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理
论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个综合技术,它企图了解
智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能
也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
[0089] 人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、
大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机
视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
[0090] 其中,计算机视觉技术(Computer Vision,CV)计算机视觉是一门研究如何使机器“看”的科学。作为一个科学学科,计算机视觉研究相关的理论和技术,试图建立能够从图像
或者多维数据中获取信息的人工智能系统。计算机视觉技术通常包括图像处理、图像识别、
图像语义理解、图像检索、OCR、视频处理、视频语义理解、视频内容/行为识别、三维物体重
建、3D技术、虚拟现实、增强现实、同步定位与地图构建等技术,还包括常见的人脸识别、指
纹识别等生物特征识别技术。
[0091] 语音技术(Speech Technology)的关键技术有自动语音识别技术(ASR)和语音合成技术(TTS)以及声纹识别技术。让计算机能听、能看、能说、能感觉,是未来人机交互的发
展方向,其中语音成为未来最被看好的人机交互方式之一。
[0092] 自然语言处理(Nature Language processing,NLP)是计算机科学领域与人工智能领域中的一个重要方向。它研究能实现人与计算机之间用自然语言进行有效通信的各种
理论和方法。自然语言处理是一门融语言学、计算机科学、数学于一体的科学。因此,这一领
域的研究将涉及自然语言,即人们日常使用的语言,所以它与语言学的研究有着密切的联
系。自然语言处理技术通常包括文本处理、语义理解、机器翻译、机器人问答、知识图谱等技
术。
[0093] 机器学习(Machine Learning,ML)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习
行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。机器学
习是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。
机器学习和深度学习通常包括人工神经网络、置信网络、强化学习、迁移学习、归纳学习、式
教学习等技术。
[0094] 本公开中的部分示例性实施例可能会涉及到上述机器学习技术。以下对本公开实施例的技术方案进行详细阐述:
[0095] 发明人尝试了通过多种机器学习方法进行用户类别确定。举例而言:
[0096] 通过有监督机器学习方法如Softmax多分类法进行用户类别确定。Softmax多分类法的训练、评估是基于用户的用户特征(User Feature)、推荐内容的特征(Item Feature)
和分类标签(Label)进行。而在预测阶段,则根据模型训练阶段得到的目标模型,使用用户
的用户特征、推荐内容的特征,结合目标模型代入Softmax函数得到用户和推荐内容之间的
对应概率,并根据对应概率和阈值对用户进行分类。
[0097] 但是,Softmax多分类法仅针对带有分类标签的样本数据分类有效,对于一些没有分类标签的样本数据业务场景(例如,新用户相关的业务场景等)则无法适用。
[0098] 通过无监督机器学习方法如传统的K均值(K‑Means)聚类法进行用户类别确定。传统K均值聚类法中,首先基于人为经验设定中心数K,也即计划将样本数据划分为K类。然后
随机选取K个样本数据作为初始聚类中心。其次计算其他样本数据与聚类中心之间的距离
并分配给距离最近的聚类中心;并重复该过程,直到满足误差平方和局部最小。
[0099] 但是,传统K均值聚类法中,中心数K也即最终得到的聚类簇数量是基于人为经验设定的,主观性较强,缺乏客观科学的评估标准,不一定是最优的聚类簇数量,进而导致最
终的聚类结果不够准确;同时,也无法根据样本数据的特点自适应的进行调整。
[0100] 而且,传统K均值聚类法对于稠密特征的样本数据较为适用,对于稀疏特征的样本数据的聚类效果则较差;主要原因为,在给定中心数K之后,由于传统K均值聚类法中初始聚
类中心的选取具有随机性,容易造成大部分初始聚类中心的选取集中在稀疏特征值上,进
而导致聚类中心分布不均衡,难以收敛到最优结果。同时,传统K均值聚类法中是通过计算
总体误差平方和局部最小进行收敛,进而确定每一个样本数据所属的聚类中心。然而,对于
稀疏特征的样本数据,由于聚类中心难以收敛到最优效果,从而会造成总体误差平方和难
以收敛到局部最小的情况,导致无法体现出聚类结果的合理性。
[0101] 基于上述一个或多个问题,本示例实施方式提供了一种用户类别确定方法。该用户类别确定方法可以应用于上述服务器106,也可以应用于上述终端设备101、102、103、104
中的一个或多个;还可以同时应用于上述终端设备101、102、103、104中的一个或多个以及
上述服务器106;本示例性实施例中对此不做特殊限定。参考图3所示,该用户类别确定方法
可以包括以下步骤:
[0102] 步骤S310、基于历史推荐内容的特征以及多个候选中心数,对所述历史推荐内容进行聚类,得到各所述候选中心数对应的聚类模型。
[0103] 步骤S320、根据各所述聚类模型的聚类效果评估数据,从所述多个候选中心数中确定出目标中心数。
[0104] 步骤S330、根据样本用户的联合特征以及所述目标中心数训练得到目标聚类模型。
[0105] 步骤S340、利用所述目标聚类模型基于预测用户的联合特征,对所述预测用户进行聚类,并将属于同一聚类簇的所述预测用户确定为同一类别。
[0106] 其中,用户的联合特征是根据所述用户的用户特征以及与所述用户关联的历史推荐内容的特征而确定。
[0107] 在本示例实施方式所提供的用户类别确定方法中,一方面,能够自动从多个候选中心数中确定出目标中心数,相比于人工设定中心数而言更加客观,且更加接近于最优中
心数;同时,也解决了目标中心数无法根据样本数据的特点自适应的进行调整的问题,进而
能够根据实际业务场景需求,自动寻找到目标中心数。另一方面,相比于仅基于用户的用户
特征进行聚类,本公开示例性实施例中,则是根据用户的用户特征以及与用户关联的历史
推荐内容的特征,共同确定出用户的联合特征,进而根据样本用户的联合特征进行聚类,这
样通过更加全面的特征可以进一步提升聚类结果的准确性。
[0108] 此外,在下述的进一步改进方案中,还将用户的整体特征划分为稀疏特征和稠密特征;对于稀疏特征通过嵌入矩阵转换为高阶的嵌入向量特征,从而降低了稀疏特征的稀
疏性,避免了由于特征稀疏性而造成的初始聚类中心随机选取不均匀的问题,进而避免了
由此带来的聚类中心难以收敛到最优效果的问题,从而提升了聚类效果。
[0109] 下面,在另一实施例中,对上述步骤进行更加详细的说明。
[0110] 在步骤S310中,基于历史推荐内容的特征以及多个候选中心数,对所述历史推荐内容进行聚类,得到各所述候选中心数对应的聚类模型。
[0111] 本公开中,推荐内容可以为线上实体商品;也可以为虚拟商品,如电子优惠券、虚拟道具等;也可以为多媒体信息,例如文本信息、音频信息或者视频信息等;当然,还可以为
其他能够通过电子设备推荐的内容。在部分示例实施方式中,将以所述推荐内容是电子优
惠券为例进行说明。电子优惠券具有不同的面值(或者折扣比例等),在对用户进行分类之
后,则可以根据用户分类确定和发放对应的电子优惠券。
[0112] 本示例实施方式中,推荐内容的特征可以基于推荐内容的属性信息以及用户对于推荐内容的操作行为信息确定。推荐内容的属性信息例如可以包括推荐内容的品类信息、
规格信息、产地信息等。用户对于推荐内容的操作行为信息例如可以包括用户对于推荐内
容的点击行为信息、收藏行为信息、购买行为信息等。对于推荐内容的属性信息以及用户对
于推荐内容的操作行为信息进行数据处理之后,则可以得到推荐内容的特征。
[0113] 以电子优惠券为例,通过对电子优惠券的属性信息以及用户对于电子优惠券的操作行为信息进行数据处理之后,可以得到电子优惠券的特征。例如,某电子优惠券的特征可
以包括:该电子优惠券的被点击率、费率、总被收藏数、对应的平均付费金额(该电子优惠券
的总付费金额/付费人数)、平均活跃时长(该电子优惠券对应的总活跃时间/活跃人数)等。
[0114] 本示例实施方式中,可以首先获取历史上向用户推荐过的推荐内容的特征,也即历史推荐内容的特征。例如,参考图4所示,获取最近三个统计周期内的推荐内容,如T‑1周
期、T周期和T+1周期的推荐内容;并将T‑1周期的推荐内容作为上述历史推荐内容;根据业
务场景以及样本数据量的不同,上述统计周期可以为1天、1周或者1个月等,本示例性实施
例中对此不做特殊限定。
[0115] 在提取历史推荐内容的特征之后,可以基于历史推荐内容的特征以及多个候选中心数,对所述历史推荐内容进行聚类。本示例实施方式中,候选中心数可以为预先指定的多
个连续或者不连续的整数,也可以指定一个范围,该范围中的各个整数均为候选中心数。
[0116] 参考图5所示,以候选中心数为2至N的整数为例,可以遍历候选中心数2至N,对于候选中心数i执行下述过程:
[0117] 基于历史推荐内容的特征以及该所述候选中心数i,对所述预测用户进行聚类,得到候选中心数i对应的聚类模型。其中,N为大于2的整数,i为整数且i∈[2,N]。在该过程中,
进行聚类所采用的算法为需要预先指定中心数的聚类算法,例如K均值聚类法,但本示例实
施方式中并不限于所列举的具体聚类算法。以K均值聚类法为例,聚类过程可以包括:
[0118] 步骤S510,判断当前候选中心数i是否大于N,如果不大于N,则转至下述步骤S520,否则结束并进入下述步骤S320。
[0119] 步骤S520,随机选择i个历史推荐内容作为初始聚类中心。
[0120] 步骤S530,选择一未聚类的历史推荐内容作为待分类历史推荐内容,并根据特征计算待分类历史推荐内容和当前各聚类中心的距离。
[0121] 步骤S540,将待分类历史推荐内容分配至距离最近的目标聚类中心,并在分配后重新计算所述目标聚类中心。
[0122] 步骤S550,判断是否满足聚类结束条件:如果未满足聚类结束条件则转至步骤S530。否则,保存当前的聚类结果,作为候选中心数i对应的聚类模型;同时,将i的取值加1,
并转至步骤S510。
[0123] 上述聚类结束条件例如可以是,步骤S530的迭代次数达到预设迭代次数。一般地,随着迭代次数的增长,计算时间会增长,但更容易收敛。因此,本领域技术人员可以根据数
据量、计算能力等参考因素设定预设迭代次数。上述聚类结束条件例如也可以是,计算各聚
类中心在更新前和更新后的距离,如果该距离小于预设距离,则可以认为满足聚类结束条
件。
[0124] 在步骤S320中,根据各所述聚类模型的聚类效果评估数据,从所述多个候选中心数中确定出目标中心数。
[0125] 一种聚类效果评估思路是,对于同一批数据而言,总体方差是恒定不变的,而总体方差=类内方差+类间方差。在总体方差恒定的情况下,如果实现类间方差最大,类内方差
最小,则可以使得聚类效果达到最优。基于该聚类效果评估思路,本示例实施方式中,可以
通过下述方式从所述多个候选中心数中确定出目标中心数:
[0126] 首先,分别计算各候选中心数i对应的聚类模型中聚类簇间的类间方差Si;例如,可以通过如下公式进行计算类间方差Si:
[0127]
[0128] 其中,j为聚类模型中聚类簇的编号,nj为聚类簇j内的推荐内容个数, 为聚类簇j内推荐内容的特征均值; 为所有荐内容的特征均值。
[0129] 其次,在计算得到S2至SN之后,得到候选中心数与对应的类间方差的序列{(2,S2),(3,S3),(4,S4),…,(N,SN)}。从中选择最大类间方差对应的候选中心数作为目标中心数K。
[0130] 进一步的,由于随着候选中心数i的增加,聚类簇的划分会更加精细,聚类簇内部数据的相似性会越来越高,但是聚类簇和聚类簇之间的区分度可能会降低。为了确保聚类
簇和聚类簇之间具有足够的区分度,同时,聚类簇内部数据具有较高的相似度,本示例实施
方式中,还可以通过下述方式从所述多个候选中心数中确定出目标中心数:
[0131] 首先,分别计算各候选中心数i对应的聚类模型中聚类簇间的类间方差Si。计算方式可以同上,此处不再重复赘述。
[0132] 其次,分别计算各候选中心数i对应的类间方差增量ΔS1;例如,类间方差增量ΔSi=Si‑Si‑1。需要说明的是,当i=2时,不执行该步骤。
[0133] 再次,在对应的类间方差增量小于预设值的候选中心数中,选择数值最小的候选中心数为所述目标中心数;例如,假设ΔS5、ΔS6、ΔS7均小于预设值,但是候选中心数5、6、7
中5最小,则将候选中心数5确定为目标中心数。即当聚类簇的数量为5时,既能够使聚类结
果中各个聚类簇之间具有足够的区分度,又能够保证各个聚类簇的内部数据之间具有较高
的相似度。上述预设值可以根据经验确定或者通过试验方式确定,本示例性实施例中对此
不做特殊限定。
[0134] 在一些示例性实施例中,也可以通过其他方式对聚类效果进行评估,进而确定出目标候选中心数。例如:
[0135] 首先,对于每个历史推荐内容x,计算在候选中心数i对应的聚类结果中,该历史推荐内容x与同聚类簇的其他历史推荐内容之间的平均距离a(x)。例如:
[0136]
[0137] 其中,j为历史推荐内容x所在的聚类簇的编号,nj为聚类簇j内的推荐内容个数,Cj为聚类簇j内的推荐内容的集合,dist为距离计算函数。
[0138] 其次,计算该所述历史推荐内容x与不包含历史推荐内容x的各聚类簇之间的距离,并确定其中的最小距离b(x)。例如:
[0139]
[0140] 再次,根据a(x)和b(x)确定历史推荐内容x的轮廓系数sc(x)。例如:
[0141] sc(x)=[b(x)‑a(x)]/max{a(x),b(x)}
[0142] 最后,根据各历史推荐内容的轮廓系数计算候选中心数i对应的平均轮廓系数SCi;举例而言,本示例实施方式中,可以将各历史推荐内容的轮廓系数的平均值确定为候
选中心数i对应的轮廓系数SCi。
[0143] 平均轮廓系数的取值范围为[‑1,1],且聚类簇中各历史推荐内容的相似度越高,聚类簇之间的区分度越大,平均轮廓系数则越大,进而聚类效果越好。因此,在计算得到平
均轮廓系数之后,可以将对应的轮廓系数最大的候选中心数确定为目标中心数。
[0144] 需要说明的是,本公开中提供了一些确定目标中心数的方法,但容易理解的是,在本公开的其他示例性实施例中,也可以采用其他方式确定目标中心数,本示例性实施例中
并不以上述示例为限
[0145] 在步骤S330中,根据样本用户的联合特征以及所述目标中心数训练得到目标聚类模型。
[0146] 在部分聚类技术中,仅基于用户的用户特征进行聚类,可能会导致最终的聚类结果不够准确。本示例实施方式中,则是根据所述用户的用户特征以及与所述用户关联的历
史推荐内容的特征,确定用户的联合特征,进而根据样本用户的联合特征进行聚类,这样则
可以进一步提升聚类结果的准确性。举例而言,参考图6所示。本示例实施方式中可以通过
下述步骤S610至步骤S640确定用户的联合。其中:
[0147] 在步骤S610中,根据所述用户的用户特征以及与所述用户关联的历史推荐内容的特征得到所述用户的整体特征。
[0148] 举例而言,用户的用户特征可以包括:如性别、年龄、地域等基础属性数据;还可以包括:如活跃天数、活跃时长、活跃功能数量、注册时间距离当前时间天数等活跃属性数据,
以及充值金额、消费金额、充值次数、充值天数、首次充值距离当前时间天数等充值属性数
据;还可以包括用户和历史推荐内容的交互信息,如用户对于电子优惠券相关控件的点击
数据、用户领取的电子优惠券数据(如类型、数量、次数、价值等)、已使用电子优惠券数据
(如类型、数量、价值)、过期电子优惠券数据(如类型、数量、价值)等电子优惠券相关的数
据。
[0149] 与所述用户关联的历史推荐内容例如可以包括用户购买或者收藏过的商品,用户领取或者使用过的电子优惠券,用户浏览过的音视频等。以电子优惠券为例,某用户使用了
电子优惠券A和电子优惠券B,则可以将电子优惠券A和电子优惠券B作为与该用户关联的历
史推荐内容。进而,可以将电子优惠券A和电子优惠券B的被点击率、费率、总被收藏数、对应
的平均付费金额(该电子优惠券的总付费金额/付费人数)、平均活跃时长(该电子优惠券对
应的总活跃时间/活跃人数)等特征与该用户的用户特征组合,构成该用户的整体特征。
[0150] 在步骤S620中,将所述用户的整体特征根据维度划分为稀疏特征和稠密特征。
[0151] 本示例实施方式中,由于用户的整体特征中同时包括稀疏特征和稠密特征,如果直接使用稀疏特征进行聚类,则可能会导致聚类中心难以收敛到最优效果。因此,本示例实
施方式中,首先根据维度将用户的整体特征划分为稀疏特征和稠密特征。具体何种维度的
特征需要划分为稀疏特征,何种维度的特征需要划分为稠密特征,可以根据特征的性质预
先确定。
[0152] 例如,对于如用户的性别类特征、地域类特征、职业类特征、身份类特征等非数值类特征,可以划分为稀疏特征;对于如用户的年龄特征、充值属性相关特征(如充值金额、充
值次数)、电子优惠券的费率和对应的平均付费金额等数值类特征,可以划分为稠密特征。
[0153] 步骤S630、对所述用户的稀疏特征进行降维得到对应的嵌入向量特征。
[0154] 本示例实施方式中,为了降低稀疏特征的稀疏度,可以首先通过深度学习等方法,将稀疏特征进行降维得到对应的嵌入向量(Embedding)特征。进而,可以避免由于特征的稀
疏性而造成的初始聚类中心随机选取不均匀的问题,进而避免因此导致的聚类中心难以收
敛到最优效果的问题,从而可以提升最终聚类效果的准确性。
[0155] 参考图7所示,本示例实施方式中,可以通过下述步骤S710至步骤S720对所述用户的稀疏特征进行降维得到对应的嵌入向量特征:
[0156] 在步骤S710中,为所述稀疏特征确定嵌入矩阵。
[0157] 本示例实施方式中,不同维度的稀疏特征通常对应不同的嵌入矩阵。对于某一维度的稀疏特征而言,可以首先根据需要输出的嵌入向量特征的大小,确定出初始矩阵;同
时,对初始矩阵中的权重值进行初始化,例如赋予随机大小的权重值。然后,通过深度神经
网络模型对初始矩阵进行训练,以调整所述初始矩阵的权重值而得到与所述稀疏特征对应
的嵌入矩阵。
[0158] 举例而言,本示例实施方式中,所述深度神经网络模型可以为包括多层网络架构的深度神经网络;其中一层可以为包括上述初始矩阵的嵌入层。通过输入该维度的稀疏特
征对应的样本数据对深度神经网络模型进行训练之后,即可将嵌入层对应的矩阵作为该维
度的稀疏特征对应的嵌入矩阵。本示例实施方式中,上述深度神经网络模型的层数例如可
以为5层;当然,本领域技术人员可以根据训练时间以及训练难度,增加或者减少深度神经
网络的层数,本示例性实施例中对此不做特殊限定。
[0159] 需要说明的是,在本公开的其他示例性实施例中,也可以通过其他方式,例如通过查找预先配置的映射表等方式确定该维度的稀疏特征对应的嵌入矩阵;因此,本示例性实
施例中并不以上述示例为限。
[0160] 在步骤S720中,根据所述稀疏特征和对应的所述嵌入矩阵,确定出与所述稀疏特征对应的嵌入向量特征。
[0161] 在确定某一维度的稀疏特征对应的嵌入矩阵之后,可以将该维度的稀疏特征(一般通过One‑Hot向量表示)与对应的嵌入矩阵进行乘积,即可得到该维度的稀疏特征对应的
嵌入向量特征。
[0162] 在上述步骤中,对于用户的稀疏特征进行了处理。在一些示例性实施例中,也可以对用户的稠密特征进行预处理。例如,对稠密特征进行PCA(Principal Component 
Analysis,主成分分析)去相关性处理、归一化(标准化)处理、特征离散化处理等;本示例性
实施例中对此不做特殊限定。
[0163] 步骤S640、拼接所述嵌入向量特征和稠密特征,得到所述用户的联合特征。举例而言,可以将属于同一用户ID的嵌入向量特征和稠密特征进行拼接,得到所述用户的联合特
征。
[0164] 参考图4所示,本示例实施方式中,可以将T周期的涉及的用户作为训练目标聚类模型使用的样本用户,并获取样本用户的用户特征以及样本用户关联的历史推荐内容的特
征。之后基于样本用户的用户特征以及样本用户关联的历史推荐内容的特征通过上述步骤
S610至步骤S640得到样本用户的联合特征。进而根据样本用户的联合特征以及所述目标中
心数训练得到目标聚类模型。参考图8所示,可以通过下述步骤S810至步骤S840,训练得到
目标聚类模型。其中:
[0165] 在步骤S810中,将所述样本用户分为训练样本用户以及测试样本用户。
[0166] 本示例实施方式中,可以按照预设比例随机将所述样本用户分为训练样本用户以及测试样本用户。所述预设比例可以根据经验值确定;例如,训练样本用户和测试样本用户
的比例为8:2、7:3或者75:25、83:27等。此外,随着样本用户数量的增加,可以适应性的随之
提高训练样本用户和测试样本用户的比例;例如,当样本用户数量非常大时,可以按照99:1
的比例随机将所述样本用户分为训练样本用户以及测试样本用户。
[0167] 在步骤S820中,基于训练样本用户的联合特征以及所述目标中心数,对所述训练样本用户进行聚类,得到候选聚类模型。
[0168] 本示例实施方式中,进行聚类所采用的算法为需要预先指定中心数的聚类算法,例如K均值聚类法,但本示例实施方式中并不限于所列举的具体聚类算法。以K均值聚类法
为例,参考图9所示,聚类过程可以包括:
[0169] 步骤S910,随机选择K个训练样本用户作为初始聚类中心。
[0170] 本示例实施方式中以目标中心数K=4为例,则最终会得到4个聚类簇,如聚类簇A、聚类簇B、聚类簇C以及聚类簇D。对于聚类簇A,初始随机选取的训练样本用户记为a1;对于
聚类簇B,初始随机选取的训练样本用户记为b1;对于聚类簇C,初始随机选取的训练样本用
户记为c1;对于聚类簇D,初始随机选取的训练样本用户记为d1。当然,在一些示例性实施例
中,也可以是人工选取K个训练样本用户作为初始聚类中心,本示例性实施例中对此不做特
殊限定。
[0171] 步骤S920,选择一未聚类的训练样本用户作为当前训练样本用户,并根据联合特征计算当前训练样本用户和当前各聚类中心的距离。
[0172] 举例而言,假设当前聚类簇A中训练样本用户个数为o,聚类簇B中训练样本用户个数为p,聚类簇C中训练样本用户个数为k,聚类簇D中训练样本用户个数为m。在各聚类簇中,
每一个训练样本用户均被表示为n维向量。因此对聚类簇A、聚类簇B、聚类簇C、聚类簇D的一
N
般化表示如下;其中,N为联合特征的维度,R表示N维向量空间:
[0173] A={a1,a2,...,ao}ai∈RN(i=1,2,...,o)
[0174] B={b1,b2,...,bp}bi∈RN(i=1,2,...,p)
[0175] C={c1,c2,...,ck}ci∈RN(i=1,2,...,k)
[0176] D={d1,d2,...,dm}di∈RN(i=1,2,...,m)
[0177] 在得到聚类簇A、聚类簇B、聚类簇C、聚类簇D的一般化表示后,则聚类簇A、聚类簇B、聚类簇C、聚类簇D的聚类中心μa、μb、μc、μd可以通过下式计算:
[0178]
[0179]
[0180]
[0181]
[0182] 即在本示例实施方式中,聚类簇的聚类中心计算的方法是计算聚类簇中所有训练样本用户的特征向量的平均值;最终得到的μa、μb、μc、μd均为n维向量。但本领域技术人员容
易理解的是,在本发明的其他示例性实施例中,也可以通过其他方式计算聚类簇的聚类中
心,本示例性实施例中并不以此为限。
[0183] 在计算得到各聚类簇的聚类中心之后,对于所述当前训练样本用户,可以计算当前训练样本用户的特征向量x与聚类簇A、聚类簇B、聚类簇C、聚类簇D的聚类中心μa、μb、μc、
μd的距离Dis_a、Dis_b、Dis_c、Dis_d。例如:
[0184] Dis_a=||x‑μa||2
[0185] Dis_b=||x‑μb||2
[0186] Dis_c=||x‑μc||2
[0187] Dis_d=||x‑μd||2
[0188] 其中,||X‑Y||是向量作差之后各分量的平方和的开根号。
[0189] 需要说明的,在本示例实施方式中,计算的是欧式距离,但在本发明的其他示例性实施例中,也可以计算马氏距离、余弦距离、曼哈顿距离等;这些同样属于本发明的保护范
围。
[0190] 步骤S930,将当前训练样本用户分配至距离最近的聚类中心,并在分配后重新计算该所述聚类中心。
[0191] 如果当前训练样本用户与一聚类簇的聚类中心的距离最小,则将当前训练样本用户分配至该聚类簇。例如可以通过下式确定最小距离:
[0192] Min(Dis_a,Dis_b,Dis_c,Dis_d)
[0193] 在对当前训练样本用户分配完毕之后,则可以重新计算聚类簇的聚类中心。本示例实施方式中,可以通过上述步骤S920中的方法重新计算其聚类中心。然后,迭代上述步骤
S920~步骤S930,直至满足聚类结束条件。并在满足聚类结束条件后,保存当前的聚类结
果,作为候选聚类模型。
[0194] 上述聚类结束条件例如可以是,步骤S920~步骤S930的迭代次数达到预设迭代次数。或者,上述聚类结束条件例如也可以是,计算各聚类中心在更新前和更新后的距离,如
果该距离小于预设距离,则可以认为满足聚类结束条件。
[0195] 在步骤S830中,利用所述候选聚类模型基于所述测试样本用户的联合特征,对所述测试样本用户进行聚类。参考图10所示,该步骤例如可以包括下述步骤S1010至步骤
S1030。其中:
[0196] 在步骤S1010中,获取所述候选聚类模型中各聚类簇的聚类中心。例如,获取上述候选聚类模型中聚类簇A、聚类簇B、聚类簇C、聚类簇D的聚类中心μa、μb、μc、μd。
[0197] 在步骤S1020中,计算所述测试样本用户的联合特征与各所述聚类中心的距离值。该步骤的具体实现与上述步骤S920中基本类似,因此此处不再重复赘述。
[0198] 在步骤S1030中,将最小距离值对应的聚类中心所在的聚类簇作为所述测试样本用户所属的聚类簇。该步骤的具体实现与上述步骤S930中基本类似,因此此处不再重复赘
述。
[0199] 在步骤S840中,如果对所述测试样本用户的聚类结果满足训练结束条件,则将所述候选聚类模型确定为所述目标聚类模型。
[0200] 本示例实施方式中,所述训练结束条件例如可以是对所述测试样本用户的聚类结果的评估指标达到指定阈值或者满足指定范围。以评估指标为MSE指标(误差平方和)为例,
MSE指标可以通过下述方式计算:
[0201]
[0202] 其中,K为上述目标中心数,Ci表示聚类簇i中包含的测试样本用户的集合;μi是聚类簇Ci的均值向量。
[0203] 如果MSE指标小于指标阈值,则可以认为满足训练结束条件,进而可以将当前的候选聚类模型确定为目标聚类模型。如果MSE指标大于指标阈值,则重复执行上述步骤S910至
步骤S940。
[0204] 当然,在本公开的其他示例性实施例中,也可以通过Jaccard相似系数、Rand指数等其他评估指标对测试样本用户的聚类结果进行评估,进而确定出目标聚类模型;且本示
例性实施例中并不以此为限。
[0205] 在步骤S340中,利用所述目标聚类模型基于预测用户的联合特征,对所述预测用户进行聚类,并将属于同一聚类簇的所述预测用户确定为同一类别。
[0206] 参考图4所示,本示例实施方式中,可以将T+1周期的涉及的用户作为预测用户,并获取预测用户的用户特征以及预测用户关联的历史推荐内容的特征。之后基于预测用户的
用户特征以及预测用户关联的历史推荐内容的特征通过上述步骤S610至步骤S640得到预
测用户的联合特征。进而利用上述目标聚类模型基于预测用户的联合特征,对预测用户进
行聚类。参考图11所示,可以通过下述步骤S1110至步骤S1130,对预测用户进行聚类。其中:
[0207] 在步骤S1110中,获取所述目标聚类模型中各聚类簇的聚类中心。例如,获取上述目标聚类模型中聚类簇A、聚类簇B、聚类簇C、聚类簇D的聚类中心μa、μb、μc、μd。
[0208] 在步骤S1120中,计算所述预测用户的联合特征与各所述聚类中心的距离值。该步骤的具体实现与上述步骤S920中基本类似,因此此处不再重复赘述。
[0209] 在步骤S1130中,将最小距离值对应的聚类中心所在的聚类簇作为所述预测用户所属的聚类簇。该步骤的具体实现与上述步骤S930中基本类似,因此此处不再重复赘述。在
本示例实施方式中,位于同一聚类簇的所述预测用户的联合特征都是相近或者相似的,因
此可以将同一聚类簇中的所有预测用户归属于同一个类别。
[0210] 此外,本示例实施方式中,在将预设用户划分至目标聚类簇之后,还可以重新计算所述目标聚类簇的聚类中心。目标聚类簇的聚类中心的计算,可以采用上述步骤S920中的
方法,也可以通过下式计算(下式中,θ为所述预测用户的特征向量):
[0211] 若是目标聚类簇为上述聚类簇A,则使目标聚类簇的聚类中心更新为:
[0212]
[0213] o=o+1
[0214] 若是目标聚类簇为上述聚类簇B,则使目标聚类簇的聚类中心更新为:
[0215]
[0216] p=p+1
[0217] 若是目标聚类簇为上述聚类簇C,则使目标聚类簇的聚类中心更新为:
[0218]
[0219] k=k+1
[0220] 若是目标聚类簇为上述聚类簇D,则使目标聚类簇的聚类中心更新为:
[0221]
[0222] m=m+1
[0223] 在重新计算所述目标聚类簇的聚类中心之后,可以对计算结果进行记录存储,以便于下次对新的预测用户进行聚类时直接使用。
[0224] 进一步的,本示例实施方式中,还提供了一种用户类别确定方法。还方法包括:利用目标聚类模型基于预测用户的联合特征,对所述预测用户进行聚类,并将属于同一聚类
簇的所述预测用户确定为同一类别。该步骤与上述步骤S340类似,此处不再重复赘述。其
中,所述目标聚类模型是根据样本用户的联合特征以及目标中心数训练得到;所述目标中
心数是基于历史推荐内容的特征以及多个候选中心数对所述历史推荐内容聚类得到各所
述候选中心数对应的聚类模型后,根据各所述聚类模型的聚类效果评估数据从所述多个候
选中心数中确定。其中,用户的联合特征是根据所述用户的用户特征以及与所述用户关联
的历史推荐内容的特征而确定。也即目标聚类模型是通过上述步骤S310至步骤S330类似的
方法确定,此处不再重复赘述。
[0225] 进一步的,在通过本示例实施方式中的方法确定出属于同一类别的用户之后,还可以基于此进行推荐内容确定方法。因此,本示例实施方式中,还提供一种推荐内容确定方
法。该推荐内容确定方法可以应用于上述服务器106,也可以应用于上述终端设备101、102、
103、104中的一个或多个;还可以同时应用于上述终端设备101、102、103、104中的一个或多
个以及上述服务器106;本示例性实施例中对此不做特殊限定。参考图12所示,该推荐内容
确定方法可以包括步骤S1210~步骤S1250。其中,步骤S1210~步骤S1240与上述步骤S310
~步骤S340类似,因此此处不再重复赘述。其中:
[0226] 在步骤S1250中,为属于同一类别的所述预测用户配置同样的推荐内容。根据业务场景的不同,推荐内容也会有所不同。例如,推荐内容可以为线上实体商品;也可以为虚拟
商品,如电子优惠券、虚拟道具等;也可以为多媒体信息,例如文本信息、音频信息或者视频
信息等;当然,还可以为其他能够通过电子设备推荐的内容。
[0227] 参考图13所示,是以车联网出行服务中的优惠加油代金券派发场景为例,在该场景中,上述终端设备101、102、103、104例如可以为智能手机、平板电脑或者车载显示屏、智
能后视镜、车载导航仪等车载设备。在该场景下,一方面,需要解决优惠加油代金券的面值
设置问题,如需要配置多少种面值的加油优惠券,也即优惠加油代金券应该设置多少个类
别;另一方面,需要确定为哪些用户分配同一类别的优惠加油代金券;也即,哪些用户会领
取同一面值的优惠加油代金券。
[0228] 对于新业务而言,如果人为设定固定面值和固定种类的优惠加油代金券,则缺乏科学的评估分析,也无法跟随业务的发展自适应动态确定优惠加油代金券的面值和种类。
同时,如果未对用户领取优惠加油代金券的历史数据标注标签,则也无法使用有监督的分
类学习算法。此外,由于出行用户的特征数据稀疏性较高,因此在采用传统K均值聚类法进
行聚类时,难以收敛到最优结果。而采用本示例实施方式中提供的推荐内容确定方法,则可
以较好的解决避免这些问题。例如,参考图14所示:
[0229] 首先,将用户的用户特征以及优惠加油代金券的特征(下称商品特征)相关的数据按照统计周期,划分为T‑1周期、T周期和T+1周期的数据。其中,T‑1周期的数据用于确定目
标中心数K;T周期的数据用于训练目标聚类模型;T+1周期的数据用于进行预测。
[0230] 其次,遍历候选中心数2至N;基于T+1周期的商品特征和各候选中心数对历史优惠加油代金券进行聚类,得到对于各候选中心数的聚类模型,并且获取各聚类模型的对应的
评估数据,例如组间方差。接着,根据组间方差确定出目标中心数K。
[0231] 再次,通过T周期用户特征和商品特征构建用户的整体特征,并将用户的整体特征划分为稀疏特征和稠密特征。通过深度神经网络的嵌入层将稀疏特征转换为嵌入向量特征
之后与稠密特征进行拼接,得到T周期用户的联合特征。并且,通过同样的方法,得到T+1周
期用户的联合特征。
[0232] 接着,基于T周期用户的联合特征以及目标中心数K进行聚类训练,直到满足评估条件(如达到评估指标阈值),从而得到目标聚类模型。
[0233] 最后,利用目标聚类模型基于T+1周期用户的联合特征,对T+1周期的用户进行聚类,并将属于同一聚类簇的用户确定为同一类别。进而,可以为同一类别的用户配置相同的
优惠加油代金券。
[0234] 例如,对于各聚类簇,按照聚类中心按照从小到大的顺序排序并编号,得到聚类簇编号C1~CK;接着,按照从小到大的顺序为各聚类簇中的用户配置不同面值的优惠加油代金
券。例如,为聚类簇C1的用户配置5元优惠加油代金券,为聚类簇C2的用户配置15元优惠加油
代金券等。当然,在本公开的其他示例性实施例中,也可以根据其他方式,为同一聚类簇内
的用户配置相同的优惠加油代金券,本示例性实施例中对此不做特殊限定。
[0235] 对于优惠加油代金券分配场景,发明人还分别利用了传统K均值聚类方法(下称第一参考聚类方法)以及与本公开的方法类似但是固定中心数的聚类法(下称第二参考聚类
方法)进行了用户类别确定。从聚类效果上看,本公开的方法的误差平方和(MSE)显著低于
第一参考聚类方法和第二参考聚类方法;这意味着本公开的方法的聚类效果要显著好于第
一参考聚类方法和第二参考聚类方法。具体见下表1:
[0236] 表1
[0237] 对比项 第一参考聚类方法 第一参考聚类方法 本公开聚类方法MSE 51.4877(K=5) 22.1791(K=5) 20.2206(K=4)
[0238] 应当注意,尽管在附图中以特定顺序描述了本公开中方法的各个步骤,但是,这并非要求或者暗示必须按照该特定顺序来执行这些步骤,或是必须执行全部所示的步骤才能
实现期望的结果。附加的或备选的,可以省略某些步骤,将多个步骤合并为一个步骤执行,
以及/或者将一个步骤分解为多个步骤执行等。
[0239] 进一步的,本示例实施方式中,还提供了基于人工智能的一种用户类别确定装置。该用户类别确定装置可以应用于一服务器或终端设备。参考图15所示,该用户类别确定装
置1500可以包括第一聚类模块1510、中心数确定模块1520、聚类模型训练模块1530以及第
二聚类模块1540。其中:
[0240] 第一聚类模块1510,用于基于历史推荐内容的特征以及多个候选中心数,对所述历史推荐内容进行聚类,得到各所述候选中心数对应的聚类模型;中心数确定模块1520,用
于根据各所述聚类模型的聚类效果评估数据,从所述多个候选中心数中确定出目标中心
数;聚类模型训练模块1530,用于根据样本用户的联合特征以及所述目标中心数训练得到
目标聚类模型;第二聚类模块1540,用于利用所述目标聚类模型基于预测用户的联合特征,
对所述预测用户进行聚类,并将属于同一聚类簇的所述预测用户确定为同一类别;其中,用
户的联合特征是根据所述用户的用户特征以及与所述用户关联的历史推荐内容的特征而
确定。
[0241] 在本公开的一种示例性实施例中,所述第一聚类模块1510通过下述方法对所述历史推荐内容进行聚类:
[0242] 遍历候选中心数2至N,对于候选中心数i执行下述过程:
[0243] 基于历史推荐内容的特征以及该所述候选中心数i,对所述预测用户进行聚类,得到候选中心数i对应的聚类模型;其中,N为大于2的整数,i为整数且i∈[2,N]。
[0244] 在本公开的一种示例性实施例中,所述中心数确定模块1520通过下述方法从所述多个候选中心数中确定出目标中心数:
[0245] 分别计算各候选中心数i对应的聚类模型中聚类簇间的类间方差Si;选择对应的类间方差最大的候选中心数为所述目标中心数。
[0246] 在本公开的一种示例性实施例中,所述中心数确定模块1520通过下述方法从所述多个候选中心数中确定出目标中心数:
[0247] 分别计算各候选中心数i对应的聚类模型中聚类簇间的类间方差Si;分别计算各候选中心数i对应的类间方差增量Si‑Si‑1;在对应的类间方差增量小于预设值的候选中心
数中,选择数值最小的候选中心数为所述目标中心数。
[0248] 在本公开的一种示例性实施例中,所述聚类模型训练模块1530通过下述方法训练得到目标聚类模型:
[0249] 将所述样本用户分为训练样本用户以及测试样本用户;基于训练样本用户的联合特征以及所述目标中心数,对所述训练样本用户进行聚类,得到候选聚类模型;利用所述候
选聚类模型基于所述测试样本用户的联合特征,对所述测试样本用户进行聚类;如果对所
述测试样本用户的聚类结果满足训练结束条件,则将所述候选聚类模型确定为所述目标聚
类模型。
[0250] 在本公开的一种示例性实施例中,所述聚类模型训练模块1530通过下述方法对所述测试样本用户进行聚类:
[0251] 获取所述候选聚类模型中各聚类簇的聚类中心;计算所述测试样本用户的联合特征与各所述聚类中心的距离值;将最小距离值对应的聚类中心所在的聚类簇作为所述测试
样本用户所属的聚类簇。
[0252] 在本公开的一种示例性实施例中,所述第二聚类模块1540通过下述方法对所述预测用户进行聚类,包括:
[0253] 获取所述目标聚类模型中各聚类簇的聚类中心;计算所述预测用户的联合特征与各所述聚类中心的距离值;将最小距离值对应的聚类中心所在的聚类簇作为所述预测用户
所属的聚类簇。
[0254] 在本公开的一种示例性实施例中,所述装置还包括:
[0255] 聚类中心更新模块,用于将所述预测用户划分至对应的聚类簇之后,重新计算该所述聚类簇的聚类中心。
[0256] 在本公开的一种示例性实施例中,所述装置还包括,联合特征确定模块;所述联合特征确定模块用于:
[0257] 根据所述用户的用户特征以及与所述用户关联的历史推荐内容的特征得到所述用户的整体特征;将所述用户的整体特征根据维度划分为稀疏特征和稠密特征;对所述用
户的稀疏特征进行降维得到对应的嵌入向量特征;拼接所述嵌入向量特征和稠密特征,得
到所述用户的联合特征。
[0258] 在本公开的一种示例性实施例中,所述联合特征确定模块通过下述方法对所述用户的稀疏特征进行降维得到对应的嵌入向量特征:
[0259] 为所述稀疏特征确定嵌入矩阵;根据所述稀疏特征和对应的所述嵌入矩阵,确定出与所述稀疏特征对应的嵌入向量特征。
[0260] 在本公开的一种示例性实施例中,所述联合特征确定模块通过下述方法为所述稀疏特征确定嵌入矩阵,包括:
[0261] 确定所述稀疏特征对应的初始矩阵;通过深度神经网络模型对初始矩阵进行训练,以调整所述初始矩阵的权重值而得到与所述稀疏特征对应的嵌入矩阵。
[0262] 上述用户类别确定装置1500中各模块或单元的具体细节已经在对应的用户类别确定方法中进行了详细的描述,因此此处不再赘述。
[0263] 作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被一个该电子设
备执行时,使得该电子设备实现如下述实施例中所述的方法。例如,所述的电子设备可以实
现如图3所示的各个步骤等。
[0264] 需要说明的是,本公开所示的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不
限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计
算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便
携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储
器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD‑ROM)、光存储器件、磁存储器件、
或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程
序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本
公开中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,
其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限
于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可
读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于
由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的
程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述
的任意合适的组合。
[0265] 此外,本公开在一个示例性实施例中,还提供一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介
质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算
机指令,使得该计算机设备执行上述的各种可选实现方式中提供的方法。
[0266] 附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代
表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个
用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所
标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际
上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要
注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规
定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组
合来实现。
[0267] 应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。