一种基于人工智能的动画形象驱动方法和装置转让专利

申请号 : CN201910824770.0

文献号 : CN110531860B

文献日 :

基本信息:

PDF:

法律信息:

相似专利:

发明人 : 暴林超康世胤王盛林祥凯季兴朱展图李广之陀得意刘朋

申请人 : 腾讯科技(深圳)有限公司

摘要 :

本申请实施例公开了一种基于人工智能的动画形象驱动方法,通过采集说话人说出语音时脸部表情变化的媒体数据,确定说话人所对应第一动画形象的第一表情基,通过第一表情基可以体现第一动画形象的不同表情。在确定出用于驱动第二动画形象的目标文本信息后,根据目标文本信息、前述采集的媒体数据和第一表情基,确定对应目标文本信息的声学特征和目标表情参数。通过声学特征和目标表情参数,可以驱动具有第二表情基的第二动画形象,使得第二动画形象可以通过声学特征模拟发出说话人说出目标文本信息的声音,并且在发声过程中做出符合该说话人应有表情的脸部表情,给用户带来逼真的代入感和沉浸感,提高了用户与动画形象进行交互的体验。

权利要求 :

1.一种动画形象驱动方法,其特征在于,所述方法包括:

获取包含说话人的脸部表情和对应语音的媒体数据;

根据所述脸部表情确定所述说话人所对应第一动画形象的第一表情基,所述第一表情基用于标识所述第一动画形象的表情;

根据目标文本信息、所述媒体数据和所述第一表情基,确定对应所述目标文本信息的声学特征和目标表情参数;所述声学特征用于标识模拟所述说话人说出所述目标文本信息的声音,所述目标表情参数用于标识模拟所述说话人说出所述目标文本信息的脸部表情相对于所述第一表情基的变化程度;

根据所述声学特征和所述目标表情参数,驱动具有第二表情基的第二动画形象。

2.根据权利要求1所述的方法,其特征在于,所述第一动画形象和所述第二动画形象为同一个动画形象,所述第一表情基与所述第二表情基相同,所述根据所述脸部表情确定所述说话人所对应第一动画形象的第一表情基,包括:根据所述脸部表情确定所述第一动画形象的第一表情基和所述第一动画形象的捏脸参数,所述捏脸参数用于标识所述第一动画形象的脸型相对于所述第一动画形象所对应捏脸基的变化程度;

所述根据所述声学特征和所述目标表情参数,驱动具有第二表情基的第二动画形象,包括:根据所述声学特征、所述目标表情参数和所述捏脸参数,驱动具有第二表情基的第二动画形象。

3.根据权利要求1所述的方法,其特征在于,所述第一动画形象和所述第二动画形象为不同动画形象,所述第一表情基与所述第二表情基不同,所述根据所述声学特征和所述目标表情参数,驱动具有第二表情基的第二动画形象,包括:确定所述第一表情基所对应表情参数与所述第二表情基所对应表情参数间的映射关系;

根据所述声学特征、所述目标表情参数和所述映射关系,驱动具有所述第二表情基的第二动画形象。

4.根据权利要求3所述的方法,其特征在于,所述第二表情基是根据与音素的预设关系生成的,所述预设关系表示一个音素对应一个表情网格;所述确定所述第一表情基所对应表情参数与所述第二表情基所对应表情参数间的映射关系,包括:根据所述媒体数据确定所述语音所标识音素、所述音素对应的时间区间和所述媒体数据处于所述时间区间的视频帧;

根据所述视频帧确定所述音素对应的第一表情参数,所述第一表情参数用于标识发出所述音素时所述说话人的脸部表情相对于所述第一表情基的变化程度;

根据所述预设关系和所述第二表情基,确定所述音素对应的第二表情参数;

根据所述第一表情参数和所述第二表情参数,确定所述映射关系。

5.根据权利要求1所述的方法,其特征在于,所述根据目标文本信息、所述媒体数据和所述第一表情基,确定对应所述目标文本信息的声学特征和目标表情参数,包括:根据所述目标文本信息和所述媒体数据,确定对应所述目标文本信息的声学特征和表情特征;所述声学特征用于标识模拟所述说话人说出所述目标文本信息的声音,所述表情特征用于标识模拟所述说话人说出所述目标文本信息的脸部表情;

根据所述第一表情基和所述表情特征确定所述目标表情参数。

6.一种动画形象驱动装置,其特征在于,所述装置包括获取单元、第一确定单元、第二确定单元和驱动单元:所述获取单元,用于获取包含说话人的脸部表情和对应语音的媒体数据;

所述第一确定单元,用于根据所述脸部表情确定所述说话人所对应第一动画形象的第一表情基,所述第一表情基用于标识所述第一动画形象的表情;

所述第二确定单元,用于根据目标文本信息、所述媒体数据和所述第一表情基,确定对应所述目标文本信息的声学特征和目标表情参数;所述声学特征用于标识模拟所述说话人说出所述目标文本信息的声音,所述目标表情参数用于标识模拟所述说话人说出所述目标文本信息的脸部表情相对于所述第一表情基的变化程度;

所述驱动单元,用于根据所述声学特征和所述目标表情参数,驱动具有第二表情基的第二动画形象。

7.根据权利要求6所述的装置,其特征在于,所述第一动画形象和所述第二动画形象为同一个动画形象,所述第一表情基与所述第二表情基相同,所述第一确定单元,用于:根据所述脸部表情确定所述第一动画形象的第一表情基和所述第一动画形象的捏脸参数,所述捏脸参数用于标识所述第一动画形象的脸型相对于所述第一动画形象所对应捏脸基的变化程度;

所述根据所述声学特征和所述目标表情参数,驱动具有第二表情基的第二动画形象,包括:根据所述声学特征、所述目标表情参数和所述捏脸参数,驱动具有第二表情基的第二动画形象。

8.根据权利要求6所述的装置,其特征在于,所述第一动画形象和所述第二动画形象为不同动画形象,所述第一表情基与所述第二表情基不同,所述驱动单元,用于:确定所述第一表情基所对应表情参数与所述第二表情基所对应表情参数间的映射关系;

根据所述声学特征、所述目标表情参数和所述映射关系,驱动具有所述第二表情基的第二动画形象。

9.根据权利要求8所述的装置,其特征在于,所述第二表情基是根据与音素的预设关系生成的,所述预设关系表示一个音素对应一个表情网格;所述驱动单元,还用于:根据所述媒体数据确定所述语音所标识音素、所述音素对应的时间区间和所述媒体数据处于所述时间区间的视频帧;

根据所述视频帧确定所述音素对应的第一表情参数,所述第一表情参数用于标识发出所述音素时所述说话人的脸部表情相对于所述第一表情基的变化程度;

根据所述预设关系和所述第二表情基,确定所述音素对应的第二表情参数;

根据所述第一表情参数和所述第二表情参数,确定所述映射关系。

10.根据权利要求6所述的装置,其特征在于,所述第二确定单元,用于:根据所述目标文本信息和所述媒体数据,确定对应所述目标文本信息的声学特征和表情特征;所述声学特征用于标识模拟所述说话人说出所述目标文本信息的声音,所述表情特征用于标识模拟所述说话人说出所述目标文本信息的脸部表情;

根据所述第一表情基和所述表情特征确定所述目标表情参数。

11.一种动画形象驱动方法,其特征在于,所述方法包括:

获取包含说话人的脸部表情和对应语音的第一媒体数据;

根据所述脸部表情确定所述说话人所对应第一动画形象的第一表情基,所述第一表情基用于标识所述第一动画形象的表情;所述第一表情基的维数为第一维数,顶点拓扑为第一顶点拓扑;

根据所述第一表情基和待驱动的第二动画形象的第二表情基,确定目标表情基;所述第二表情基的维数为第二维数,顶点拓扑为第二顶点拓扑,所述目标表情基为具有第二顶点拓扑的第一动画形象对应的表情基,所述目标表情基的维数为第二维数;

根据包含所述说话人的脸部表情和对应语音的第二媒体数据和所述目标表情基,确定目标表情参数和声学特征;所述目标表情参数用于标识所述说话人说出所述语音的脸部表情相对于所述目标表情基的变化程度;

根据所述目标表情参数和声学特征,驱动具有所述第二表情基的所述第二动画形象。

12.根据权利要求11所述的方法,其特征在于,所述根据所述第一表情基和待驱动的第二动画形象的第二表情基,确定目标表情基,包括:从所述第一表情基中确定所述第一动画形象处于无表情时对应的无表情网格,并从所述第二表情基中确所述第二动画形象处于无表情时对应的无表情网格;

根据所述第一动画形象对应的无表情网格和所述第二动画形象对应的无表情网格,确定调整网格,所述调整网格具有第二顶点拓扑,用于标识处于无表情时的第一动画形象;

根据所述调整网格和所述第二表情基中的网格形变关系,生成所述目标表情基。

13.一种动画形象驱动装置,其特征在于,所述装置包括获取单元、第一确定单元、第二确定单元、第三确定单元和驱动单元:所述获取单元,用于获取包含说话人的脸部表情和对应语音的第一媒体数据;

所述第一确定单元,用于根据所述脸部表情确定所述说话人所对应第一动画形象的第一表情基,所述第一表情基用于标识所述第一动画形象的表情;所述第一表情基的维数为第一维数,顶点拓扑为第一顶点拓扑;

所述第二确定单元,用于根据所述第一表情基和待驱动的第二动画形象的第二表情基,确定目标表情基;所述第二表情基的维数为第二维数,顶点拓扑为第二顶点拓扑,所述目标表情基为具有第二顶点拓扑的第一动画形象对应的表情基,所述目标表情基的维数为第二维数;

所述第三确定单元,用于根据包含所述说话人的脸部表情和对应语音的第二媒体数据和所述目标表情基,确定目标表情参数和声学特征;所述目标表情参数用于标识所述说话人说出所述语音的脸部表情相对于所述目标表情基的变化程度;

所述驱动单元,用于根据所述目标表情参数和声学特征,驱动具有所述第二表情基的所述第二动画形象。

14.一种设备,其特征在于,所述设备包括处理器以及存储器:

所述存储器用于存储程序代码,并将所述程序代码传输给所述处理器;

所述处理器用于根据所述程序代码中的指令执行权利要求1-5或11-12任一项所述的方法。

15.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质用于存储程序代码,所述程序代码用于执行权利要求1-5或11-12任一项所述的方法。

说明书 :

一种基于人工智能的动画形象驱动方法和装置

技术领域

[0001] 本申请涉及数据处理领域,特别是涉及一种基于人工智能的动画形象驱动方法和装置。

背景技术

[0002] 随着计算机技术的发展,人机交互已经比较常见,但多为单纯的语音交互,例如,交互设备可以根据用户输入的文字或语音确定回复内容,并播放根据回复内容合成的虚拟声音。
[0003] 这种类型的人机交互带来的用户沉浸感难以满足目前用户的交互需求,为了提高用户沉浸感,具有表情变化能力例如可以口型变化的动画形象作为与用户的交互对象属于目前的研发方向。
[0004] 然而,目前并没有完善的动画形象驱动方式。

发明内容

[0005] 为了解决上述技术问题,本申请提供了一种基于人工智能的动画形象驱动方法和装置,给用户带来逼真的代入感和沉浸感,提高了用户与动画形象进行交互的体验。
[0006] 本申请实施例公开了如下技术方案:
[0007] 第一方面,本申请实施例提供一种动画形象驱动方法,所述方法包括:
[0008] 获取包含说话人的脸部表情和对应语音的媒体数据;
[0009] 根据所述脸部表情确定所述说话人所对应第一动画形象的第一表情基,所述第一表情基用于标识所述第一动画形象的表情;
[0010] 根据目标文本信息、所述媒体数据和所述第一表情基,确定对应所述目标文本信息的声学特征和目标表情参数;所述声学特征用于标识模拟所述说话人说出所述目标文本信息的声音,所述目标表情参数用于标识模拟所述说话人说出所述目标文本信息的脸部表情相对于所述第一表情基的变化程度;
[0011] 根据所述声学特征和所述目标表情参数,驱动具有第二表情基的第二动画形象。
[0012] 第二方面,本申请实施例提供一种动画形象驱动装置,所述装置包括获取单元、第一确定单元、第二确定单元和驱动单元:
[0013] 所述获取单元,用于获取包含说话人的脸部表情和对应语音的媒体数据;
[0014] 所述第一确定单元,用于根据所述脸部表情确定所述说话人所对应第一动画形象的第一表情基,所述第一表情基用于标识所述第一动画形象的表情;
[0015] 所述第二确定单元,用于根据目标文本信息、所述媒体数据和所述第一表情基,确定对应所述目标文本信息的声学特征和目标表情参数;所述声学特征用于标识模拟所述说话人说出所述目标文本信息的声音,所述目标表情参数用于标识模拟所述说话人说出所述目标文本信息的脸部表情相对于所述第一表情基的变化程度;
[0016] 所述驱动单元,用于根据所述声学特征和所述目标表情参数,驱动具有第二表情基的第二动画形象。
[0017] 第三方面,本申请实施例提供一种动画形象驱动方法,所述方法包括:
[0018] 获取包含说话人的脸部表情和对应语音的第一媒体数据;
[0019] 根据所述脸部表情确定所述说话人所对应第一动画形象的第一表情基,所述第一表情基用于标识所述第一动画形象的表情;所述第一表情基的维数为第一维数,顶点拓扑为第一顶点拓扑;
[0020] 根据所述第一表情基和待驱动的第二动画形象的第二表情基,确定目标表情基;所述第二表情基的维数为第二维数,顶点拓扑为第二顶点拓扑,所述目标表情基为具有第二顶点拓扑的第一动画形象对应的表情基,所述目标表情基的维数为第二维数;
[0021] 根据包含所述说话人的脸部表情和对应语音的第二媒体数据和所述目标表情基,确定目标表情参数和声学特征;所述目标表情参数用于标识所述说话人说出所述语音的脸部表情相对于所述目标表情基的变化程度;
[0022] 根据所述目标表情参数和声学特征,驱动具有所述第二表情基的所述第二动画形象。
[0023] 第四方面,本申请实施例提供一种动画形象驱动装置,所述装置包括获取单元、第一确定单元、第二确定单元、第三确定单元和驱动单元:
[0024] 所述获取单元,用于获取包含说话人的脸部表情和对应语音的第一媒体数据;
[0025] 所述第一确定单元,用于根据所述脸部表情确定所述说话人所对应第一动画形象的第一表情基,所述第一表情基用于标识所述第一动画形象的表情;所述第一表情基的维数为第一维数,顶点拓扑为第一顶点拓扑;
[0026] 所述第二确定单元,用于根据所述第一表情基和待驱动的第二动画形象的第二表情基,确定目标表情基;所述第二表情基的维数为第二维数,顶点拓扑为第二顶点拓扑,所述目标表情基为具有第二顶点拓扑的第一动画形象对应的表情基,所述目标表情基的维数为第二维数;
[0027] 所述第三确定单元,用于根据包含所述说话人的脸部表情和对应语音的第二媒体数据和所述目标表情基,确定目标表情参数和声学特征;所述目标表情参数用于标识所述说话人说出所述语音的脸部表情相对于所述目标表情基的变化程度;
[0028] 所述驱动单元,用于根据所述目标表情参数和声学特征,驱动具有所述第二表情基的所述第二动画形象。
[0029] 第五方面,本申请实施例提供一种设备,所述设备包括处理器以及存储器:
[0030] 所述存储器用于存储程序代码,并将所述程序代码传输给所述处理器;
[0031] 所述处理器用于根据所述程序代码中的指令执行第一方面或第三方面所述的方法。
[0032] 第六方面,本申请实施例提供一种计算机可读存储介质,所述计算机可读存储介质用于存储程序代码,所述程序代码用于执行第一方面或第三方面所述的方法。
[0033] 由上述技术方案可以看出,通过采集说话人说出语音时脸部表情变化的媒体数据,可以确定说话人所对应第一动画形象的第一表情基,通过第一表情基可以体现第一动画形象的不同表情。在确定出用于驱动第二动画形象的目标文本信息后,可以根据目标文本信息、前述采集的媒体数据和第一表情基,确定对应目标文本信息的声学特征和目标表情参数,该声学特征可以标识模拟所述说话人说出所述目标文本信息的声音,该目标表情参数可以标识模拟所述说话人说出所述目标文本信息的脸部表情相对于所述第一表情基
的变化程度。通过声学特征和目标表情参数,可以驱动具有第二表情基的第二动画形象,使得第二动画形象可以通过声学特征模拟发出说话人说出目标文本信息的声音,并且在发声过程中做出符合该说话人应有表情的脸部表情,给用户带来逼真的代入感和沉浸感,提高了用户与动画形象进行交互的体验。

附图说明

[0034] 为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
[0035] 图1为本申请实施例提供的一种基于人工智能的动画形象驱动方法的应用场景示意图;
[0036] 图2为本申请实施例提供的一种基于人工智能的动画形象驱动方法的流程图;
[0037] 图3为本申请实施例提供的一种动画形象驱动系统的结构流程;
[0038] 图4为本申请实施例提供的采集媒体数据的场景示例图;
[0039] 图5为本申请实施例提供的3DMM库M的各个维度分布和意义示例图;
[0040] 图6为本申请实施例提供的一种基于确定捏脸参数的动画形象驱动方法的应用场景示意图;
[0041] 图7为本申请实施例提供的一种基于确定映射关系的动画形象驱动方法的应用场景示意图;
[0042] 图8为本申请实施例提供的时间区间与音素的对应关系的示例图;
[0043] 图9为本申请实施例提供的一种基于人工智能的动画形象驱动方法的流程图;
[0044] 图10a为本申请实施例提供的一种基于人工智能的动画形象驱动方法的流程图;
[0045] 图10b为本申请实施例提供的一种动画形象驱动装置的结构图;
[0046] 图11为本申请实施例提供的一种动画形象驱动装置的结构图;
[0047] 图12为本申请实施例提供的一种设备的结构图;
[0048] 图13为本申请实施例提供的一种服务器的结构图。

具体实施方式

[0049] 下面结合附图,对本申请的实施例进行描述。
[0050] 目前,将具有表情变化能力的动画形象作为与用户交互的交互对象是人机交互的主要研究方向。
[0051] 例如,在游戏场景中,可以构建和用户自己脸型一样的游戏人物(动画形象)等,当用户输入文字或语音时,该游戏人物可以发出语音并做出对应的表情(例如口型等);或者,在游戏场景中,构建和用户自己脸型一样的游戏人物等,当对方输入文字或语音时,该游戏人物可以根据对方的输入回复语音并做出对应的表情。
[0052] 为了可以更好的驱动动画形象,例如驱动动画形象发出语音并做出对应的表情,本申请实施例提供一种基于人工智能的动画形象驱动方法。该方法通过采集说话人说出语音时脸部表情变化的媒体数据,可以确定说话人所对应第一动画形象的第一表情基,在确定出用于驱动第二动画形象的目标文本信息后,可以根据目标文本信息、前述采集的媒体数据和第一表情基,确定对应目标文本信息的声学特征和目标表情参数,从而通过声学特征和目标表情参数驱动具有第二表情基的第二动画形象,使得第二动画形象通过声学特征模拟发出说话人说出目标文本信息的声音,并且在发声过程中做出符合该说话人应有表情的脸部表情,实现基于文本信息驱动第二动画形象。
[0053] 需要强调的是,本申请实施例所提供的动画形象驱动方法是基于人工智能实现的,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
[0054] 人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
[0055] 在本申请实施例中,主要涉及的人工智能技术包括语音处理技术、机器学习和计算机视觉(图像)等方向。
[0056] 例如可以涉及语音技术(Speech Technology)中的语音识别技术(Automatic Speech Recognition,ASR)、语音合成(Text To Speech,TTS)和声纹识别。语音识别技术中包括语音信号预处理(Speech signal preprocessing)、语音信号频域分析(Speech 
signal frequency analyzing)、语音信号特征提取(Speech signal feature 
extraction)、语音信号特征匹配/识别(Speech  signal feature matching/
recognition)、语音的训练(Speech training)等。语音合成中包括文本分析(Text 
analyzing)、语音生成(Speech generation)等。
[0057] 例如可以涉及机器学习(Machine learning,ML),机器学习是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。机器学习是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。机器学习通常包括深度学习(Deep Learning)等技术,深度学习包括人工神经网络(artificial neural network),例如卷积神经网络(Convolutional Neural Network,CNN)、循环神经网络(Recurrent Neural Network,RNN)、深度神经网络(Deep neural network,DNN)等。
[0058] 例如可以涉及计算机视觉(Computer  Vision)中的视频处理(video processing)、视频语义理解(video semantic understanding,VSU)、人脸识别(face 
recognition)等。视频语义理解中包括目标识别(target recognition)、目标检测与定位(target detection/localization)等;人脸识别中包括人脸3D重建(Face3D 
Reconstruction)、人脸检测(Face Detection)、人脸跟踪(Face Tracking)等。
[0059] 本申请实施例提供的基于人工智能的动画形象驱动方法可以应用于具有驱动动画形象能力的音视频处理设备上,该音视频处理设备可以是终端设备,也可以是服务器。
[0060] 该音视频处理设备可以具有实施语音技术的能力,让音视频处理设备能听、能看、能感觉,是未来人机交互的发展方向,其中语音成为未来最被看好的人机交互方式之一。
[0061] 在本申请实施例中,音视频处理设备通过实施上述计算机视觉技术可以确定媒体数据中说话人所对应第一动画形象的第一表情基,通过语音技术和机器学习可以根据目标文本信息和媒体数据,确定对应目标文本信息的声学特征和目标表情参数,进而利用声学特征和目标表情参数,驱动具有第二表情基的第二动画形象。
[0062] 其中,若音视频处理设备是终端设备,则终端设备可以是智能终端、计算机、个人数字助理(Personal Digital Assistant,简称PDA)、平板电脑等。
[0063] 若该音视频处理设备是服务器,则服务器可以为独立服务器,也可以为集群服务器。当服务器实施该方法时,终端设备可以将包含说话人的脸部表情和对应语音的媒体数据上传给服务器,服务器确定出声学特征和目标表情参数,利用该声学特征和目标表情参数驱动终端设备上的第二动画形象。
[0064] 可以理解的是,本申请实施例提供的基于人工智能的动画形象驱动方法可以应用到各种适用动画形象的应用场景,例如新闻播报、天气预报、游戏解说以及游戏场景中允许用于构建和用户自己脸型一样的游戏人物等,还能用于利用动画形象承担私人化的服务的场景,例如心理医生,虚拟助手等面向个人的一对一服务。在这些场景下,利用本申请实施例提供的方法可以实现动画形象的驱动。
[0065] 为了便于理解本申请的技术方案,下面结合实际应用场景对本申请实施例提供的基于人工智能的动画形象驱动方法进行介绍。
[0066] 参见图1,图1为本申请实施例提供的基于人工智能的动画形象驱动方法的应用场景示意图。该应用场景以音视频处理设备为终端设备为例进行介绍,该应用场景中包括终端设备101,终端设备101可以获取包含说话人的脸部表情和对应语音的媒体数据。该媒体数据可以是一个,也可以是多个。媒体数据可以是视频,也可以是视频和音频。媒体数据中语音包括的字符所对应的语种可以是汉语、英语、韩语等各种语种。
[0067] 脸部表情可以是说话人说出语音时脸部所做出的动作,例如可以包括口型、眼睛动作、眉毛动作等,视频观看者通过说话人的脸部表情可以感受到媒体数据中的语音就是该说话人说出的。
[0068] 终端设备101根据脸部表情可以确定说话人所对应第一动画形象的第一表情基,第一表情基用于标识第一动画形象的不同表情。
[0069] 终端设备101在确定出用于驱动第二动画形象的目标文本信息后,可以根据目标文本信息、前述采集的媒体数据和第一表情基,确定对应目标文本信息的声学特征和目标表情参数。其中,表情参数以及后续可能涉及到的捏脸参数的一种表现形式可以是系数,例如可以是具有某一维数的向量。
[0070] 由于媒体数据中语音和脸部表情是同步的,声学特征和目标表情参数均是根据媒体数据得到的,所对应的是同一个时间轴,故,声学特征所标识的声音和目标表情参数所标识的表情在同一时间轴上同步变化。生成的声学特征是与时间轴相关的一个序列,目标表情参数是与同一时间轴相关的序列,二者可以随着文本信息的变化而有相应的调整。但无论如何调整,声学特征用于标识模拟上述媒体数据中说话人说出目标文本信息的声音,目标表情参数用于标识模拟上述媒体数据中说话人说出目标文本信息的脸部表情相对于所述第一表情基的变化程度。
[0071] 之后,终端设备101可以通过声学特征和目标表情参数,驱动具有第二表情基的第二动画形象,使得第二动画形象可以通过声学特征模拟发出说话人说出目标文本信息的声音,并且在发声过程中做出符合该说话人应有表情的脸部表情。其中,第二动画形象可以是与第一动画形象相同的动画形象,也可以是与第一动画形象不同的动画形象,本申请实施例对此不做限定。
[0072] 接下来,将结合附图对本申请实施例提供的基于人工智能的动画形象驱动方法进行详细介绍。参见图2,所述方法包括:
[0073] S201、获取包含说话人的脸部表情和对应语音的媒体数据。
[0074] 包含了脸部表情和对应语音的媒体数据可以是说话人在有摄像头的录音环境,录制说话人说出的语音,以及通过摄像头录制说话人对应的脸部表情得到的。
[0075] 若通过摄像头采集到的视频中同时包括说话人的脸部表情和对应语音,则媒体数据为该视频;若通过摄像头采集到的视频中包括说话人的脸部表情,而语音是通过其他设备例如录音设备采集的,则媒体数据包括视频和音频,此时,该视频和音频是同步采集的,视频中包括说话人的脸部表情,音频中包括说话人的语音。
[0076] 需要说明的是,本申请实施例提供的方法可以通过动画形象驱动系统实现,该系统可以参见图3所示,主要包括四个部分,分别是数据采集模块、脸部建模模块、声学特征和表情参数确定模块以及动画驱动模块。其中,数据采集模块用于执行S201,脸部建模模块用于执行S202,声学特征和表情参数确定模块用于执行S203,动画驱动模块用于执行S204。
[0077] 包含说话人的脸部表情和对应语音的媒体数据可以是通过数据采集模块得到的。该数据采集模块可以有较多的选择,该数据采集模块可以是通过专业设备采集包括说话人的语音和脸部表情的媒体数据,比如使用动作捕捉系统、脸部表情捕捉系统等专业设备来捕捉说话人的脸部表情,例如脸部动作、表情、口型等等,使用专业录音设备录制说话人的语音,不同设备之间通过同步信号触发实现语音和脸部表情的数据同步等等。
[0078] 当然,专业设备并不局限于使用昂贵的捕捉系统,也可以是多视角超高清设备,通过多视角超高清设备采集包括说话人的语音和脸部表情的视频。
[0079] 该数据采集模块还可以利用多相机环绕的方式采集包括说话人的语音和脸部表情的媒体数据。可以选择3个,5个,乃至更多的超高清相机,正面围绕说话人拍摄。采集环境中需要有稳定的环境光照,不要求说话人穿特定的衣服。参见图4所示,图4以3个超高清相机为例,上方虚线箭头表示稳定光照,左侧三个箭头表示超高清相机的视角和说话人的关系,从而采集包括说话人的语音和脸部表情的媒体数据。此时,通过超高清相机采集的视频中可以同时包括语音和脸部表情,即媒体数据为视频。
[0080] 需要说明的是,在采集媒体数据时,根据采集脸部表情所使用传感器的不同,采集的媒体数据的表现形式可以有所不同。在一些情况下,可以通过具有红绿蓝深度(Red Green Blue Deep,RGBD)传感器的对说话人进行拍摄,实现对脸部模型的建立。由于RGBD传感器可以采集到深度信息,得到说话人的三维重建结果,那么,媒体数据中包括说话人对应的脸部静态建模,即3维(3Dimensions,3D)数据。在另外一些情况下,可能没有RGBD传感器而是使用二维传感器对说话人进行拍摄,此时,没有说话人的三维重建结果,媒体数据中包括说话人对应的视频帧,即2维(2Dimensions,2D)数据。
[0081] S202、根据脸部表情确定该说话人所对应第一动画形象的第一表情基。
[0082] 在获取到上述媒体数据后,通过图3中的脸部建模模块可以对说话人进行脸部建模,从而得到说话人所对应第一动画形象的第一表情基,该第一表情基用于标识所述第一动画形象的表情。
[0083] 进行脸部建模的目的在于使得被采集的对象例如前述提到的说话人可以被计算机理解并存储,包括被采集对象的形状、纹理等。进行脸部建模的方式可以包括多种,主要从硬件、人工、软件三个角度来实现。其中,硬件角度实现可以是采用专业设备对说话人进行高精度的扫描,如3D扫描仪器,对得到的脸部模型可以选择手动/自动清理数据;人工角度实现可以是由美术设计师手工设计数据、清理数据、调节数据;软件角度实现可以是采用参数化捏脸算法自动生成说话人脸部模型。
[0084] 在表情参数化时,同样可以从硬件、人工、软件三个角度来实现。比如可以使用专业人脸扫描设备扫描带有表情的说话人之后,会自动给出对当前表情的参数化描述,这种描述与扫描设备中自定义的表情描述相关。而对于美术设计师手工调节的表情参数,一般需要预先定义表情类型和对应的人脸参数化,比如嘴巴的张合程度,脸部肌肉的运动幅度等等。而对于软件实现表情参数化,一般需要定义脸部在不同表情中的数学描述,比如通过对大量真实脸部数据,进行主成分分析方法(Principal Component Analysis,PCA)分解之后,得到最能体现各个表情相对平均脸的变化程度的数字描述。
[0085] 在本实施例中,主要对基于软件的脸部建模和表情参数化进行介绍。在这种情况下,脸部在不同表情中的数学描述可以通过模型库定义。本申请实施例中的动画形象(例如第一动画形象和后续的第二动画形象)可以为模型库中的模型,也可以是通过模型库中模型的线性组合得到的。该模型库可以是人脸3D可变形模型(3DMM)库,也可以是其他模型库,本实施对此不做限定。动画形象可以是一个3D网格。
[0086] 以3DMM库为例,3DMM库由大量高精度脸部数据通过主成分分析方法得到,描述了高维脸型和表情相对平均脸的主要变化,也可以描述纹理信息。
[0087] 一般来说,3DMM库描述一个无表情的脸型时,可以通过mu+∑(Pfacei-mu)*αi得到。其中,mu是自然表情下的平均脸,Pfacei是第i个脸型主成分分量,αi就是各个脸型主成分分量的权重,也就是捏脸参数。
[0088] 假设3DMM库中的动画形象对应的网格可以通过M表示,即通过M表示3DMM库中的脸型、表情和顶点之间的关系,M是一个[m×n×d]的三维矩阵,其中每一维分别为网格的顶点坐标(m)、脸型主成分(n)、表情主成分(d)。3DMM库M的各个维度分布和意义如图5所示。由于m表示xyz三个坐标的值,所以网格的顶点数为m/3,记作v。如果确定了动画形象的脸型或者表情,那么M可以是一个二维矩阵。
[0089] 在本申请实施例中,不考虑3DMM库中的纹理维度,假设动画形象的驱动为F,则:
[0090]
[0091] 其中,M为动画形象的网格,α为捏脸参数,β为表情参数;n为捏脸基中捏脸网格的个数,d为表情基中表情网格的个数,Mk,j,i为具有第i个表情网格、第j个捏脸网格的第k个网格,αj为一组捏脸参数中的第j维,表示第j个脸型主成分分量的权重,βi为一组表情参数中的第i维,表示第i个表情主成分分量的权重。
[0092] 其中,确定捏脸参数的过程为捏脸算法,确定表情参数的过程为捏表情算法。捏脸参数用于与捏脸基做线性组合得到对应的脸型,例如存在一个包括50个捏脸网格(属于可变形网格,例如blendshape)的捏脸基,该捏脸基对应的捏脸参数为一个50维的向量,每一维可以标识该捏脸参数所对应脸型与一个捏脸网格的相关程度。捏脸基所包括的捏脸网格分别代表不同脸型,每一个捏脸网格均为相对平均脸变化较大的脸部形象,是大量的脸通过PCA分解之后的得到的不同维度的脸型主成分,且同一个捏脸基中不同捏脸网格对应的顶点序号保持一致。
[0093] 表情参数用于与表情基做线性组合得到对应的表情,例如存在一个包括50个(相当于维数为50)表情网格(属于可变形网格,例如blendshape)的表情基,该表情基对应的表情参数为一个50维的向量,每一维可以标识该表情参数所对应表情与一个表情网格的相关程度。表情基所包括的表情网格分别代表不同表情,每一个表情网格均由同一个3D模型在不同表情下变化而成,同一个表情基中不同表情网格对应的顶点序号保持一致。
[0094] 针对前述的可变形网格,单个网格可以通过预定义形状变形,得到任意数量网格。
[0095] 结合上述公式(1),可以得到说话人所对应第一动画形象的第一表情基,从而用于后续第二动画形象的驱动。
[0096] S203、根据目标文本信息、该媒体数据和第一表情基确定对应目标文本信息的声学特征和目标表情参数。
[0097] 通过图3中的声学特征和表情参数确定模块可以确定对应目标文本信息的声学特征和目标表情参数。其中,声学特征用于标识模拟说话人说出目标文本信息的声音,目标表情参数用于标识模拟说话人说出目标文本信息的脸部表情相对于第一表情基的变化程度。
[0098] 可以理解的是,目标文本信息的获取方式可以包括多种,例如,目标文本信息可以是用户通过终端设备输入的,也可以是根据输入至终端设备的语音转换得到的。
[0099] S204、根据声学特征和目标表情参数,驱动具有第二表情基的第二动画形象。
[0100] 通过图3中的动画驱动模块将目标表情参数所标识的表情,配合声学特征所标识的语音,通过人类能直观理解的方式,利用多种感官来展示。其中一种可行的方式是,假设目标表情参数表示了第二表情基中各个表情网格的权重,通过第二表情基加权线性组合可以得到对应的表情。在发出语音的同时,通过渲染方法将做出与该语音对应表情的第二动画形象渲染出来,从而实现第二动画形象的驱动。
[0101] 由上述技术方案可以看出,通过采集说话人说出语音时脸部表情变化的视频,可以确定说话人所对应第一动画形象的第一表情基,通过第一表情基可以体现第一动画形象的不同表情。在确定出用于驱动第二动画形象的目标文本信息后,可以根据目标文本信息、前述采集的媒体数据和第一表情基,确定对应目标文本信息的声学特征和目标表情参数,该声学特征可以标识模拟所述说话人说出所述目标文本信息的声音,该目标表情参数可以标识模拟所述说话人说出所述目标文本信息的脸部表情相对于所述第一表情基的变化程度。通过声学特征和目标表情参数,可以驱动具有第二表情基的第二动画形象,使得第二动画形象可以通过声学特征模拟发出说话人说出目标文本信息的声音,并且在发声过程中做出符合该说话人应有表情的脸部表情,给用户带来逼真的代入感和沉浸感,提高了用户与动画形象进行交互的体验。
[0102] 需要说明的是,S203的实现方式可以包括多种,本申请实施例着重对一种实现方式进行介绍。
[0103] 在一种可能的实现方式中,S203的实现方式可以是根据目标文本信息和媒体数据,确定对应目标文本信息的声学特征和表情特征。该声学特征用于标识模拟说话人说出目标文本信息的声音,该表情特征用于标识模拟说话人说出所述目标文本信息的脸部表
情。然后,根据第一表情基和表情特征确定目标表情参数。
[0104] 具体的,由于媒体数据中已经同步记录了说话人的脸部表情和语音,即媒体数据中说话人的脸部表情和语音对应同一时间轴。故,可以在线下预先收集大量的媒体数据作为训练数据,从这些媒体数据中提取文本特征、声学特征和表情特征,根据这些特征训练得到时长模型、声学模型、表情模型。当线上获取包含说话人的脸部表情和对应语音的媒体数据时,可以使用时长模型确定目标文本信息对应的时长,再将时长结合目标文本信息对应的文本特征分别通过声学模型和表情模型确定对应的声学特征和表情特征。由于声学特征和表情特征都是基于同一个时长模型得到的时长,因此很容易做到语音以及表情的同步,从而使得第二动画形象在模拟说话人说出目标文本信息对应语音的同时,模拟说话人做出相应的表情。
[0105] 接下来,将对S204的可能实现方式进行介绍。应理解,在本实施例中,第二动画形象可以是与第一动画形象相同的动画形象,也可以是与第一动画形象不同的动画形象。在这两种情况下,S204的实现方式可能有所不同。
[0106] 第一种情况:第一动画形象和第二动画形象为同一个动画形象。
[0107] 在这种情况下,所需驱动的动画形象即第一动画形象。那么,为了驱动第一动画形象,除了需要确定第一表情基,还需要确定第一动画形象的捏脸参数,得到第一动画形象的脸型。因此,在S202中,可以根据脸部表情确定第一动画形象的第一表情基和第一动画形象的捏脸参数,该捏脸参数用于标识第一动画形象的脸型相对于第一动画形象所对应捏脸基的变化程度。
[0108] 确定第一动画形象的第一表情基和第一动画形象的捏脸参数的方式有很多种。在一些情况下,基于媒体数据确定捏脸参数以建立脸部模型时,所采集的媒体数据往往精度不高,噪声较大,使得建立的脸部模型质量不高,具有很多不确定性,难以准确体现待建对象的实际外形。例如,由于采集不规范导致建模质量低;重建过程容易受到环境光照、用户化妆等影响;重建的脸部模型中含有表情,并非自然状态;建立的脸部模型无法适应之后将要提取表情参数的视频等。为了解决这一问题,本申请实施例提供一种捏脸参数的确定方法,参见图6所示。
[0109] 在图6中,若获取的媒体数据中可以包括多组脸部顶点数据,可以基于其中的第一顶点数据,以及3DMM库中用于标识目标脸部模型的目标顶点数据,可以确定初始捏脸参数。在确定出初始捏脸参数的基础上,通过获取媒体数据中的第二顶点数据,基于初始捏脸参数和目标顶点数据确定表情参数,之后,固定该表情参数,反推捏脸参数或者说反推如何变化脸型得到在该表情参数下的说话人的脸部形象,即通过固定表情反推脸型的方式修正初始捏脸参数,从而将该目标捏脸参数作为第一动画形象的捏脸参数。
[0110] 由于第二顶点数据和第一顶点数据分别标识待建对象的不同脸部形象,故第二顶点数据和第一顶点数据受到完全相同的不确定性影响的几率较小,在通过第一顶点数据确定出初始捏脸参数的基础上,通过第二顶点数据修正出的目标捏脸参数可以一定程度上抵消第一顶点数据中的噪声,以目标捏脸参数确定出的说话人对应的脸部模型精确度相对更高。
[0111] 由于第一表情基与第二表情基相同,即二者的维数以及各个维数的语义信息相同,确定出的目标表情参数可以直接驱动第二动画形象,故,在S204中驱动第二动画形象的方式可以是根据声学特征、目标表情参数和捏脸参数,驱动具有第二表情基的第二动画形象。
[0112] 第二种情况:第一动画形象和第二动画形象为不同动画形象。
[0113] 在这种情况下,第一表情基与第二表情基不同,即二者的维数以及各个维数的语义信息存在不同,故难以直接利用目标表情参数驱动具有第二表情基的第二动画形象。由于第一动画形象对应的表情参数与第二动画形象对应的表情参数应具有映射关系,第一动画形象对应的表情参数与第二动画形象对应的表情参数间的映射关系可以通过函数f()表示,则通过第一动画形象对应的表情参数计算第二动画形象对应的表情参数的公式如
下:
[0114] βb=f(βa)  (2)
[0115] 其中,βb为第二动画形象对应的表情参数,βa为第一动画形象对应的表情参数,f()表示第一动画形象对应的表情参数与第二动画形象对应的表情参数间的映射关系。
[0116] 故,若确定出该映射关系,便可以利用第一动画形象(例如动画形象a)对应的表情参数直接驱动第二动画形象(例如动画形象b)。其中,映射关系可以是线性映射关系,也可以是非线性映射关系。
[0117] 为了实现根据目标表情参数驱动具有第二表情基的第二动画形象,需要确定出映射关系。确定映射关系的方式可以包括多种,本实施例主要对两种确定方式进行介绍。
[0118] 第一种确定方式可以是基于第一动画形象对应的第一表情基和第二动画形象对应的第二表情基,确定表情参数间的映射关系。参见图7所示,由于第一动画形象对应的实际表情参数可以驱动被第一动画形象做出实际表情,该实际表情参数可以体现该实际表情与其表情基的不同维度下的相关程度,即第二动画形象对应的实际表情参数也可以体现第二动画形象的实际表情与其表情基的不同维度下的相关程度,故基于上述表情参数与表情基间的关联关系,可以根据第一动画形象对应的第一表情基和第二动画形象对应的第二表情基,确定出表情参数间的映射关系。然后,根据声学特征、目标表情参数和该映射关系,驱动具有第二表情基的第二动画形象。
[0119] 第二种确定方式可以是基于音素和第二表情基之间的预设关系确定表情参数间的映射关系。
[0120] 音素是根据语音的自然属性划分出来的最小语音单位,依据音节里的发音动作来分析,一个动作(例如口型)构成一个音素。也就是说,音素与说话人无关,无论说话人是谁、无论语音是英语还是汉语、无论发出音素所对应的文本是否相同,只要语音中一个时间区间内的音素相同,那么,对应的表情例如口型具有一致性。参见图8所示,图8示出了时间区间与音素的对应关系,描述了在一个语音中,哪个时间区间对应了哪个音素。例如,第二行中“5650000”和“6300000”代表时间戳,表示5.65秒至6.3秒这一时间区间,在该时间区间内说话人发出的音素是“u”。音素的统计方法并不唯一,本实施例以33个中文音素为例。
[0121] 由于媒体数据中,面部表情和语音是同步采集的,因此可以方便的通过语音的划分,得到对应的视频帧,即根据媒体数据确定语音所标识音素、该音素对应的时间区间和媒体数据处于该时间区间的视频帧。然后,根据该视频帧确定音素对应的第一表情参数,第一表情参数用于标识发出该音素时说话人的脸部表情相对于第一表情基的变化程度。
[0122] 例如图8中第二行,对于音素“u”,其所对应的时间区间是5.65秒至6.3秒,确定处于时间区间5.65秒至6.3秒的视频帧,根据该视频帧提取音素“u”对应的第一表情参数。若a a第一动画形象为动画形象a,第一表情参数可以用β表示。若第一表情基的维数是n ,则得到的第一表情参数βa为一组na长度的向量。
[0123] 由于该确定映射关系的方式的前提是其他动画形象的表情基例如第二动画形象对应的第二表情基是根据与音素的预设关系生成的,预设关系表示的是一个音素对应一个表情网格,比如对于第二动画形象b而言,预设关系中音素“u”对应第1个表情网格,音素“i”对应第2个表情网格……,若音素的个数为nb个,则根据预设关系可以确定出包括nb个表情网格的第二表情基。那么,当确定出语音所标识的音素后,便可以根据预设关系和第二表情基,确定该音素对应的第二表情参数。然后,根据第一表情参数和第二表情参数,确定映射关系。
[0124] 例如,语音所标识的音素为“u”,通过第二表情基和预设关系可知音素“u”对应第1个表情网格,则可以确定出第二表情参数为βb=[1 0 … 0],βb中包括nb个元素,除了第一个元素为1,其余nb-1个元素均为0。
[0125] 由此,一组βb和βa的映射关系就建立了。当得到大量第一表情参数βa时,可以产生大量对应的第二表情参数βb。假设第一表情参数βa和第二表情参数βb的个数分别是L个,L个第一表情参数βa构成第一矩阵,L个第二表情参数βb构成第二矩阵,分别记作βA和βB。有:
[0126] βA=[L×na],βB=[L×nb]  (3)
[0127] 本方案以第一表情参数和第二表情参数之间满足线性映射关系为例,则上述公式(2)可以变形为:
[0128] βb=f*βa  (4)
[0129] 根据公式(3)和(4)所示,则映射关系的确定公式可以为:
[0130] f=βB*inv(βA)  (5)
[0131] 其中,f为映射关系,βA为第一矩阵,βB为第二矩阵,inv为矩阵求逆运算。
[0132] 在得到映射关系f后,对于任意一组第一表情参数βa,可以得到对应的βb=f*βa,从而根据第一表情参数得到第二表情参数,以便驱动第二动画形象,例如动画形象b。
[0133] 前述实施例主要介绍了如何基于文本信息驱动动画形象。在一些情况下,还可以基于媒体数据直接驱动动画形象。例如,媒体数据中说话人所对应第一动画形象具有第一表情基,第一表情基的维数为第一维数,顶点拓扑为第一顶点拓扑,第一表情基可以用Ea表示,第一维数可以用Na表示,第一顶点拓扑可以用Ta表示,第一表情基Ea的样子是Fa;待驱动的第二动画形象具有第二表情基,第二表情基的维数为第二维数,顶点拓扑为第二顶点拓扑,第二表情基可以用Eb表示,第二维数可以用Nb表示,第二顶点拓扑可以用Tb表示,第二表情基Eb的样子是Fb,希望通过包括该说话人脸部表情和语音的媒体数据来驱动第二动画形象。
[0134] 为此,本申请实施例还提供一种基于人工智能的动画形象驱动方法,参见图9所示,所述方法包括:
[0135] S901、获取包含说话人的脸部表情和对应语音的第一媒体数据。
[0136] S902、根据脸部表情确定所述说话人所对应第一动画形象的第一表情基。
[0137] S903、根据第一表情基和待驱动的第二动画形象的第二表情基,确定目标表情基。
[0138] 在本实施例中,由于第一表情基的维数与第二表情基的维数不同,为了可以利用媒体数据中该说话的脸部表情和语音驱动第二动画形象,可以构造出一个新的表情基例如目标表情基,使得该目标表情基同时具有第一表情基和第二表情基的特点。
[0139] 在一种实现方式中,S903的实现方式可以是:从第一表情基中确定第一动画形象处于无表情时对应的无表情网格,并从第二表情基中确第二动画形象处于无表情时对应的无表情网格。根据第一形象对应的无表情网格和第二形象对应的无表情网格,确定调整网格,该调整网格具有第二顶点拓扑,用于标识处于无表情时的第一动画形象。根据调整网格和第二表情基中的网格形变关系,生成目标表情基。
[0140] 若第一表情基为Ea,第一维数为Na,第一顶点拓扑为Ta,第一表情基Ea的样子是Fa;第二表情基为Eb,第二维数为Nb,第二顶点拓扑为Tb,第二表情基Eb的样子是Fb,则该方法的流程图还可以参见图10a所示。基于第一表情基Ea和第二表情基Eb确定目标表情基Eb’。其中,确定目标表情基Eb’的方式可以是提取第二表情基Eb的无表情网格和第一表情基Ea的无表情网格。通过捏脸算法例如nricp算法,将Eb的无表情网格贴到Ea的无表情网格上,使得Eb的无表情网格在保持顶点拓扑Fb的前提下,改变样子,变成Ea的样子,得到调整网格,该调整网格可以表示为Newb。随后,由于Newb
[0141] 和第二表情基Eb中各个维度的表情相对自然表情(无表情)的网格形变关系是已知的,故,可以根据Newb和第二表情基Eb中的网格形变关系从Newb中形变出目标表情基
Eb’。目标表情基Eb’的样子是Fa,维数是Nb,顶点拓扑是Tb。
[0142] S904、根据包含所述说话人的脸部表情和对应语音的第二媒体数据和所述目标表情基,确定目标表情参数和声学特征。
[0143] 在得到目标表情基后,基于根据包含该说话人的脸部表情和对应语音的第二媒体数据和该目标表情基,提取出声学特征并通过捏表情算法得到目标表情参数Bb。其中,目标表情参数用于标识说话人说出所述语音的脸部表情相对于目标表情基的变化程度。
[0144] 可以理解的是,利用该方法得到的目标表情参数和声学特征可以用于重新训练前述所提到的声学模型、表情模型。
[0145] S905、根据目标表情参数和声学特征,驱动具有第二表情基的所述第二动画形象。
[0146] S901、S902和S905的具体实现方式分别可以参见前述S201、S202和S204的实现方式,此处不再赘述。
[0147] 接下来,将结合实际应用场景对本申请实施例提供的基于人工智能的动画形象驱动方法进行介绍。
[0148] 在该应用场景中,在该应用场景中,假设第一动画形象为仿照说话人的形象构建的,第二动画形象为在游戏中与用户进行交互的游戏角色的形象。当该游戏角色通过输入的目标文本信息与用户进行交流时,希望通过该目标文本信息驱动该游戏角色模仿说话人发出目标文本信息对应的语音,并做出对应的表情。故,终端设备可以获取包含说话人的脸部表情和对应语音的媒体数据,根据脸部表情确定该说话人所对应第一动画形象的第一表情基。接着,根据目标文本信息、媒体数据和第一表情基,确定对应所述目标文本信息的声学特征和目标表情参数,从而根据该声学特征和目标表情参数,驱动具有第二表情基的第二动画形象,使得第二动画形象发出目标文本信息对应的语音,并做出对应的表情。这样,用户可以看到该游戏角色模仿说话人说出语音,并做出对应的表情,为用户带来逼真的代入感和沉浸感,提高了用户与动画形象进行交互的体验。
[0149] 基于前述实施例提供的方法,本实施例还提供一种动画形象驱动装置,参见图10b,所述装置包括获取单元1001、第一确定单元1002、第二确定单元1003和驱动单元1004:
[0150] 所述获取单元1001,用于获取包含说话人的脸部表情和对应语音的媒体数据;
[0151] 所述第一确定单元1002,用于根据所述脸部表情确定所述说话人所对应第一动画形象的第一表情基,所述第一表情基用于标识所述第一动画形象的表情;
[0152] 所述第二确定单元1003,用于根据目标文本信息、所述媒体数据和所述第一表情基,确定对应所述目标文本信息的声学特征和目标表情参数;所述声学特征用于标识模拟所述说话人说出所述目标文本信息的声音,所述目标表情参数用于标识模拟所述说话人说出所述目标文本信息的脸部表情相对于所述第一表情基的变化程度;
[0153] 所述驱动单元1004,用于根据所述声学特征和所述目标表情参数,驱动具有第二表情基的第二动画形象。
[0154] 在一种可能的实现方式中,所述第一动画形象和所述第二动画形象为同一个动画形象,所述第一表情基与所述第二表情基相同,所述第一确定单元1002,用于:
[0155] 根据所述脸部表情确定所述第一动画形象的第一表情基和所述第一动画形象的捏脸参数,所述捏脸参数用于标识所述第一动画形象的脸型相对于所述第一动画形象所对应捏脸基的变化程度;
[0156] 所述根据所述声学特征和所述目标表情参数,驱动具有第二表情基的第二动画形象,包括:
[0157] 根据所述声学特征、所述目标表情参数和所述捏脸参数,驱动具有第二表情基的第二动画形象。
[0158] 在一种可能的实现方式中,所述第一动画形象和所述第二动画形象为不同动画形象,所述第一表情基与所述第二表情基不同,所述驱动单元1004,用于:
[0159] 确定所述第一表情基所对应表情参数与所述第二表情基所对应表情参数间的映射关系;
[0160] 根据所述声学特征、所述目标表情参数和所述映射关系,驱动具有所述第二表情基的第二动画形象。
[0161] 在一种可能的实现方式中,所述第二表情基是根据与音素的预设关系生成的,所述驱动单元1004,还用于:
[0162] 根据所述媒体数据确定所述语音所标识音素、所述音素对应的时间区间和所述媒体数据处于所述时间区间的视频帧;
[0163] 根据所述视频帧确定所述音素对应的第一表情参数,所述第一表情参数用于标识发出所述音素时所述说话人的脸部表情相对于所述第一表情基的变化程度;
[0164] 根据所述预设关系和所述第二表情基,确定所述音素对应的第二表情参数;
[0165] 根据所述第一表情参数和所述第二表情参数,确定所述映射关系。
[0166] 在一种可能的实现方式中,所述第二确定单元1003,用于:
[0167] 根据所述目标文本信息和所述媒体数据,确定对应所述目标文本信息的声学特征和表情特征;所述声学特征用于标识模拟所述说话人说出所述目标文本信息的声音,所述表情特征用于标识模拟所述说话人说出所述目标文本信息的脸部表情;
[0168] 根据所述第一表情基和所述表情特征确定所述目标表情参数。
[0169] 本实施例还提供一种动画形象驱动装置,参见图11,所述装置包括获取单元1101、第一确定单元1102、第二确定单元1103、第三确定单元1104和驱动单元1105:
[0170] 所述获取单元1101,用于获取包含说话人的脸部表情和对应语音的第一媒体数据;
[0171] 所述第一确定单元1102,用于根据所述脸部表情确定所述说话人所对应第一动画形象的第一表情基,所述第一表情基用于标识所述第一动画形象的表情;所述第一表情基的维数为第一维数,顶点拓扑为第一顶点拓扑;
[0172] 所述第二确定单元1103,用于根据所述第一表情基和待驱动的第二动画形象的第二表情基,确定目标表情基;所述第二表情基的维数为第二维数,顶点拓扑为第二顶点拓扑,所述目标表情基为具有第二顶点拓扑的第一动画形象对应的表情基,所述目标表情基的维数为第二维数;
[0173] 所述第三确定单元1104,用于根据包含所述说话人的脸部表情和对应语音的第二媒体数据和所述目标表情基,确定目标表情参数和声学特征;所述目标表情参数用于标识所述说话人说出所述语音的脸部表情相对于所述目标表情基的变化程度;
[0174] 所述驱动单元1105,用于根据所述目标表情参数和声学特征,驱动具有所述第二表情基的所述第二动画形象。
[0175] 在一种可能的实现方式中,所述第二确定单元1103,用于从所述第一表情基中确定所述第一动画形象处于无表情时对应的无表情网格,并从所述第二表情基中确所述第二动画形象处于无表情时对应的无表情网格;
[0176] 根据所述第一动画形象对应的无表情网格和所述第二动画形象对应的无表情网格,确定调整网格,所述调整网格具有第二顶点拓扑,用于标识处于无表情时的第一动画形象;
[0177] 根据所述调整网格和所述第二表情基中的网格形变关系,生成所述目标表情基。
[0178] 本申请实施例还提供了一种设备,该设备可以通过语音驱动动画,该设备可以为音视频处理设备。下面结合附图对该设备进行介绍。请参见图12所示,本申请实施例提供了一种设备1200,该设备1200还可以是终端设备,该终端设备可以为包括手机、平板电脑、个人数字助理(Personal Digital Assistant,简称PDA)、销售终端(Point of Sales,简称POS)、车载电脑等任意智能终端,以终端设备为手机为例:
[0179] 图12示出的是与本申请实施例提供的终端设备相关的手机的部分结构的框图。参考图12,手机包括:射频(Radio Frequency,简称RF)电路1210、存储器1220、输入单元1230、显示单元1240、传感器1250、音频电路1260、无线保真(wireless fidelity,简称WiFi)模块1270、处理器1280、以及电源1290等部件。本领域技术人员可以理解,图12中示出的手机结构并不构成对手机的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
[0180] 下面结合图12对手机的各个构成部件进行具体的介绍:
[0181] RF电路1210可用于收发信息或通话过程中,信号的接收和发送,特别地,将基站的下行信息接收后,给处理器1280处理;另外,将设计上行的数据发送给基站。通常,RF电路1210包括但不限于天线、至少一个放大器、收发信机、耦合器、低噪声放大器(Low Noise Amplifier,简称LNA)、双工器等。此外,RF电路1210还可以通过无线通信与网络和其他设备通信。上述无线通信可以使用任一通信标准或协议,包括但不限于全球移动通讯系统
(Global System of Mobile communication,简称GSM)、通用分组无线服务(General 
Packet Radio Service,简称GPRS)、码分多址(Code Division MultipleAccess,简称
CDMA)、宽带码分多址(Wideband Code Division Multiple Access,简称WCDMA)、长期演进(Long Term Evolution,简称LTE)、电子邮件、短消息服务(Short Messaging Service,简称SMS)等。
[0182] 存储器1220可用于存储软件程序以及模块,处理器1280通过运行存储在存储器1220的软件程序以及模块,从而执行手机的各种功能应用以及数据处理。存储器1220可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器1220可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
[0183] 输入单元1230可用于接收输入的数字或字符信息,以及产生与手机的用户设置以及功能控制有关的键信号输入。具体地,输入单元1230可包括触控面板1231以及其他输入设备1232。触控面板1231,也称为触摸屏,可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触控面板1231上或在触控面板1231附近的操作),并根据预先设定的程式驱动相应的连接装置。可选的,触控面板1231可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给处理器1280,并能接收处理器1280发来的命令并加以执行。此外,可以采用电阻式、电容式、红外线以及表面声波等多种类型实现触控面板1231。除了触控面板1231,输入单元1230还可以包括其他输入设备1232。具体地,其他输入设备1232可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆等中的一种或多种。
[0184] 显示单元1240可用于显示由用户输入的信息或提供给用户的信息以及手机的各种菜单。显示单元1240可包括显示面板1241,可选的,可以采用液晶显示器(Liquid 
Crystal Display,简称LCD)、有机发光二极管(OrganicLight-Emitting Diode,简称OLED)等形式来配置显示面板1241。进一步的,触控面板1231可覆盖显示面板1241,当触控面板
1231检测到在其上或附近的触摸操作后,传送给处理器1280以确定触摸事件的类型,随后处理器1280根据触摸事件的类型在显示面板1241上提供相应的视觉输出。虽然在图12中,触控面板1231与显示面板1241是作为两个独立的部件来实现手机的输入和输入功能,但是在某些实施例中,可以将触控面板1231与显示面板1241集成而实现手机的输入和输出功
能。
[0185] 手机还可包括至少一种传感器1250,比如光传感器、运动传感器以及其他传感器。具体地,光传感器可包括环境光传感器及接近传感器,其中,环境光传感器可根据环境光线的明暗来调节显示面板1241的亮度,接近传感器可在手机移动到耳边时,关闭显示面板
1241和/或背光。作为运动传感器的一种,加速计传感器可检测各个方向上(一般为三轴)加速度的大小,静止时可检测出重力的大小及方向,可用于识别手机姿态的应用(比如横竖屏切换、相关游戏、磁力计姿态校准)、振动识别相关功能(比如计步器、敲击)等;至于手机还可配置的陀螺仪、气压计、湿度计、温度计、红外线传感器等其他传感器,在此不再赘述。
[0186] 音频电路1260、扬声器1261,传声器1262可提供用户与手机之间的音频接口。音频电路1260可将接收到的音频数据转换后的电信号,传输到扬声器1261,由扬声器1261转换为声音信号输出;另一方面,传声器1262将收集的声音信号转换为电信号,由音频电路1260接收后转换为音频数据,再将音频数据输出处理器1280处理后,经RF电路1210以发送给比如另一手机,或者将音频数据输出至存储器1220以便进一步处理。
[0187] WiFi属于短距离无线传输技术,手机通过WiFi模块1270可以帮助用户收发电子邮件、浏览网页和访问流式媒体等,它为用户提供了无线的宽带互联网访问。虽然图12示出了WiFi模块1270,但是可以理解的是,其并不属于手机的必须构成,完全可以根据需要在不改变发明的本质的范围内而省略。
[0188] 处理器1280是手机的控制中心,利用各种接口和线路连接整个手机的各个部分,通过运行或执行存储在存储器1220内的软件程序和/或模块,以及调用存储在存储器1220内的数据,执行手机的各种功能和处理数据,从而对手机进行整体监控。可选的,处理器1280可包括一个或多个处理单元;优选的,处理器1280可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器1280中。
[0189] 手机还包括给各个部件供电的电源1290(比如电池),优选的,电源可以通过电源管理系统与处理器1280逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。
[0190] 尽管未示出,手机还可以包括摄像头、蓝牙模块等,在此不再赘述。
[0191] 在本实施例中,该终端设备所包括的处理器1280还具有以下功能:
[0192] 获取包含说话人的脸部表情和对应语音的媒体数据;
[0193] 根据所述脸部表情确定所述说话人所对应第一动画形象的第一表情基,所述第一表情基用于标识所述第一动画形象的表情;
[0194] 根据目标文本信息、所述媒体数据和所述第一表情基,确定对应所述目标文本信息的声学特征和目标表情参数;所述声学特征用于标识模拟所述说话人说出所述目标文本信息的声音,所述目标表情参数用于标识模拟所述说话人说出所述目标文本信息的脸部表情相对于所述第一表情基的变化程度;
[0195] 根据所述声学特征和所述目标表情参数,驱动具有第二表情基的第二动画形象。
[0196] 或,
[0197] 获取包含说话人的脸部表情和对应语音的第一媒体数据;
[0198] 根据所述脸部表情确定所述说话人所对应第一动画形象的第一表情基,所述第一表情基用于标识所述第一动画形象的表情;所述第一表情基的维数为第一维数,顶点拓扑为第一顶点拓扑;
[0199] 根据所述第一表情基和待驱动的第二动画形象的第二表情基,确定目标表情基;所述第二表情基的维数为第二维数,顶点拓扑为第二顶点拓扑,所述目标表情基为具有第二顶点拓扑的第一动画形象对应的表情基,所述目标表情基的维数为第二维数;
[0200] 根据包含所述说话人的脸部表情和对应语音的第二媒体数据和所述目标表情基,确定目标表情参数和声学特征;所述目标表情参数用于标识所述说话人说出所述语音的脸部表情相对于所述目标表情基的变化程度;
[0201] 根据所述目标表情参数和声学特征,驱动具有所述第二表情基的所述第二动画形象。
[0202] 本申请实施例还提供服务器,请参见图13所示,图13为本申请实施例提供的服务器1300的结构图,服务器1300可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上中央处理器(Central Processing Units,简称CPU)1322(例如,一个或一个以上处理器)和存储器1332,一个或一个以上存储应用程序1342或数据1344的存储介质1330(例如一个或一个以上海量存储设备)。其中,存储器1332和存储介质1330可以是短暂存储或持久存储。存储在存储介质1330的程序可以包括一个或一个以上模块(图示没标出),每个模块可以包括对服务器中的一系列指令操作。更进一步地,中央处理器1322可以设置为与存储介质1330通信,在服务器1300上执行存储介质1330中的一系列指令操作。
[0203] 服务器1300还可以包括一个或一个以上电源1326,一个或一个以上有线或无线网络接口1350,一个或一个以上输入输出接口1358,和/或,一个或一个以上操作系统1341,例如Windows ServerTM,Mac OS XTM,UnixTM,LinuxTM,FreeBSDTM等等。
[0204] 上述实施例中由服务器所执行的步骤可以基于该图13所示的服务器结构。
[0205] 本申请实施例还提供一种计算机可读存储介质,所述计算机可读存储介质用于存储程序代码,所述程序代码用于执行前述各个实施例所述的动画形象驱动方法。
[0206] 本申请实施例还提供一种包括指令的计算机程序产品,当其在计算机上运行时,使得计算机执行前述各个实施例所述的动画形象驱动方法。
[0207] 本申请的说明书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例例如能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
[0208] 应当理解,在本申请中,“至少一个(项)”是指一个或者多个,“多个”是指两个或两个以上。“和/或”,用于描述关联对象的关联关系,表示可以存在三种关系,例如,“A和/或B”可以表示:只存在A,只存在B以及同时存在A和B三种情况,其中A,B可以是单数或者复数。字符“/”一般表示前后关联对象是一种“或”的关系。“以下至少一项(个)”或其类似表达,是指这些项中的任意组合,包括单项(个)或复数项(个)的任意组合。例如,a,b或c中的至少一项(个),可以表示:a,b,c,“a和b”,“a和c”,“b和c”,或“a和b和c”,其中a,b,c可以是单个,也可以是多个。
[0209] 在本申请所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
[0210] 所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
[0211] 另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
[0212] 所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式
体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,简称ROM)、随机存取存储器(Random Access Memory,简称RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
[0213] 以上所述,以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。