一种生成视频动画的方法及装置转让专利

申请号 : CN200810184517.5

文献号 : CN101436312B

文献日 :

基本信息:

PDF:

法律信息:

相似专利:

发明人 : 路依莎林夏祥王建宇

申请人 : 腾讯科技(深圳)有限公司

摘要 :

本发明实施方式提供了一种生成视频动画的方法及装置,该方法及装置属于动画领域,该方法包括:接收用户发送的命令,并根据所述命令确定所述命令对应的动作,并确定所述动作对应的总帧数和各帧的移动系数;根据所述各帧的移动系数计算出每个控制点在各帧的偏移量,并根据所述各帧的偏移量和总帧数生成视频动画。本发明具体实施方式还提供一种生成视频动画的装置,该方法及装置具有数据计算量小,生成视频动画时间较短,应用范围大的优点。

权利要求 :

1.一种生成视频动画的方法,其特征在于,所述方法包括:

接收用户发送的命令,并根据所述命令确定所述命令对应的动作,并确定所述动作对应的总帧数和各帧的移动系数;

根据所述各帧的移动系数计算出每个控制点在各帧的偏移量,并根据所述各帧的偏移量和总帧数生成视频动画,所述偏移量包括水平方向偏移量和竖直方向偏移量,所述根据所述各帧的偏移量和总帧数生成视频动画包括:A、根据所述各帧的偏移量计算各帧控制点的目标坐标,具体为,控制点的目标坐标为:水平方向目标点坐标=基准点水平方向的坐标+水平方向偏移量;

竖直方向目标点坐标=基准点竖直方向的坐标+竖直方向偏移量;

所述基准点为,当为眼睛、眉毛、点头、摆头或嘴巴动作时,所述基准点为控制点,当为左右歪头时,所述基准点为面部中轴线与头部下外轮廓的交点坐标;

B、根据所述各帧控制点的目标坐标及总帧数生成视频动画。

2.根据权利要求1所述的方法,其特征在于,所述确定所述动作对应的总帧数和各帧的移动系数包括:由用户自行设定所述动作对应的总帧数和各帧的移动系数;

或预先设定所述动作对应的总帧数和各帧的移动系数。

3.根据权利要求1所述的方法,其特征在于,如确定所述动作为眼睛或眉毛的动作,则所述根据所述各帧的移动系数计算出每个控制点在各帧的偏移量具体为:水平方向偏移量=(A_x-Src_x)*m_eyeCoef;

竖直方向偏移量=(A_y-Src_y)*m_eyeCoef;

其中Src_x、Src_y为控制点的原始坐标,所述控制点的原始坐标为未进行视频动画生成前的图片在网格模型中交点的坐标;A_x、A_y为控制点原始坐标向基准线做垂线时,垂线与基准线的交点坐标,其中当为眼睛动作时,基准线为眼角连线,当为眉毛动作时,基准线为面部中轴线,m_eyeCoef为移动系数。

4.根据权利要求1所述的方法,其特征在于,如确定所述动作为左右歪头动作时,所述根据所述各帧的移动系数计算出每个控制点在各帧的偏移量具体为:水 平 方 向 偏移 量 = (Src_x-Pivot_x)*cos(m_angle)-(Src_y-Pivot_y)*sin(m_angle);

竖 直 方 向偏 移 量 = (Src_x-Pivot_x)*sin(m_angle)+(Src_y-Pivot_y)*cos(m_angle);

其中Src_x、Src_y为控制点的原始坐标,所述控制点的原始坐标为未进行视频动画生成前的图片在网格模型中交点的坐标;Pivot_x、Pivot_y为面部中轴线与头部下外轮廓的交点坐标,m_angle为移动系数。

5.根据权利要求1所述的方法,其特征在于,如确定所述动作为点头或摆头动作时,所述根据所述各帧的移动系数计算出每个控制点在各帧的偏移量具体为:水平方向偏移量=Src_x+K_i*v_angle*V_x;

竖直方向偏移量=Src_y+K_i*v_angle*V_y;

其中Src_x、Src_y为控制点的原始坐标,所述控制点的原始坐标为未进行视频动画生成前的图片在网格模型中交点的坐标;K_i=Delta_1/Dis_1;V_x、V_y为标准向量的坐标;

当为点头动作时,该Delta_1为旋转固定角度时在竖直方向上的移动量,Dis_1为头部的在竖直方向的最大长度,标准向量为从头部最高点到头部最低点的向量;当为摆头动作时,Delta_1为旋转固定角度时在水平方向上的移动量,Dis_1为头部的在水平方向的最大长度,标准向量为从头部最左点到头部最右点的向量;v_angle为移动系数。

6.根据权利要求1所述的方法,其特征在于,如确定所述动作为嘴巴动作时,所述根据所述各帧的移动系数计算出每个控制点在各帧的偏移量具体为:水平方向偏移量=mouthWidth*cos(m_horAngle)*horizonCoef*horModelCoef+mouthHeight*cos(m_verAngle)*verticeCoef*verModelCoef;

竖直方向偏移量=mouthWidth*sin(m_horAngle)*horizonCoef*horModelCoef+mouthHeight*sin(m_verAngle)*verticeCoef*verModelCoef;

其中,mouthWidth为左嘴角到右嘴角的距离,mouthHeight为上嘴唇中点的顶点到下嘴唇中间的底点的高度,m_verAngle为头部中轴线和水平方向的夹角,m_horAngle为嘴角连线和水平方向的夹角;horizonCoef、verticeCoef分别为嘴巴水平、垂直运动幅度系数;

horModelCoef、verModelCoef分别为嘴巴在水平、竖直方向上的移动系数。

7.根据权利要求1所述的方法,其特征在于,所述用户发送的命令为用户发送的单个动作的命令或多个动作的命令。

8.一种生成视频动画的装置,其特征在于,所述装置包括:

接收单元,用于接收用户发送的命令,

设置单元,用于根据所述命令确定所述命令对应的动作,并确定所述动作对应的总帧数和各帧的移动系数;

计算单元,用于根据所述各帧的移动系数计算出每个控制点在各帧的偏移量;

生成单元,用于根据所述各帧的偏移量和总帧数生成视频动画,所述生成单元包括:坐标计算模块,用于根据所述各帧的偏移量计算各帧控制点的目标坐标,具体为,控制点的目标坐标为:水平方向目标点坐标=基准点水平方向的坐标+水平方向偏移量;

竖直方向目标点坐标=基准点竖直方向的坐标+竖直方向偏移量;

所述基准点为,当为眼睛、眉毛、点头、摆头或嘴巴动作时,所述基准点为控制点,当为左右歪头时,所述基准点为面部中轴线与头部下外轮廓的交点坐标;

视频生成模块,用于根据所述各帧控制点的目标坐标及总帧数生成视频动画。

9.根据权利要求8所述的装置,其特征在于,所述设置单元包括:

用户设定模块,用于为用户提供自行设定所述动作对应的总帧数和各帧的移动系数;

或设定模块,用于预先设定所述动作对应的总帧数和各帧的移动系数。

10.根据权利要求8所述的装置,其特征在于,如确定所述动作为眼睛或眉毛的动作,所述计算单元包括:眼部计算模块,用于计算眼睛或眉毛的动作的偏移量,其计算方法具体为:水平方向偏移量=(A_x-Src_x)*m_eyeCoef;

竖直方向偏移量=(A_y-Src_y)*m_eyeCoef;

其中Src_x、Src_y为控制点的原始坐标,所述控制点的原始坐标为未进行视频动画生成前的图片在网格模型中交点的坐标;A_x、A_y为控制点原始坐标向基准线做垂线时,垂线与基准线的交点坐标,其中当为眼睛动作时,基准线为眼角连线,当为眉毛动作时,基准线为面部中轴线,m_eyeCoef为移动系数。

11.根据权利要求8所述的装置,其特征在于,如确定所述动作为左右歪头的动作,所述计算单元包括:歪头计算模块,用于计算左右歪头的动作的偏移量,其计算方法具体为:水平方向偏移量=(Src_x-Pivot_x)*cos (m_angle)-(Src_y-Pivot_y)*sin(m_angle);

竖 直 方 向 偏 移 量 =(Src_x-Pivot_x)*sin(m_angle)+(Src_y-Pivot_y)*cos(m_angle);

其中Src_x、Src_y为控制点的原始坐标,所述控制点的原始坐标为未进行视频动画生成前的图片在网格模型中交点的坐标;Pivot_x、Pivot_y为面部中轴线与头部下外轮廓的交点坐标,m_angle为移动系数。

12.根据权利要求8所述的装置,其特征在于,如确定所述动作为点头或摆头动作时,所述计算单元包括:头部计算模块,用于计算点头或摆头动作的偏移量,其计算方法具体为:水平方向偏移量=Src_x+K_i*v_angle*V_x;

竖直方向偏移量=Src_y+K_i*v_angle*V_y;

其中Src_x、Src_y为控制点的原始坐标,所述控制点的原始坐标为未进行视频动画生成前的图片在网格模型中交点的坐标;K_i=Delta_1/Dis_1;V_x、V_y为标准向量的坐标;

当为点头动作时,该Delta_1为旋转固定角度时在竖直方向上的移动量,Dis_1为头部的在竖直方向的最大长度,标准向量为从头部最高点到头部最低点的向量;当为摆头动作时,Delta_1为旋转固定角度时在水平方向上的移动量,Dis_1为头部的在水平方向的最大长度,标准向量为从头部最左点到头部最右点的向量;v_angle为移动系数。

13.根据权利要求8所述的装置,其特征在于,如确定所述动作为嘴巴动作时,所述计算单元具体包括:嘴巴计算模块,用于计算嘴巴动作的偏移量,其计算方法具体为:水平方向偏移量=mouthWidth*cos(m_horAngle)*horizonCoef*horModelCoef+mouthHeight*cos(m_verAngle)*verticeCoef*verModelCoef;

竖直方向偏移量=mouthWidth*sin(m_horAngle)*horizonCoef*horModelCoef+mouthHeight*sin(m_verAngle)*verticeCoef*verModelCoef;

其中,mouthWidth为左嘴角到右嘴角的距离,mouthHeight为上嘴唇中点的顶点到下嘴唇中间的底点的高度,m_verAngle为头部中轴线和水平方向的夹角,m_horAngle为嘴角连线和水平方向的夹角;horizonCoef、verticeCoef分别为嘴巴水平、垂直运动幅度系数;

horModelCoef、verModelCoef分别为嘴巴在水平、竖直方向上的移动系数。

说明书 :

一种生成视频动画的方法及装置

技术领域

[0001] 本发明涉及动画领域,尤其涉及一种生成视频动画的方法及装置。

背景技术

[0002] 动画产业是国家明令扶持的支柱性朝阳文化产业,在动画产业发达的日韩,动画产业的产值甚至超过了汽车产业;并且互联网的多数用户均喜欢展示自我,张扬个性,以引起周围人的关注和重视,在这样的背景下,视频动画以其丰富的表现形式获得越来越多的互联网用户的喜爱。
[0003] 随着视频动画的发展,视频动画向音频视频结合以及面部引擎及驱动的方向发展,尤其是面部引擎及驱动技术,更是视频动画的核心技术。
[0004] 为了提供视频动画,现有技术提供了一种视频动画的生成方法,该方法建立了一种基于面部肌肉组织的网格模型,并为此模型建立了一套符号系统,系统通过对肌肉模型的控制来实现表情编码,从而最终生成视频动画。
[0005] 在实现本发明的过程中,现有技术所提供的技术方案存在如下问题:
[0006] 由于现有技术的技术方案是通过建立肌肉模型和符号系统来生成视频动画的,但是建立肌肉模型和符号系统的数据计算量均非常的大,所以现有技术的技术方案生成动画的时间较长,应用场景局限性很大。

发明内容

[0007] 本发明实施方式提供一种生成视频动画的方法及装置,该方法及装置具有数据计算量小,生成视频动画时间较短,应用范围大的优点。
[0008] 本发明的具体实施方式提供一种生成视频动画的方法,该方法包括:
[0009] 接收用户发送的命令,并根据所述命令确定所述命令对应的动作,并确定所述动作对应的总帧数和各帧的移动系数;
[0010] 根据所述各帧的移动系数计算出每个控制点在各帧的偏移量,并根据所述各帧的偏移量和总帧数生成视频动画,所述偏移量包括水平方向偏移量和竖直方向偏移量。
[0011] 本发明的具体实施方式还提供一种生成视频动画的装置,该装置包括:
[0012] 接收单元,用于接收用户发送的命令,
[0013] 设置单元,用于根据所述命令确定所述命令对应的动作,并确定所述动作对应的总帧数和各帧的移动系数;
[0014] 计算单元,用于根据所述各帧的移动系数计算出每个控制点在各帧的偏移量;
[0015] 生成单元,用于根据所述各帧的偏移量和总帧数生成视频动画。
[0016] 由上述所提供的技术方案可以看出,本发明实施例的技术方案根据接收的用户命令确定动作和各动作对应的移动系数后,根据该移动系数计算偏移量,在根据偏移量和总帧数生成动画,由于该方法不需要建立肌肉模型和符号系统来生成视频动画的,并且根据偏移量和总帧数生成动画的计算量较小,所以其具有生成视频动画时间较短,应用范围大的优点。

附图说明

[0017] 图1为本发明具体实施方式提供的一种生成视频动画的方法的流程图。
[0018] 图2为本发明一实施例提供的一种生成视频动画的方法的流程图。
[0019] 图3为本发明具体实施方式提供的一种生成视频动画的装置的结构图具体实施方式
[0020] 本发明实施方式提供了一种生成视频动画的方法,该方法如图1所示,包括如下步骤:
[0021] 步骤11、接收用户发送的命令,并根据该命令确定该命令对应的动作;
[0022] 该步骤中的命令可以为用户发送的音频命令,当然也可以是用户通过按键发送的实际命令,如输入1表示摇头,2表示点头等,本发明具体实施方式并不局限该命令的具体实施方式,只需该命令能够识别即可。该步骤中用户发送的命令可以为单个动作的命令,也可以为多个动作的组合命令。当为多个动作的组合命令时,该方法可以根据组合动作表现人的情感,进一步丰富了用户的面部表情。
[0023] 步骤12、确定该动作对应的总帧数以及各帧的移动系数;
[0024] 该步骤的实现方法可以为下述方法中的任何一种:
[0025] 方法A、预先设定每个动作所对应的总帧数以及每帧的移动系数,例如,预先设定摇头动作的总帧数为10,各帧的移动系数为0.01*N,当然在实际情况中,也可以将各帧的移动系数设定成不相同,如前5帧每帧的移动系数为0.01*N,后5帧的移动系数为0.05+0.008*(N—5),上述N均为帧的序号,上述移动系数中的0.01以及0.008等参数用户都可以自行设定,本发明具体实施方式并不局限该参数的具体数值。
[0026] 方法B、直接由用户设定每个动作的总帧数以及各帧的移动系数。该方式为用户自行设定,所以后续生成的视频动画更能表现出用户的自我及个性。
[0027] 步骤13、根据各帧的移动系数计算出每个控制点在各帧的偏移量;
[0028] 该步骤中的偏移量可以包括水平方向(X轴)的偏移量和竖直方向(Y轴)的偏移量。
[0029] 实现该步骤的方法可以为,这里为了叙述的方便,设置各个动作的移动系数为,眼睛或眉毛的移动系数,m_eyeCoef;头部左右歪头的移动系数,m_angle(单位为弧度);点头或摆头移动系数,v_angle;嘴巴的水平、垂直移动度系数为:horModelCoef和verModelCoef;
[0030] 其计算的具体方法为,
[0031] 眼睛或眉毛在X轴(水平方向)的偏移量为,(A_x—Src_x)*m_eyeCoef;在Y轴(竖直方向)的偏移量为,(A_y—Src_y)*m_eyeCoef;其中A_x、A_y可以为控制点原始坐标向基准线做垂线时,垂线与基准线的交点坐标,其中当为眼睛动作时,基准线为眼角连线,当为眉毛动作时,基准线为面部中轴线;Src_x、Src_y为控制点的原始坐标,该控制点可以为,如面部模型为网格模型,则控制点为网格的交点坐标,该原始坐标为原始图片在网格模型中交点的坐标,该原始图片可以为用户自行输入的图片或预先设定的图片即未进行视频动画生成前的图片。
[0032] 左右歪头在X轴(水平方向)的偏移量可以为(Src_x—Pivot_x)*cos(m_angle)—(Src_y—Pivot_y)*sin(m_angle);在Y轴的偏移量可以为(Src_x—Pivot_x)*sin(m_angle)+(Src_y—Pivot_y)*cos(m_angle);其中Src_x、Src_y为控制点的原始坐标,Pivot_x和Pivot_y为固定点的坐标:该固定点为头部中轴线与头部下外轮廓的交点。
[0033] 点头或摆头在X轴的偏移量可以为,Src_x+K_i*v_angle*V_x;在Y轴的偏移量可以为Src_y+K_i*v_angle*V_y;其中Src_x、Src_y为控制点的原始坐标,K_i为点头或摆头旋转系数,其计算方法为,K_i=Delta_1/Dis_1,其中Delta_1为旋转固定角度时(如1度)在Y轴(竖直方向)方向上的移动量,Dis_1为头部的在Y轴方向(竖直方向)的最大长度,当为摆头时,Delta_1为旋转固定角度时(如1度)在X轴方向上的移动量,Dis_1为头部的在X轴方向(水平方向)的最大长度;V_x,V_y为标准向量的坐标,当为点头动作时,其标准向量为从头部最高点到头部最低点的向量,当为摆头动作时,标准向量为从头部最左点到头部最右点的向量。
[0034] 当为嘴巴动作时,嘴巴在X轴的偏移量可以为,
[0035] mouthWidth*cos(m_horAngle)*horizonCoef*horModelCoef+mouthHeight*cos(m_verAngle)*verticeCoef*verModelCoef;
[0036] Y轴的偏移量可以为,
[0037] mouthWidth*sin(m_horAngle)*horizonCoef*horModelCoef+mouthHeight*sin(m_verAngle)*verticeCoef*verModelCoef;
[0038] 其中,mouthWidth为左嘴角到右嘴角的距离,mouthHeight为上嘴唇中点的顶点到下嘴唇中间的底点的高度,m_verAngle为头部中轴线和水平X轴的夹角,m_horAngle为嘴角连线和水平X轴的夹角;horizonCoef、verticeCoef分别为嘴巴水平、垂直运动幅度系数,该运动幅度系数也可以由用户自行设定,当然也可以预先进行设定。
[0039] 步骤14、根据每个控制点在各帧的偏移量以及总帧数生成视频动画。
[0040] 实现该步骤的方法可以为,
[0041] 步骤141、根据每个控制点在各帧的偏移量计算出各帧每个控制点的目标坐标;
[0042] 实现该步骤的方法可以为,控制点的目标坐标的计算方法可以为,基准点坐标+偏移量,根据各个动作,该基准点的坐标分别可以为,当为眼睛、眉毛、点头、摆头或嘴巴动作时,其基准点的坐标即为控制点的原始坐标,当为左右歪头时,其基准点的坐标为,面部中轴线与头部下外轮廓的交点坐标。
[0043] 步骤142、根据各帧各控制点的目标坐标生成各帧对应的画面,然后根据各帧对应的画面和总帧数生成视频动画。
[0044] 该步骤中的根据各帧对应的画面和总帧数生成视频动画可以使用普通的视频压缩方法,当然也可以使用其他的现有技术中的方法来生成视频动画,本发明具体实施方式并不局限根据各帧对应的画面和总帧数生成视频动画的具体方式。
[0045] 上述方法如果接收的用户命令为多个动作的命令,则先将该命令分解成单个动作的命令,然后根据单个动作的命令生成各个单个动作所对应的各帧偏移量,将各个单个动作所对应的各帧偏移量叠加成多个动作所对应的各帧偏移量,然后根据多个动作所对应的各帧偏移量生成多个动作的视频动画。上述方法视频动画的原始图片可以为用户输入的自定义图片,也可以为推荐给用户的图片。
[0046] 在实际情况中,还可以根据生成的组合动作或单个动作的视频动画来判断表情,如当为点头和眨眼组合动作的视频动画时,表情可以为高兴;当为左右歪头或摆头的视频动画时,表情可以为不高兴;当然用户也可以自行定义组合动作的视频动画或单个动作的视频动画所对应的表情,本发明具体实施方式对视频动画所对应的表情不进行限制。
[0047] 本发明具体实施方式提供的方法是根据接收的用户命令确定动作和各动作对应的移动系数后,根据该移动系数计算偏移量,在根据偏移量和总帧数生成动画,由于该方法不需要建立肌肉模型和符号系统来生成视频动画的,并且根据偏移量和总帧数生成动画的计算量较小,所以其具有生成视频动画时间较短,应用范围大的优点。又有该方法可以接收多个动作的命令,并根据该命令生成多个动画的组合视频动画,所以该方法可以通过组合单个动画的动画来得到多个动作的组合动画以表达用户的感情。
[0048] 为了更好地说明本发明的实现方法,现提供一具体实施例来说明本发明实现的具体方法。
[0049] 一实施例:本实施例提供一种生成视频动画的方法,本实施例实现的技术场景为,本实施例中的视频动画的原始图片为用户自定义的图片,这里假设为图片A,假设用户的命令为,同时进行点头和眨眼动作,其实现的具体步骤如图2所示:包括:
[0050] 步骤21、接受用户发送的带有点头和眨眼动作的命令,并将点头和眨眼动作的命令分解成,点头命令和眨眼命令。
[0051] 步骤22、分别确定点头及眨眼动作的总帧数和各帧的移动系数。
[0052] 该步骤中获取移动系数的具体方法可以参见上述步骤12的相关说明。
[0053] 步骤23、分别根据点头及眨眼动作的移动系数计算出点头及眨眼动作的偏移量。
[0054] 该步骤计算偏移量的具体方法可以参见步骤13中的相关描述。
[0055] 步骤24、根据点头及眨眼动作的偏移量及总帧数分别生成点头视频动画及眨眼视频动画。
[0056] 步骤25、将生成的点头视频动画及眨眼视频动画组合生成点头和眨眼组合动作视频动画。
[0057] 可选的,本实施例还可以通过根据生成点头和眨眼组合动作视频动画判断出用户提供的表情为高兴。
[0058] 本实施例通在接收到用户的点头和眨眼动作的命令后,将组合多动命令分解成单个命令后,分别计算各个动作在各帧中的偏移量,在根据该偏移量及总帧数生成单个动作的视频动画后,将单个动作的视频动画组合成组合动作的视频动画。该方法由于是通过计算偏移量来生成视频动画的,所以其计算量小,生成时间短,引用范围广,且该方法能生成组合动作的视频动画,并通过组合动作来表示用户的情感特征,进一步的丰富了用户的表情。
[0059] 本发明具体实施方式还提供一种生成视频动画的装置,该装置如图3所示,包括:接收单元31,用于接收用户发送的命令;设置单元32,用于根据该命令确定所述命令对应的动作,并确定该动作对应的总帧数和各帧的移动系数;计算单元33,用于根据该各帧的移动系数计算出每个控制点在各帧的偏移量;生成单元34,用于根据该各帧的偏移量和总帧数生成视频动画。
[0060] 可选的,上述设置单元32可以包括:用户设定模块,用于为用户提供自行设定所述动作对应的总帧数和各帧的移动系数;
[0061] 或设定模块,用于预先设定所述动作对应的总帧数和各帧的移动系数。
[0062] 可选的,如确定所述动作为眼睛或眉毛的动作,计算单元33可以包括:
[0063] 眼部计算模块,用于计算眼睛或眉毛的动作的偏移量,其偏移量的计算方法可以参见方法实施例中的相关描述。
[0064] 可选的,如确定所述动作为左右歪头的动作,计算单元33可以包括:
[0065] 歪头计算模块,用于计算左右歪头的动作的偏移量,其偏移量的计算方法可以参见方法实施例中的相关描述。
[0066] 可选的,如确定所述动作为点头或摆头动作时,计算单元33可以包括:头部计算模块,用于计算点头或摆头动作的偏移量,其偏移量的计算方法可以参见方法实施例中的相关描述。
[0067] 可选的,如确定所述动作为嘴巴动作时,计算模块33可以包括:嘴巴计算模块,用于计算嘴巴动作的偏移量,其偏移量的计算方法可以参见方法实施例中的相关描述。
[0068] 可选的,上述生成单元34可以包括:
[0069] 坐标计算模块,用于根据该各帧的偏移量计算各帧控制点的目标坐标,具体为,控制点的目标坐标为:
[0070] 水平方向目标点坐标=基准点水平方向的坐标+水平方向偏移量;
[0071] 竖直方向目标点坐标=基准点竖直方向的坐标+竖直方向偏移量;
[0072] 该基准点可以为,当为眼睛、眉毛、点头、摆头或嘴巴动作时,所述基准点为控制点,当为左右歪头时,所述基准点为面部中轴线与头部下外轮廓的交点坐标;
[0073] 视频生成模块,用于根据该各帧控制点的目标坐标及总帧数生成视频动画。
[0074] 本发明具体实施方式提供的装置中的接收单元31在接收的用户命令后,由设置单元32确定动作和各动作对应的移动系数后,计算单元33根据该移动系数计算偏移量,最后由生成单元34在根据偏移量和总帧数生成视频动画,由于该装置不需要建立肌肉模型和符号系统来生成视频动画的,并且根据偏移量和总帧数生成视频动画的计算量较小,所以其具有生成视频动画时间较短,应用范围大的优点。
[0075] 本领域普通技术人员可以理解实现上述实施例方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,所述的程序可以存储于计算机可读取存储介质中,该程序在执行时,包括上述方法步骤,所述的存储介质包括:ROM/RAM、磁盘、光盘等[0076] 本发明实施例中所述的方法和装置均可以应用到手机视频动画或娱乐性的网页视频动画。
[0077] 综上所述,本发明具体实施方式提供的技术方案,具有计算量较小,生成视频动画时间较短,应用范围大的优点。
[0078] 以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明实施例揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应该以权利要求的保护范围为准。