图像合成方法和电子设备转让专利

申请号 : CN202010720955.X

文献号 : CN113973173B

文献日 :

基本信息:

PDF:

法律信息:

相似专利:

发明人 : 饶刚董辰卢曰万丁欣周恒

申请人 : 华为技术有限公司

摘要 :

本申请实施例提供一种图像合成方法和电子设备,在方法中,电子设备接收到用户针对第一图像的背景更换操作,获取所述第一图像的拍摄角度信息,获取第二图像、以及所述第二图像的拍摄角度信息,根据所述第一图像的拍摄角度信息和所述第二图像的拍摄角度信息对所述第二图像进行3D视角变换,使得所述第二图像的拍摄角度达到或接近所述第一图像的拍摄角度,得到目标背景图像,将从第一图像中分离出的前景图像与所述目标背景图像进行图像合成,得到目标图像。该方法能够改善图像合成后得到的目标图像视觉上失真严重的问题,提升用户体验。

权利要求 :

1.一种图像合成方法,应用于电子设备,其特征在于,包括:接收到用户针对第一图像的背景更换操作,获取所述第一图像的拍摄角度信息;

获取所述第一图像的预设分类信息;

获取并展示与所述第一图像的预设分类信息匹配的待选背景图像;展示的所述待选背景图像按照所述待选背景图像与所述第一图像之间的拍摄角度差异值从小到大排序;所述待选背景图像与所述第一图像之间的拍摄角度差异值根据所述待选背景图像的拍摄角度信息以及所述第一图像的拍摄角度信息计算得到;

接收到所述用户针对于所述待选背景图像的选择操作,将所述选择操作指示的待选背景图像作为第二图像;

获取所述第二图像的拍摄角度信息;

根据所述第一图像的拍摄角度信息和所述第二图像的拍摄角度信息对所述第二图像进行3D视角变换,使得所述第二图像的拍摄角度达到或接近所述第一图像的拍摄角度,得到目标背景图像;

将从第一图像中分离出的前景图像与所述目标背景图像进行图像合成,得到目标图像。

2.根据权利要求1所述的方法,其特征在于,所述获取与所述第一图像的预设分类信息匹配的待选背景图像,包括:向服务器发送所述第一图像的拍摄角度信息以及预设分类信息;

接收所述服务器发送的与所述第一图像的预设分类信息匹配的待选背景图像,所述待选背景图像由所述服务器按照所述待选背景图像与所述第一图像之间的拍摄角度差异值排序,所述待选背景图像与所述第一图像之间的拍摄角度差异值由所述服务器根据所述待选背景图像的拍摄角度信息以及所述第一图像的拍摄角度信息计算得到。

3.根据权利要求1或2所述的方法,其特征在于,所述将从第一图像中分离出的前景图像与所述目标背景图像进行图像合成,得到目标图像,包括:展示所述目标背景图像,接收到所述用户在所述目标背景图像上的位置指定操作,得到所述用户在所述目标背景图像上指定位置的位置信息;

确定所述位置信息对应的第一距离估计值;

根据所述第一距离估计值对所述前景图像进行缩放,得到目标前景图像;

将所述目标前景图像合成至所述目标背景图像中所述位置信息指示的位置,得到目标图像。

4.根据权利要求3所述的方法,其特征在于,所述将所述目标前景图像合成至所述目标背景图像中所述位置信息指示的位置,得到目标图像之前,还包括:对所述目标前景图像和/或所述目标背景图像的颜色参数进行调整。

5.根据权利要求1或2所述的方法,其特征在于,所述拍摄角度信息包括:拍摄姿态角,所述拍摄姿态角包括:俯仰角、方位角和横滚角。

6.一种电子设备,其特征在于,包括:

显示屏;一个或多个处理器;存储器;其中,一个或多个计算机程序被存储在所述存储器中,所述一个或多个计算机程序包括指令,当所述指令被所述电子设备执行时,使得所述电子设备执行以下步骤:接收到用户针对第一图像的背景更换操作,获取所述第一图像的拍摄角度信息;

获取所述第一图像的预设分类信息;

获取并展示与所述第一图像的预设分类信息匹配的待选背景图像;展示的所述待选背景图像按照所述待选背景图像与所述第一图像之间的拍摄角度差异值从小到大排序;所述待选背景图像与所述第一图像之间的拍摄角度差异值根据所述待选背景图像的拍摄角度信息以及所述第一图像的拍摄角度信息计算得到;

接收到所述用户针对于所述待选背景图像的选择操作,将所述选择操作指示的待选背景图像作为第二图像;

获取所述第二图像的拍摄角度信息;

根据所述第一图像的拍摄角度信息和所述第二图像的拍摄角度信息对所述第二图像进行3D视角变换,使得所述第二图像的拍摄角度达到或接近所述第一图像的拍摄角度,得到目标背景图像;

将从所述第一图像中分离出的前景图像合成至所述目标背景图像,得到目标图像。

7.根据权利要求6所述的电子设备,其特征在于,所述指令被所述电子设备执行时,使得所述获取与所述第一图像的预设分类信息匹配的待选背景图像的步骤,包括:向服务器发送所述第一图像的拍摄角度信息以及预设分类信息;

接收所述服务器发送的与所述第一图像的预设分类信息匹配的待选背景图像,所述待选背景图像由所述服务器按照所述待选背景图像与所述第一图像之间的拍摄角度差异值排序,所述待选背景图像与所述第一图像之间的拍摄角度差异值由所述服务器根据所述待选背景图像的拍摄角度信息以及所述第一图像的拍摄角度信息计算得到。

8.根据权利要求6或7所述的电子设备,其特征在于,当所述指令被所述电子设备执行时,使得所述将从第一图像中分离出的前景图像与所述目标背景图像进行图像合成,得到目标图像的步骤,包括:展示所述目标背景图像,接收到所述用户在所述目标背景图像上的位置指定操作,得到所述用户在所述目标背景图像上指定位置的位置信息;

确定所述位置信息对应的第一距离估计值;

根据所述第一距离估计值对所述前景图像进行缩放,得到目标前景图像;

将所述目标前景图像合成至所述目标背景图像中所述位置信息指示的位置,得到目标图像。

9.根据权利要求8所述的电子设备,其特征在于,当所述指令被所述电子设备执行时,使得所述将所述目标前景图像合成至所述目标背景图像中所述位置信息指示的位置,得到目标图像的步骤之前,还包括:对所述目标前景图像和/或所述目标背景图像的颜色参数进行调整。

10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有计算机程序,当其在计算机上运行时,使得计算机执行如权利要求1至5任一项所述的方法。

说明书 :

图像合成方法和电子设备

技术领域

[0001] 本申请涉及智能终端技术领域,特别涉及一种图像合成方法和电子设备。

背景技术

[0002] 目前,电子设备的很多图像编辑相关应用(APP,application)中为用户提供抠图换背景的功能。抠图换背景是从用户指定的第一图像中分离出指定人物图像,将分离出来的人物图像合成至第二图像中,得到目标图像的过程。合成得到的目标图像中第二图像作为了分离出来的人物图像的背景图像,实现了人物图像的背景更换。
[0003] 现有技术主要专注于如何将人物图像更好的从第一图像中分离出来,而在将分离出来的人物图像合成至第二图像中时,往往由用户对人物图像进行缩放,之后,电子设备将人物图像和第二图像直接合成,得到目标图像。这样合成出来的目标图像往往存在人物图像和背景图像不搭配等问题,造成目标图像在视觉上失真严重,影响用户体验。

发明内容

[0004] 本申请提供了一种图像合成方法和电子设备,能够改善目标图像视觉上失真严重的问题,提升用户体验。
[0005] 第一方面,本申请实施例提供了一种图像合成方法,应用于电子设备,包括:
[0006] 接收到用户针对第一图像的背景更换操作,获取第一图像的拍摄角度信息;
[0007] 获取第二图像、以及第二图像的拍摄角度信息;
[0008] 根据第一图像的拍摄角度信息和第二图像的拍摄角度信息对第二图像进行3D视角变换,使得第二图像的拍摄角度达到或接近第一图像的拍摄角度,得到目标背景图像;
[0009] 将从第一图像中分离出的前景图像与目标背景图像进行图像合成,得到目标图像。
[0010] 该方法根据第一图像的拍摄角度信息和第二图像的拍摄角度信息对第二图像进行3D视角变换,使得第二图像的拍摄角度达到或接近第一图像的拍摄角度,得到目标背景图像,从而相对于第二图像,目标背景图像的拍摄角度与第一图像的拍摄角度相同或更为接近,也即前景图像与目标背景图像的拍摄角度相同或者更为接近,从而相对于现有技术中将前景图像与第二图像进行图像合成得到的图像,本申请实施例的方法得到的目标图像在视觉上更为合理和协调,从而改善了现有技术中目标图像视觉上失真严重的问题,提升用户体验。
[0011] 在一种可能的实现方式中,获取第二图像,包括:
[0012] 获取第一图像的预设分类信息;
[0013] 获取并展示与第一图像的预设分类信息匹配的待选背景图像;展示的待选背景图像按照待选背景图像与第一图像之间的拍摄角度差异值从小到大排序;待选背景图像与第一图像之间的拍摄角度差异值根据待选背景图像的拍摄角度信息、以及第一图像的拍摄角度信息计算得到;
[0014] 接收到用户针对于待选背景图像的选择操作,将选择操作指示的待选背景图像作为第二图像。
[0015] 该方法中,向用户展示的待选背景图像按照待选背景图像与第一图像之间的拍摄角度差异值从小到大排序,从而使得用户优先浏览到的待选背景图像的拍摄角度更为接近第一图像的拍摄角度,从而根据用户选择的待选背景图像进行图像合成后得到的目标图像中人物图像和背景图像的融合相对更为合理、自然、协调。
[0016] 在一种可能的实现方式中,获取与第一图像的预设分类信息匹配的待选背景图像,包括:
[0017] 向服务器发送第一图像的拍摄角度信息、以及预设分类信息;
[0018] 接收服务器发送的与第一图像的预设分类信息匹配的待选背景图像,待选背景图像由服务器按照待选背景图像与第一图像之间的拍摄角度差异值排序,待选背景图像与第一图像之间的拍摄角度差异值由服务器根据待选背景图像的拍摄角度信息、以及第一图像的拍摄角度信息计算得到。
[0019] 在一种可能的实现方式中,将从第一图像中分离出的前景图像与目标背景图像进行图像合成,得到目标图像,包括:
[0020] 展示目标背景图像,接收到用户在目标背景图像上的位置指定操作,得到用户在目标背景图像上指定位置的位置信息;
[0021] 确定位置信息对应的第一距离估计值;
[0022] 根据第一距离估计值对前景图像进行缩放,得到目标前景图像;
[0023] 将目标前景图像合成至目标背景图像中位置信息指示的位置,得到目标图像。
[0024] 根据第一距离估计值对前景图像进行缩放,可以使得前景图像的大小更接近于真实拍摄得到的图像大小,使得目标图像在视觉上更为合理和协调。
[0025] 在一种可能的实现方式中,将目标前景图像合成至目标背景图像上位置信息指示的位置,得到目标图像之前,还包括:
[0026] 对目标前景图像和/或目标背景图像的颜色参数进行调整。
[0027] 通过对目标前景图像和/或目标背景图像的颜色参数进行调整,可以使得目标前景图像和目标目镜图像的颜色更为接近,合成得到的目标图像在两个图像的边界处融合性高,使得目标图像在视觉上更为合理和协调。
[0028] 在一种可能的实现方式中,拍摄角度信息包括:拍摄姿态角,拍摄姿态角包括:俯仰角、方位角和横滚角。
[0029] 第二方面,本申请实施例提供一种电子设备,包括:
[0030] 显示屏;一个或多个处理器;存储器;以及一个或多个计算机程序,其中一个或多个计算机程序被存储在存储器中,一个或多个计算机程序包括指令,当指令被设备执行时,使得设备执行以下步骤:
[0031] 接收到用户针对第一图像的背景更换操作,获取第一图像的拍摄角度信息;
[0032] 获取第二图像、以及第二图像的拍摄角度信息;
[0033] 根据第一图像的拍摄角度信息和第二图像的拍摄角度信息对第二图像进行3D视角变换,使得第二图像的拍摄角度信息达到或接近第一图像的拍摄角度信息,得到目标背景图像;
[0034] 将从第一图像中分离出的前景图像合成至目标背景图像,得到目标图像。
[0035] 在一种可能的实现方式中,当指令被设备执行时,使得获取第二图像的步骤,包括:
[0036] 获取第一图像的预设分类信息;
[0037] 获取并展示与第一图像的预设分类信息匹配的待选背景图像;展示的待选背景图像按照待选背景图像与第一图像之间的拍摄角度差异值排序;待选背景图像与第一图像之间的拍摄角度差异值根据待选背景图像的拍摄角度信息、以及第一图像的拍摄角度信息计算得到;
[0038] 接收到用户针对于待选背景图像的选择操作,将选择操作指示的待选背景图像作为第二图像。
[0039] 在一种可能的实现方式中,指令被设备执行时,使得获取与第一图像的预设分类信息匹配的待选背景图像的步骤,包括:
[0040] 向服务器发送第一图像的拍摄角度信息、以及预设分类信息;
[0041] 接收服务器发送的与第一图像的预设分类信息匹配的待选背景图像,待选背景图像由服务器按照待选背景图像与第一图像之间的拍摄角度差异值排序,待选背景图像与第一图像之间的拍摄角度差异值由服务器根据待选背景图像的拍摄角度信息、以及第一图像的拍摄角度信息计算得到。
[0042] 在一种可能的实现方式中,当指令被设备执行时,使得将从第一图像中分离出的前景图像与目标背景图像进行图像合成,得到目标图像的步骤,包括:
[0043] 展示目标背景图像,接收到用户在目标背景图像上的位置指定操作,得到用户在目标背景图像上指定位置的位置信息;
[0044] 确定位置信息对应的第一距离估计值;
[0045] 根据第一距离估计值对前景图像进行缩放,得到目标前景图像;
[0046] 将目标前景图像合成至目标背景图像中位置信息指示的位置,得到目标图像。
[0047] 在一种可能的实现方式中,当指令被设备执行时,使得将目标前景图像合成至目标背景图像上位置信息指示的位置的步骤之前,还包括:
[0048] 对目标前景图像和/或目标背景图像的颜色参数进行调整。
[0049] 第三方面,本申请实施例提供一种计算机可读存储介质,计算机可读存储介质中存储有计算机程序,当其在计算机上运行时,使得计算机执行第一方面任一项的方法。
[0050] 第四方面,本申请提供一种计算机程序,当计算机程序被计算机执行时,用于执行第一方面的方法。
[0051] 在一种可能的设计中,第四方面中的程序可以全部或者部分存储在与处理器封装在一起的存储介质上,也可以部分或者全部存储在不与处理器封装在一起的存储器上。

附图说明

[0052] 图1为本申请电子设备的结构示意图;
[0053] 图2为本申请电子设备的软件结构示意图;
[0054] 图3为本申请图像合成方法GUI示意图;
[0055] 图4为本申请图像合成方法一个实施例的流程图;
[0056] 图5为本申请手机坐标系和第一坐标系建立方法示意图;
[0057] 图6A为本申请图像合成方法部分步骤的示意框图;
[0058] 图6B为本申请图像合成方法部分步骤的示意框图;
[0059] 图7为本申请图像合成方法另一个实施例的流程图;
[0060] 图8为本申请图像合成装置一个实施例的结构图。

具体实施方式

[0061] 本申请的实施方式部分使用的术语仅用于对本申请的具体实施例进行解释,而非旨在限定本申请。
[0062] 现有技术中,在将人物图像从第一图像中分离出来后,一般由用户对人物图像自主缩放至合适大小,然后直接合成至第二图像中,得到目标图像。在图像合成时,上述人物图像也可以称为前景图像,第二图像也可以称为背景图像。
[0063] 从技术层面来说,第一图像和第二图像的光线不匹配、拍摄视角不匹配等因素会造成合成得到的目标图像的视角协调差、视觉上失真严重的问题,影响用户体验。
[0064] 从用户层面来说,随着用户对抠图换背景这一功能使用时间的增加,用户对这一功能趣味性上的热度会逐渐减退,与之相对应的,对抠图换背景得到的目标图像的视觉合理性和协调性的要求会逐渐提高。
[0065] 为此,本申请提出一种图像合成方法和电子设备,能够改善前景图像(例如上述的人物图像)和背景图像合成后得到的目标图像视觉上失真严重的问题,提高图像合成得到的目标图像的视觉合理性和协调性,提升用户体验。
[0066] 本申请的图像合成方法可以适用于电子设备,例如移动终端(手机)、平板电脑(PAD)、个人电脑(PC)、智慧屏、车载设备等设备。
[0067] 图1示出了电子设备100的结构示意图。电子设备100可以包括处理器110,外部存储器接口120,内部存储器121,通用串行总线(universal serial bus,USB)接口130,充电管理模块140,电源管理模块141,电池142,天线1,天线2,移动通信模块150,无线通信模块160,音频模块170,扬声器170A,受话器170B,麦克风170C,耳机接口170D,传感器模块180,按键190,马达191,指示器192,摄像头193,显示屏194,以及用户标识模块(subscriber identification module,SIM)卡接口195等。其中传感器模块180可以包括压力传感器
180A,陀螺仪传感器180B,气压传感器180C,磁传感器180D,加速度传感器180E,距离传感器
180F,接近光传感器180G,指纹传感器180H,温度传感器180J,触摸传感器180K,环境光传感器180L,骨传导传感器180M等。
[0068] 可以理解的是,本发明实施例示意的结构并不构成对电子设备100的具体限定。在本申请另一些实施例中,电子设备100可以包括比图示更多或更少的部件,或者组合某些部件,或者拆分某些部件,或者不同的部件布置。图示的部件可以以硬件,软件或软件和硬件的组合实现。
[0069] 处理器110可以包括一个或多个处理单元,例如:处理器110可以包括应用处理器(application processor,AP),调制解调处理器,图形处理器(graphics processing unit,GPU),图像信号处理器(image signal processor,ISP),控制器,视频编解码器,数字信号处理器(digital signal processor,DSP),基带处理器,和/或神经网络处理器(neural‑network processing unit,NPU)等。其中,不同的处理单元可以是独立的器件,也可以集成在一个或多个处理器中。
[0070] 控制器可以根据指令操作码和时序信号,产生操作控制信号,完成取指令和执行指令的控制。
[0071] 处理器110中还可以设置存储器,用于存储指令和数据。在一些实施例中,处理器110中的存储器为高速缓冲存储器。该存储器可以保存处理器110刚用过或循环使用的指令或数据。如果处理器110需要再次使用该指令或数据,可从所述存储器中直接调用。避免了重复存取,减少了处理器110的等待时间,因而提高了系统的效率。
[0072] 在一些实施例中,处理器110可以包括一个或多个接口。接口可以包括集成电路(inter‑integrated circuit,I2C)接口,集成电路内置音频(inter‑integrated circuit sound,I2S)接口,脉冲编码调制(pulse code modulation,PCM)接口,通用异步收发传输器(universal asynchronous receiver/transmitter,UART)接口,移动产业处理器接口(mobile industry processor interface,MIPI),通用输入输出(general‑purpose input/output,GPIO)接口,用户标识模块(subscriber identity module,SIM)接口,和/或通用串行总线(universal serial bus,USB)接口等。
[0073] I2C接口是一种双向同步串行总线,包括一根串行数据线(serial data line,SDA)和一根串行时钟线(derail clock line,SCL)。在一些实施例中,处理器110可以包含多组I2C总线。处理器110可以通过不同的I2C总线接口分别耦合触摸传感器180K,充电器,闪光灯,摄像头193等。例如:处理器110可以通过I2C接口耦合触摸传感器180K,使处理器110与触摸传感器180K通过I2C总线接口通信,实现电子设备100的触摸功能。
[0074] I2S接口可以用于音频通信。在一些实施例中,处理器110可以包含多组I2S总线。处理器110可以通过I2S总线与音频模块170耦合,实现处理器110与音频模块170之间的通信。在一些实施例中,音频模块170可以通过I2S接口向无线通信模块160传递音频信号,实现通过蓝牙耳机接听电话的功能。
[0075] PCM接口也可以用于音频通信,将模拟信号抽样,量化和编码。在一些实施例中,音频模块170与无线通信模块160可以通过PCM总线接口耦合。在一些实施例中,音频模块170也可以通过PCM接口向无线通信模块160传递音频信号,实现通过蓝牙耳机接听电话的功能。所述I2S接口和所述PCM接口都可以用于音频通信。
[0076] UART接口是一种通用串行数据总线,用于异步通信。该总线可以为双向通信总线。它将要传输的数据在串行通信与并行通信之间转换。在一些实施例中,UART接口通常被用于连接处理器110与无线通信模块160。例如:处理器110通过UART接口与无线通信模块160中的蓝牙模块通信,实现蓝牙功能。在一些实施例中,音频模块170可以通过UART接口向无线通信模块160传递音频信号,实现通过蓝牙耳机播放音乐的功能。
[0077] MIPI接口可以被用于连接处理器110与显示屏194,摄像头193等外围器件。MIPI接口包括摄像头串行接口(camera serial interface,CSI),显示屏串行接口(display serial interface,DSI)等。在一些实施例中,处理器110和摄像头193通过CSI接口通信,实现电子设备100的拍摄功能。处理器110和显示屏194通过DSI接口通信,实现电子设备100的显示功能。
[0078] GPIO接口可以通过软件配置。GPIO接口可以被配置为控制信号,也可被配置为数据信号。在一些实施例中,GPIO接口可以用于连接处理器110与摄像头193,显示屏194,无线通信模块160,音频模块170,传感器模块180等。GPIO接口还可以被配置为I2C接口,I2S接口,UART接口,MIPI接口等。
[0079] USB接口130是符合USB标准规范的接口,具体可以是Mini USB接口,Micro USB接口,USB Type C接口等。USB接口130可以用于连接充电器为电子设备100充电,也可以用于电子设备100与外围设备之间传输数据。也可以用于连接耳机,通过耳机播放音频。该接口还可以用于连接其他电子设备,例如AR设备等。
[0080] 可以理解的是,本发明实施例示意的各模块间的接口连接关系,只是示意性说明,并不构成对电子设备100的结构限定。在本申请另一些实施例中,电子设备100也可以采用上述实施例中不同的接口连接方式,或多种接口连接方式的组合。
[0081] 充电管理模块140用于从充电器接收充电输入。其中,充电器可以是无线充电器,也可以是有线充电器。在一些有线充电的实施例中,充电管理模块140可以通过USB接口130接收有线充电器的充电输入。在一些无线充电的实施例中,充电管理模块140可以通过电子设备100的无线充电线圈接收无线充电输入。充电管理模块140为电池142充电的同时,还可以通过电源管理模块141为电子设备供电。
[0082] 电源管理模块141用于连接电池142,充电管理模块140与处理器110。电源管理模块141接收电池142和/或充电管理模块140的输入,为处理器110,内部存储器121,显示屏194,摄像头193,和无线通信模块160等供电。电源管理模块141还可以用于监测电池容量,电池循环次数,电池健康状态(漏电,阻抗)等参数。在其他一些实施例中,电源管理模块141也可以设置于处理器110中。在另一些实施例中,电源管理模块141和充电管理模块140也可以设置于同一个器件中。
[0083] 电子设备100的无线通信功能可以通过天线1,天线2,移动通信模块150,无线通信模块160,调制解调处理器以及基带处理器等实现。
[0084] 天线1和天线2用于发射和接收电磁波信号。电子设备100中的每个天线可用于覆盖单个或多个通信频带。不同的天线还可以复用,以提高天线的利用率。例如:可以将天线1复用为无线局域网的分集天线。在另外一些实施例中,天线可以和调谐开关结合使用。
[0085] 移动通信模块150可以提供应用在电子设备100上的包括2G/3G/4G/5G等无线通信的解决方案。移动通信模块150可以包括至少一个滤波器,开关,功率放大器,低噪声放大器(low noise amplifier,LNA)等。移动通信模块150可以由天线1接收电磁波,并对接收的电磁波进行滤波,放大等处理,传送至调制解调处理器进行解调。移动通信模块150还可以对经调制解调处理器调制后的信号放大,经天线1转为电磁波辐射出去。在一些实施例中,移动通信模块150的至少部分功能模块可以被设置于处理器110中。在一些实施例中,移动通信模块150的至少部分功能模块可以与处理器110的至少部分模块被设置在同一个器件中。
[0086] 调制解调处理器可以包括调制器和解调器。其中,调制器用于将待发送的低频基带信号调制成中高频信号。解调器用于将接收的电磁波信号解调为低频基带信号。随后解调器将解调得到的低频基带信号传送至基带处理器处理。低频基带信号经基带处理器处理后,被传递给应用处理器。应用处理器通过音频设备(不限于扬声器170A,受话器170B等)输出声音信号,或通过显示屏194显示图像或视频。在一些实施例中,调制解调处理器可以是独立的器件。在另一些实施例中,调制解调处理器可以独立于处理器110,与移动通信模块150或其他功能模块设置在同一个器件中。
[0087] 无线通信模块160可以提供应用在电子设备100上的包括无线局域网(wireless local area networks,WLAN)(如无线保真(wireless fidelity,Wi‑Fi)网络),蓝牙(bluetooth,BT),全球导航卫星系统(global navigation satellite system,GNSS),调频(frequency modulation,FM),近距离无线通信技术(near field communication,NFC),红外技术(infrared,IR)等无线通信的解决方案。无线通信模块160可以是集成至少一个通信处理模块的一个或多个器件。无线通信模块160经由天线2接收电磁波,将电磁波信号调频以及滤波处理,将处理后的信号发送到处理器110。无线通信模块160还可以从处理器110接收待发送的信号,对其进行调频,放大,经天线2转为电磁波辐射出去。
[0088] 在一些实施例中,电子设备100的天线1和移动通信模块150耦合,天线2和无线通信模块160耦合,使得电子设备100可以通过无线通信技术与网络以及其他设备通信。所述无线通信技术可以包括全球移动通讯系统(global system for mobile communications,GSM),通用分组无线服务(general packet radio service,GPRS),码分多址接入(code division multiple access,CDMA),宽带码分多址(wideband code division multiple access,WCDMA),时分码分多址(time‑division code division multiple access,TD‑SCDMA),长期演进(long term evolution,LTE),BT,GNSS,WLAN,NFC,FM,和/或IR技术等。所述GNSS可以包括全球卫星定位系统(global positioning system,GPS),全球导航卫星系统(global navigation satellite system,GLONASS),北斗卫星导航系统(beidou navigation satellite system,BDS),准天顶卫星系统(quasi‑zenith satellite system,QZSS)和/或星基增强系统(satellite based augmentation systems,SBAS)。
[0089] 电子设备100通过GPU,显示屏194,以及应用处理器等实现显示功能。GPU为图像处理的微处理器,连接显示屏194和应用处理器。GPU用于执行数学和几何计算,用于图形渲染。处理器110可包括一个或多个GPU,其执行程序指令以生成或改变显示信息。
[0090] 显示屏194用于显示图像,视频等。显示屏194包括显示面板。显示面板可以采用液晶显示屏(liquid crystal display,LCD),有机发光二极管(organic light‑emitting diode,OLED),有源矩阵有机发光二极体或主动矩阵有机发光二极体(active‑matrix organic light emitting diode的,AMOLED),柔性发光二极管(flex light‑emitting diode,FLED),Miniled,MicroLed,Micro‑oLed,量子点发光二极管(quantum dot light emitting diodes,QLED)等。在一些实施例中,电子设备100可以包括1个或N个显示屏194,N为大于1的正整数。
[0091] 电子设备100可以通过ISP,摄像头193,视频编解码器,GPU,显示屏194以及应用处理器等实现拍摄功能。
[0092] ISP用于处理摄像头193反馈的数据。例如,拍照时,打开快门,光线通过镜头被传递到摄像头感光元件上,光信号转换为电信号,摄像头感光元件将所述电信号传递给ISP处理,转化为肉眼可见的图像。ISP还可以对图像的噪点,亮度,肤色进行算法优化。ISP还可以对拍摄场景的曝光,色温等参数优化。在一些实施例中,ISP可以设置在摄像头193中。
[0093] 摄像头193用于捕获静态图像或视频。物体通过镜头生成光学图像投射到感光元件。感光元件可以是电荷耦合器件(charge coupled device,CCD)或互补金属氧化物半导体(complementary metal‑oxide‑semiconductor,CMOS)光电晶体管。感光元件把光信号转换成电信号,之后将电信号传递给ISP转换成数字图像信号。ISP将数字图像信号输出到DSP加工处理。DSP将数字图像信号转换成标准的RGB,YUV等格式的图像信号。在一些实施例中,电子设备100可以包括1个或N个摄像头193,N为大于1的正整数。
[0094] 数字信号处理器用于处理数字信号,除了可以处理数字图像信号,还可以处理其他数字信号。例如,当电子设备100在频点选择时,数字信号处理器用于对频点能量进行傅里叶变换等。
[0095] 视频编解码器用于对数字视频压缩或解压缩。电子设备100可以支持一种或多种视频编解码器。这样,电子设备100可以播放或录制多种编码格式的视频,例如:动态图像专家组(moving picture experts group,MPEG)1,MPEG2,MPEG3,MPEG4等。
[0096] NPU为神经网络(neural‑network,NN)计算处理器,通过借鉴生物神经网络结构,例如借鉴人脑神经元之间传递模式,对输入信息快速处理,还可以不断的自学习。通过NPU可以实现电子设备100的智能认知等应用,例如:图像识别,人脸识别,语音识别,文本理解等。
[0097] 外部存储器接口120可以用于连接外部存储卡,例如Micro SD卡,实现扩展电子设备100的存储能力。外部存储卡通过外部存储器接口120与处理器110通信,实现数据存储功能。例如将音乐,视频等文件保存在外部存储卡中。
[0098] 内部存储器121可以用于存储计算机可执行程序代码,所述可执行程序代码包括指令。内部存储器121可以包括存储程序区和存储数据区。其中,存储程序区可存储操作系统,至少一个功能所需的应用程序(比如声音播放功能,图像播放功能等)等。存储数据区可存储电子设备100使用过程中所创建的数据(比如音频数据,电话本等)等。此外,内部存储器121可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件,闪存器件,通用闪存存储器(universal flash storage,UFS)等。处理器110通过运行存储在内部存储器121的指令,和/或存储在设置于处理器中的存储器的指令,执行电子设备100的各种功能应用以及数据处理。
[0099] 电子设备100可以通过音频模块170,扬声器170A,受话器170B,麦克风170C,耳机接口170D,以及应用处理器等实现音频功能。例如音乐播放,录音等。
[0100] 音频模块170用于将数字音频信息转换成模拟音频信号输出,也用于将模拟音频输入转换为数字音频信号。音频模块170还可以用于对音频信号编码和解码。在一些实施例中,音频模块170可以设置于处理器110中,或将音频模块170的部分功能模块设置于处理器110中。
[0101] 扬声器170A,也称“喇叭”,用于将音频电信号转换为声音信号。电子设备100可以通过扬声器170A收听音乐,或收听免提通话。
[0102] 受话器170B,也称“听筒”,用于将音频电信号转换成声音信号。当电子设备100接听电话或语音信息时,可以通过将受话器170B靠近人耳接听语音。
[0103] 麦克风170C,也称“话筒”,“传声器”,用于将声音信号转换为电信号。当拨打电话或发送语音信息时,用户可以通过人嘴靠近麦克风170C发声,将声音信号输入到麦克风170C。电子设备100可以设置至少一个麦克风170C。在另一些实施例中,电子设备100可以设置两个麦克风170C,除了采集声音信号,还可以实现降噪功能。在另一些实施例中,电子设备100还可以设置三个,四个或更多麦克风170C,实现采集声音信号,降噪,还可以识别声音来源,实现定向录音功能等。
[0104] 耳机接口170D用于连接有线耳机。耳机接口170D可以是USB接口130,也可以是3.5mm的开放移动电子设备平台(open mobile terminal platform,OMTP)标准接口,美国蜂窝电信工业协会(cellular telecommunications industry association of the USA,CTIA)标准接口。
[0105] 压力传感器180A用于感受压力信号,可以将压力信号转换成电信号。在一些实施例中,压力传感器180A可以设置于显示屏194。压力传感器180A
[0106] 的种类很多,如电阻式压力传感器,电感式压力传感器,电容式压力传感器等。电容式压力传感器可以是包括至少两个具有导电材料的平行板。当有力作用于压力传感器180A,电极之间的电容改变。电子设备100根据电容的变化确定压力的强度。当有触摸操作作用于显示屏194,电子设备100根据压力传感器180A检测所述触摸操作强度。电子设备100也可以根据压力传感器180A的检测信号计算触摸的位置。在一些实施例中,作用于相同触摸位置,但不同触摸操作强度的触摸操作,可以对应不同的操作指令。例如:当有触摸操作强度小于第一压力阈值的触摸操作作用于短消息应用图标时,执行查看短消息的指令。当有触摸操作强度大于或等于第一压力阈值的触摸操作作用于短消息应用图标时,执行新建短消息的指令。
[0107] 陀螺仪传感器180B可以用于确定电子设备100的运动姿态。在一些实施例中,可以通过陀螺仪传感器180B确定电子设备100围绕三个轴(即,x,y和z轴)的角速度。陀螺仪传感器180B可以用于拍摄防抖。示例性的,当按下快门,陀螺仪传感器180B检测电子设备100抖动的角度,根据角度计算出镜头模组需要补偿的距离,让镜头通过反向运动抵消电子设备100的抖动,实现防抖。陀螺仪传感器180B还可以用于导航,体感游戏场景。
[0108] 气压传感器180C用于测量气压。在一些实施例中,电子设备100通过气压传感器180C测得的气压值计算海拔高度,辅助定位和导航。
[0109] 磁传感器180D包括霍尔传感器。电子设备100可以利用磁传感器180D检测翻盖皮套的开合。在一些实施例中,当电子设备100是翻盖机时,电子设备100可以根据磁传感器180D检测翻盖的开合。进而根据检测到的皮套的开合状态或翻盖的开合状态,设置翻盖自动解锁等特性。
[0110] 加速度传感器180E可检测电子设备100在各个方向上(一般为三轴)加速度的大小。当电子设备100静止时可检测出重力的大小及方向。还可以用于识别电子设备姿态,应用于横竖屏切换,计步器等应用。
[0111] 距离传感器180F,用于测量距离。电子设备100可以通过红外或激光测量距离。在一些实施例中,拍摄场景,电子设备100可以利用距离传感器180F测距以实现快速对焦。
[0112] 接近光传感器180G可以包括例如发光二极管(LED)和光检测器,例如光电二极管。发光二极管可以是红外发光二极管。电子设备100通过发光二极管向外发射红外光。电子设备100使用光电二极管检测来自附近物体的红外反射光。当检测到充分的反射光时,可以确定电子设备100附近有物体。当检测到不充分的反射光时,电子设备100可以确定电子设备
100附近没有物体。电子设备100可以利用接近光传感器180G检测用户手持电子设备100贴近耳朵通话,以便自动熄灭屏幕达到省电的目的。接近光传感器180G也可用于皮套模式,口袋模式自动解锁与锁屏。
[0113] 环境光传感器180L用于感知环境光亮度。电子设备100可以根据感知的环境光亮度自适应调节显示屏194亮度。环境光传感器180L也可用于拍照时自动调节白平衡。环境光传感器180L还可以与接近光传感器180G配合,检测电子设备100是否在口袋里,以防误触。
[0114] 指纹传感器180H用于采集指纹。电子设备100可以利用采集的指纹特性实现指纹解锁,访问应用锁,指纹拍照,指纹接听来电等。
[0115] 温度传感器180J用于检测温度。在一些实施例中,电子设备100利用温度传感器180J检测的温度,执行温度处理策略。例如,当温度传感器180J上报的温度超过阈值,电子设备100执行降低位于温度传感器180J附近的处理器的性能,以便降低功耗实施热保护。在另一些实施例中,当温度低于另一阈值时,电子设备100对电池142加热,以避免低温导致电子设备100异常关机。在其他一些实施例中,当温度低于又一阈值时,电子设备100对电池
142的输出电压执行升压,以避免低温导致的异常关机。
[0116] 触摸传感器180K,也称“触控器件”。触摸传感器180K可以设置于显示屏194,由触摸传感器180K与显示屏194组成触摸屏,也称“触控屏”。触摸传感器180K用于检测作用于其上或附近的触摸操作。触摸传感器可以将检测到的触摸操作传递给应用处理器,以确定触摸事件类型。可以通过显示屏194提供与触摸操作相关的视觉输出。在另一些实施例中,触摸传感器180K也可以设置于电子设备100的表面,与显示屏194所处的位置不同。
[0117] 骨传导传感器180M可以获取振动信号。在一些实施例中,骨传导传感器180M可以获取人体声部振动骨块的振动信号。骨传导传感器180M也可以接触人体脉搏,接收血压跳动信号。在一些实施例中,骨传导传感器180M也可以设置于耳机中,结合成骨传导耳机。音频模块170可以基于所述骨传导传感器180M获取的声部振动骨块的振动信号,解析出语音信号,实现语音功能。应用处理器可以基于所述骨传导传感器180M获取的血压跳动信号解析心率信息,实现心率检测功能。
[0118] 按键190包括开机键,音量键等。按键190可以是机械按键。也可以是触摸式按键。电子设备100可以接收按键输入,产生与电子设备100的用户设置以及功能控制有关的键信号输入。
[0119] 马达191可以产生振动提示。马达191可以用于来电振动提示,也可以用于触摸振动反馈。例如,作用于不同应用(例如拍照,音频播放等)的触摸操作,可以对应不同的振动反馈效果。作用于显示屏194不同区域的触摸操作,马达191也可对应不同的振动反馈效果。不同的应用场景(例如:时间提醒,接收信息,闹钟,游戏等)也可以对应不同的振动反馈效果。触摸振动反馈效果还可以支持自定义。
[0120] 指示器192可以是指示灯,可以用于指示充电状态,电量变化,也可以用于指示消息,未接来电,通知等。
[0121] SIM卡接口195用于连接SIM卡。SIM卡可以通过插入SIM卡接口195,或从SIM卡接口195拔出,实现和电子设备100的接触和分离。电子设备100可以支持1个或N个SIM卡接口,N为大于1的正整数。SIM卡接口195可以支持Nano SIM卡,Micro SIM卡,SIM卡等。同一个SIM卡接口195可以同时插入多张卡。所述多张卡的类型可以相同,也可以不同。SIM卡接口195也可以兼容不同类型的SIM卡。SIM卡接口195也可以兼容外部存储卡。电子设备100通过SIM卡和网络交互,实现通话以及数据通信等功能。在一些实施例中,电子设备100采用eSIM,即:嵌入式SIM卡。eSIM卡可以嵌在电子设备100中,不能和电子设备100分离。
[0122] 电子设备100的软件系统可以采用分层架构,事件驱动架构,微核架构,微服务架构,或云架构。本发明实施例以分层架构的Android系统为例,示例性说明电子设备100的软件结构。
[0123] 图2是本发明实施例的电子设备100的软件结构框图。
[0124] 分层架构将软件分成若干个层,每一层都有清晰的角色和分工。层与层之间通过软件接口通信。在一些实施例中,将Android系统分为四层,从上至下分别为应用程序层,应用程序框架层,安卓运行时(Android runtime)和系统库,以及内核层。
[0125] 应用程序层可以包括一系列应用程序包。
[0126] 如图2所示,应用程序包可以包括相机,图库,日历,通话,地图,导航,WLAN,蓝牙,音乐,视频,短信息等应用程序。
[0127] 应用程序框架层为应用程序层的应用程序提供应用编程接口(application programming interface,API)和编程框架。应用程序框架层包括一些预先定义的函数。
[0128] 如图2所示,应用程序框架层可以包括窗口管理器,内容提供器,视图系统,电话管理器,资源管理器,通知管理器等。
[0129] 窗口管理器用于管理窗口程序。窗口管理器可以获取显示屏大小,判断是否有状态栏,锁定屏幕,截取屏幕等。
[0130] 内容提供器用来存放和获取数据,并使这些数据可以被应用程序访问。所述数据可以包括视频,图像,音频,拨打和接听的电话,浏览历史和书签,电话簿等。
[0131] 视图系统包括可视控件,例如显示文字的控件,显示图片的控件等。视图系统可用于构建应用程序。显示界面可以由一个或多个视图组成的。例如,包括短信通知图标的显示界面,可以包括显示文字的视图以及显示图片的视图。
[0132] 电话管理器用于提供电子设备100的通信功能。例如通话状态的管理(包括接通,挂断等)。
[0133] 资源管理器为应用程序提供各种资源,比如本地化字符串,图标,图片,布局文件,视频文件等等。
[0134] 通知管理器使应用程序可以在状态栏中显示通知信息,可以用于传达告知类型的消息,可以短暂停留后自动消失,无需用户交互。比如通知管理器被用于告知下载完成,消息提醒等。通知管理器还可以是以图表或者滚动条文本形式出现在系统顶部状态栏的通知,例如后台运行的应用程序的通知,还可以是以对话窗口形式出现在屏幕上的通知。例如在状态栏提示文本信息,发出提示音,电子设备振动,指示灯闪烁等。
[0135] Android Runtime包括核心库和虚拟机。Android runtime负责安卓系统的调度和管理。
[0136] 核心库包含两部分:一部分是java语言需要调用的功能函数,另一部分是安卓的核心库。
[0137] 应用程序层和应用程序框架层运行在虚拟机中。虚拟机将应用程序层和应用程序框架层的java文件执行为二进制文件。虚拟机用于执行对象生命周期的管理,堆栈管理,线程管理,安全和异常的管理,以及垃圾回收等功能。
[0138] 系统库可以包括多个功能模块。例如:表面管理器(surface manager),媒体库(Media Libraries),三维图形处理库(例如:OpenGL ES),2D图形引擎(例如:SGL)等。
[0139] 表面管理器用于对显示子系统进行管理,并且为多个应用程序提供了2D和3D图层的融合。
[0140] 媒体库支持多种常用的音频,视频格式回放和录制,以及静态图像文件等。媒体库可以支持多种音视频编码格式,例如:MPEG4,H.264,MP3,AAC,AMR,JPG,PNG等。
[0141] 三维图形处理库用于实现三维图形绘图,图像渲染,合成,和图层处理等。
[0142] 2D图形引擎是2D绘图的绘图引擎。
[0143] 内核层是硬件和软件之间的层。内核层至少包含显示驱动,摄像头驱动,音频驱动,传感器驱动。
[0144] 为了便于理解,本申请以下实施例将以具有图1和图2所示结构的电子设备为例,结合附图和应用场景,对本申请实施例提供的方法进行具体说明。
[0145] 图3是本申请实施例图像合成方法的图形用户界面(graphical user interface,GUI)示例图,在图3中电子设备是手机为例,示例性说明本申请实施例提供的图像合成方法。
[0146] 图3的31部分,用户选择一幅图像作为需要更换背景的第一图像,例如31部分的图像310所示,用户点击换背景控件,相应的,手机检测到用户的操作,展示向用户推荐的背景图像,展示的方式不限制,例如在图3的32部分中,通过分页的方式向用户展示背景图像,在图3的32部分中示出了展示的第1页的背景图像,第1页中共展示9个背景图像;这里展示的背景图像是基于第一图像获取到的背景图像,并且按照背景图像与第一图像之间的拍摄角度差异从小到大进行了排序。用户从展示的背景图像中选择一个背景图像(图3中以用户通过点击的方式选择背景图像1作为示例)作为第二图像;相应的,手机检测到用户的选择操作,向用户展示用户选择的背景图像,如图3中33部分所示,将第二图像320展示给用户。
[0147] 用户在展示的第二图像320中指定一个位置作为从第一图像中分离出来的人物图像合成至第二图像的位置,点击确定控件,相应的,手机接收到用户的位置指定操作,将第一图像310中分离出的人物图像合成至第二图像320中用户指定的位置,得到目标图像。使用本申请图像合成方法得到的目标图像的合理性和融合性相对更高。
[0148] 以下,举实例对本申请图像合成方法的实现进行更为详细的说明。
[0149] 图4为本申请图像合成方法的一个实施例流程图,如图4所示,该方法可以包括:
[0150] 步骤401:在服务器侧预设背景图像的素材库。
[0151] 素材库中的图像可以是电子设备例如手机拍摄的图像,由电子设备所属用户授权并上传至服务器,也可以是素材库提供者拍摄或采集的图像等。素材库中图像的来源本申请实施例不作限定。
[0152] 素材库中的每一张图像可以设置有:角度标签和分类标签。
[0153] 角度标签用于记录图像的拍摄角度信息例如拍摄姿态角;分类标签用于记录图像的分类信息。素材库可以根据图像的分类标签对素材库中的图像进行分类存储。
[0154] 拍摄姿态角用于描述电子设备分别绕第一坐标系的xyz轴旋转的角度,第一坐标系的建立方法为:以手机坐标系的原点作为第一坐标系的原点,第一坐标系的x轴正方向为地理的正西方向,y轴正方向为垂直地面向上的方向,z轴正方向为地理的正北方向。
[0155] 拍摄姿态角可以包括3种角度参数,分别是:俯仰角α、方位角β以及横滚角γ。以下,分别对3种角度参数进行说明。
[0156] 参见图5,示出了竖屏手机坐标系的一种建立方法,其中,以手机的物理中心为原点,手机的右、上、前三个方向分别为x、y、z轴正方向,此时,当手机竖直放置、且手机的正面(一般为设置有显示屏的一面)面向地理的正北方向时,手机坐标系与第一坐标系重合。其中,
[0157] 俯仰角α:当手机坐标系的xz轴所在的平面与第一坐标系的xz轴所在平面(也即地面或者水平面)平行时,俯仰角是0度,当手机围绕第一坐标系的x轴旋转,且顶部离用户(假设用户位于手机前方)越来越远,底部离过户越来越近时(此时可以理解成,手机的后置摄像头逐渐朝着地面拍摄),俯仰角从0到‑90度变化;如果顶部离用户越来越近,底部离用户越来越远时(此时可以理解成,手机的后置摄像头逐渐朝着天空拍摄),俯仰角从0到90度变化。
[0158] 方位角β:手机围绕第一坐标系的y轴旋转,手机的正面朝向正北方向为0度,顺时针旋转,方位角从0到360度变化,正北0度、正东90度,正南180度,正西270度。
[0159] 横滚角γ:当手机坐标系的yz轴所在的平面与第一坐标系的yz轴所在平面重合(也即与水平面垂直)时,手机的横滚角是0度,手机围绕第一坐标系的z轴旋转,若顺时针旋转,横滚角从0到90度变化;如果逆时针旋转,横滚角从0到‑90度变化。
[0160] 需要说明的是,图5中以竖屏手机为例,也可以将其扩展至任一电子设备,例如横屏手机等,对于横屏手机来说,只是将图中的竖屏手机更改为横屏手机,拍摄姿态角的定义依然不变。
[0161] 图像的分类标签可以包括但不限于以下种类的标签:场景信息、和/或光线信息、和/或季节信息、和/或天气信息等。
[0162] 其中,场景信息用于记录图像的拍摄场景,参数值可以包括:室内、室外;光线信息用于记录图像的明暗程度,参数值可以包括:明、暗;季节信息用于记录图像的拍摄季节,参数值可以包括:春天、夏天、秋天、冬天;天气信息用于记录图像拍摄时的天气情况,参数值可以包括:晴、雨、雪等。
[0163] 在素材库中,可以依据图像的上述分类标签对图像分类存储,使得素材库中的图像存储更为有序。
[0164] 参见图6A所示,为用户上传的图像上传至素材库的流程,用户使用电子设备拍摄一张图像,在用户授权后,电子设备将图像、图像的分类信息(与素材库中图像的分类标签记录的信息相对应)、以及拍摄角度信息(与素材库中图像的角度标签记录的信息相对应)上传至素材库所在服务器,服务器根据上传图像的分类信息将图像进行分类进而保存至素材库的对应分类类别下。
[0165] 步骤402:电子设备获取到用户针对第一图像的背景更换操作。
[0166] 本步骤可以对应于图3中31部分,这里不赘述。
[0167] 步骤403:电子设备获取第一图像的拍摄角度信息、以及分类信息,将获取到的上述信息上传服务器。
[0168] 拍摄角度信息可以为拍摄姿态角;分类信息可以包括:素材库中各分类标签对应的参数值。例如素材库中图像的分类标签包括场景信息,则本步骤中图像的分类信息可以包括:场景信息的参数值。
[0169] 第一图像的拍摄角度信息、以及分类信息可以由电子设备在拍摄第一图像时对应确定,并作为第一图像的参数进行存储。
[0170] 电子设备可以基于自身中设置的加速度传感器和磁传感器等传感器获取电子设备的运动数据,基于电子设备的电子设备坐标系和第一坐标系,使用欧拉运动学方程计算欧拉角,电子设备基于电子设备拍摄第一图像时的运动数据计算得到的欧拉角包括的三个分量即对应第一图像的拍摄姿态角的俯仰角α、方位角β以及横滚角γ。
[0171] 第一图像的分类信息可以由电子设备确定,例如:
[0172] 场景信息可以由用户手动设置,也可以通过将第一图像输入预设的场景识别模型来确定。可选地,可以在电子设备中预设场景识别模型,该场景识别模型可以是通过对卷积神经网络训练得到的,训练原理可以为:采集室内和室外两种场景下一定数量的图像作为训练样本,并为每个训练样本设置标有室内或室外的场景标签,将训练样本输入卷积神经网络进行训练,得到场景识别模型,该场景识别模型是能够对图像进行室内、室外识别的二分类器;
[0173] 光线信息可以由电子设备基于图像的亮度来确定。
[0174] 季节信息可以由电子设备基于拍摄第一图像时的时间以及电子设备所处地理位置确定,例如:电子设备拍摄第一图像时是1月,处于北京,则第一图像的季节信息为:冬;电子设备拍摄第一图像时是1月,处于悉尼,则第一图像的季节信息为夏。
[0175] 天气信息可以由电子设备从电子设备安装的天气预报相关App中获取第一图像拍摄时的天气信息,进而确定第一图像的天气信息为:晴、或者雨、或者雪等。
[0176] 步骤404:服务器根据第一图像的分类信息查找到待选背景图像。
[0177] 素材集中按照分类标签进行分类存储,第一图像的分类信息与素材库中图像的分类标签相对应,根据第一图像的分类信息可以从素材库中查找到第一图像的分类信息对应的若干个图像,从素材库中查找到的图像即为待选背景图像。
[0178] 例如,假设素材库依次根据场景信息(室内、室外)和光线信息(明、暗)这两个分类标签进行分类,第一图像的分类信息为:室内、明,则可以从素材库中查找到场景信息‑室内、光线信息‑明这一分类分支下的若干个图像作为待选背景图像。
[0179] 根据第一图像的分类信息查找待选背景图像,可以过滤掉素材库中与第一图像的分类信息不匹配的图像,防止后续展示给用户的待选背景图像过于繁杂、不合常理,例如,第一图像是在室内、冬天拍摄的图像,第一图像中的人物穿着厚厚的衣服,则分类标签记录的信息为(室内、夏天)、或者(室外、夏天)的图像就无需作为待选背景图像在后续步骤中作为推荐的背景图像展示给用户,否则,将一幅夏天花园的图像作为背景图像推荐给用户,显然是不符合常理的,通过本步骤的执行,可以将分类标签记录的信息为(室外、冬天)的图像从素材库中查找出来,进而推荐给用户作为待选背景图像。
[0180] 步骤405:服务器根据第一图像的拍摄角度信息、以及待选背景图像的拍摄角度信息,计算每个待选背景图像与第一图像之间的拍摄角度差异值。
[0181] 拍摄角度信息为拍摄姿态角时,计算一个待选背景图像与第一图像之间的拍摄角度差异值可以包括:
[0182] 分别计算待选背景图像与第一图像之间俯仰角α的差值绝对值|Δα|、方位角β的差值绝对值|Δβ|、以及横滚角γ的差值绝对值|Δγ|;
[0183] 根据以下公式计算待选背景图像与第一图像之间的拍摄角度差异值ω:ω=Wα|Δα|+Wβ|Δβ|+Wγ|Δγ|;其中,Wα是俯仰角的预设权重,Wβ是方位角的预设权重,Wγ是横滚角的预设权重,其中,Wβ<Wγ<Wα,权重的具体取值本申请实施例不限定。
[0184] 步骤406:服务器根据每个待选背景图像对应的角度差异值对待选背景图像进行排序,将待选背景图像按照排序顺序发送至电子设备。
[0185] 以下,对步骤404~406的过程通过图6B进行说明。如图6B,服务器根据第一图片的分类信息查找到待选背景图像,根据每个待选背景图像的拍摄角度信息、以及第一图片的拍摄角度信息计算拍摄角度差异值,基于拍摄角度差异值对待选背景图像进行排序,可以按照拍摄角度差异值从小到大的顺序对待选背景图像进行排序。
[0186] 通过对待选背景图像按照拍摄角度差异值从小到大的顺序排序后发送至电子设备,由电子设备展示给用户,可以使得用户先浏览到的待选背景图像的拍摄角度更为接近第一图像的拍摄角度,从而根据用户选择的待选背景图像进行图像合成后得到的目标图像中人物图像和背景图像的融合相对更为合理、自然、协调。
[0187] 步骤407:电子设备接收服务器发送的待选背景图像,将待选背景图像展示给用户。
[0188] 本步骤的实现可以对应图3中32部分,这里不赘述。
[0189] 步骤408:电子设备接收到用户针对于展示的一张背景图像的选择操作,将用户选择的背景图像作为第二图像。
[0190] 本步骤的实现可以对应图3中32部分,这里不赘述。
[0191] 步骤409:电子设备获取第二图像的拍摄角度信息。
[0192] 第二图像的拍摄角度信息可以在确定第二图像后由电子设备从服务器获取,或者在服务器将待选背景图像发送至电子设备进行展示时携带。
[0193] 步骤410:电子设备根据第一图像的拍摄角度信息和第二图像的拍摄角度信息,对第二图像进行三维(3D,three dimensional)视角变换,使得第二图像的拍摄角度达到或接近第一图像的拍摄角度,得到目标背景图像。
[0194] 其中,对第二图像进行3D视角变换可以使用3D肯·伯恩斯效应(3D Kens Burns Effect)算法实现,在该算法中,根据第二图像的拍摄姿态角为第二图像设置一个虚拟相机的位置,并对第二图像中的图像进行3D场景几何结构估计,得到第二图像中每个像素与虚拟相机之间的距离估计值;将虚拟相机的拍摄方向向第一图像的拍摄姿态角旋转,进而依据虚拟相机的旋转对第二图像进行调整。
[0195] 这里的像素与虚拟相机之间的距离估计值,也可以认为是像素对应的真实物体与拍摄第二图像的电子设备之间的实际距离的估计值。
[0196] 在虚拟相机的旋转过程中,按优先级顺序,先对俯仰角α进行旋转,再对横滚角γ进行旋转,最后对方位角β进行旋转。
[0197] 一般的,该算法下虚拟相机的拍摄姿态角的旋转具有一定的角度限制,在第二图像的拍摄姿态角与第一图像的拍摄姿态角之间的角度差异小于该角度限制时,通过该处理可以使得目标背景图像的拍摄姿态角与第一图像的拍摄姿态角相同,在第二图像的拍摄姿态角与第一图像的拍摄姿态角之间的角度差异超过该角度限制时,可能无法使得目标背景图像的拍摄姿态角与第一图像的拍摄姿态角相同,但是通过该处理可以使得目标背景图像的拍摄姿态角更为接近第一图像的拍摄姿态角。
[0198] 通过对第二图像进行3D视角变换,使得第二图像的拍摄角度达到或接近第一图像的拍摄角度,从而降低人物图像和第二图像之间的拍摄角度差别,使得人物图像和第二图像的拍摄角度尽量接近甚至一致,从而图像合成后得到的目标图像更为合理、自然、协调。
[0199] 步骤411:电子设备将目标背景图像展示给用户,获取用户指定的、人物图像在目标背景图像中的位置信息,确定该位置信息对应的第一距离估计值。
[0200] 本步骤的实现可以对应图3中33部分;或者,电子设备也可以从第一图像中分离出人物图像,将人物图像放置于目标背景图像上,由用户拖动人物图像,从而指定人物图像在目标背景图像中的位置。
[0201] 其中,位置信息可以是一个点的信息也可以是一个区域的信息。
[0202] 像素与虚拟相机之间的距离估计值在步骤410中对第二图像进行3D视角变换时一般即可以得到,如果步骤410处理过程中未确定第二图像中每个像素与虚拟相机之间的距离估计值,可以通过例如步骤410中示出的3D Kens Burns Effect算法计算得到。根据位置信息处的像素与虚拟相机之间的距离估计值,即可得到位置信息对应的第一距离估计值。其中,如果位置信息指示一个点,可以将该点对应的像素与虚拟相机之间的距离估计值确定为位置信息对应的第一距离估计值,如果位置信息指示一个区域,可以根据该区域包括的一个像素或者多个像素与虚拟相机之间的距离估计值,确定位置信息对应的第一距离估计值,如果根据该区域包括的多个像素与虚拟相机之间的距离估计值确定位置信息对应的第一距离估计值,可以通过计算多个像素对应的距离估计值的均值的方式确定位置信息对应的第一距离估计值。
[0203] 步骤412:电子设备从第一图像中分离出人物图像,根据位置信息对应的第一距离估计值对人物图像进行缩放,得到目标人物图像。
[0204] 其中,电子设备从第一图像中分离出人物图像的步骤可以在步骤402与步骤412中根据位置信息对应的第一距离估计值对人物图像进行缩放的步骤之间执行,与步骤403~步骤411之间的执行顺序不限制。人物图像可以由电子设备自动分离,也可以由用户从第一图像中选择需要分离的人物图像。如果由用户选择,可以将第一图像展示给用户,由用户执行区域选择操作,相应的,电子设备可以基于用户的区域选择操作确定需要分离的人物图像,进而从第一图像中分离出人物图像。
[0205] 在一种可能的实现方式中,本步骤可以根据人眼间距是基本相同的原则,预先确定被拍摄的人与相机之间在不同拍摄距离下,人眼平均间距在分辨率相同的拍摄图像中占用的像素数,举例来说,人与相机距离10m,人眼平均间距在拍摄得到的图像中占用的像素数为x1,人与相机距离20m,人眼平均间距在拍摄得到的图像中占用的像素数为x2,等等。
[0206] 在本步骤中,电子设备可以获取分离出的人物图像的人眼间距占用的像素数,根据人眼间距占用的像素数确定人物图像对应的第二距离估计值,根据位置信息对应的第一距离估计值以及人物图像对应的第二距离估计值对人物图像进行缩放,即可以得到目标人物图像。第二距离估计值也即是在拍摄第一图像时人物图像对应的人与拍摄第一图像的电子设备之间的距离估计值。
[0207] 在另一种可能的实现方式中,本步骤中可以使用例如3D Kens Burns Effect算法计算第一图像中各个像素相对于虚拟相机的距离估计值,从而可以得到人物图像包括的像素对应的距离估计值,根据人物图像包括的像素对应的距离估计值可以确定人物图像对应的第二距离估计值,例如取人物图像包括的所有像素的距离估计值的平均值、或者取某一预设位置例如眼部的像素的距离估计值等。根据位置信息对应的第一距离估计值以及人物图像对应的第二距离估计值对人物图像进行缩放,可以得到目标人物图像。
[0208] 本步骤中根据位置信息对应的第一距离估计值对人物图像进行缩放,可以使得人物图像的大小更趋近于人实际站在第二图像对应的实际场景下同一位置时拍摄的人物大小,从而使得合成后的目标图像在视觉上更为合理、自然、协调。
[0209] 步骤413:电子设备对目标人物图像和/或目标背景图像的颜色参数进行调整,将调整后的目标人物图像和目标背景图像进行合成,得到目标图像。
[0210] 颜色参数可以包括色温、和/或对比度等。
[0211] 通过对颜色参数的调整,可以使得目标人物图像和目标背景图像的颜色参数更为接近,从而使得合成后的目标图像更为自然和合理。
[0212] 在一种实现方式中,可以计算目标背景图像的色温和目标人物图像的色温,据此调整目标人物图像的色温,使得目标人物图像的色温更接近目标背景图像的色温。图像的色温计算方法本申请实施例不再赘述,例如可以使用自动白平衡算法中的色温估计方法来计算目标背景图像的色温。
[0213] 本步骤中通过对目标人物图像和/或目标背景图像的颜色参数进行调整,缩小两者之间的颜色差异,可以使得合成后得到的目标图像在视觉上颜色更为协调、合理、自然。
[0214] 步骤414:电子设备将目标图像展示给用户。
[0215] 本步骤可以对应图3中34部分,这里不赘述。
[0216] 现有的抠图换背景的处理中,直接按照用户编辑的人物图像的大小将其合成至用户选择的背景图像中,人物图像和背景图像存在拍摄角度、场景逻辑、光线、视野远近等的差异,很容易造成合成的图像整体协调性差、图像失真、场景逻辑出错以及光影差异等问题,导致合成的图像失真、不自然。
[0217] 而本申请实施例的图像合成方法,解决了抠图换背景过程中存在的上述问题,缩小第一图像和第二图像之间存在的拍摄角度差异,另外,还可以缩小场景逻辑差异、颜色差异和/或视野场景深度的差异,使得图像合成后得到的目标图像在视觉上更为合理、自然、协调,提升用户体验。
[0218] 以上以分离出第一图像中人物图像与第二图像合成,也即更换第一图像中人物图像的背景图像为例,本申请实施例的方法也可以从人物图像扩展至任一存在物的图像,例如动物图像、物体图像等等,以下将从第一图像中分离出来的、需要与第二图像进行合成的图像称为前景图像。
[0219] 本申请实施例的方法可以扩展至对视频中图像的合成方法,从而更换视频中图像的背景图像,在对视频处理时,视频中的每一帧图像可以作为本申请实施例中的第一图像。
[0220] 图7为本申请图像合成方法一个实施例的流程图,可以应用于电子设备,如图7所示,该方法可以包括:
[0221] 步骤701:接收到用户针对第一图像的背景更换操作,获取第一图像的拍摄角度信息;
[0222] 步骤702:获取第二图像、以及第二图像的拍摄角度信息;
[0223] 步骤703:根据第一图像的拍摄角度信息和第二图像的拍摄角度信息对第二图像进行3D视角变换,使得第二图像的拍摄角度达到或接近第一图像的拍摄角度,得到目标背景图像;
[0224] 步骤704:将从第一图像中分离出的前景图像与所述目标背景图像进行图像合成,得到目标图像。
[0225] 其中,所述前景图像可以是图4所示实施例中的人物图像,也可以是其他存在物的图像,例如动物图像、物体图像等等。电子设备可以将第一图像展示给用户,由用户执行区域选择操作,相应的,电子设备可以将用户的区域选择操作指示的区域作为前景图像的区域,进而从第一图像中分离出前景图像。
[0226] 可选地,步骤702中获取第二图像,可以包括:
[0227] 获取第一图像的预设分类信息;
[0228] 获取并展示与第一图像的预设分类信息匹配的待选背景图像;展示的待选背景图像按照待选背景图像与第一图像之间的拍摄角度差异值从小到大排序;待选背景图像与第一图像之间的拍摄角度差异值根据待选背景图像的拍摄角度信息、以及第一图像的拍摄角度信息计算得到;
[0229] 接收到用户针对于待选背景图像的选择操作,将选择操作指示的待选背景图像作为第二图像。
[0230] 可选地,电子设备也可以从电子设备本地获取第二图像,例如用户选择电子设备的相册中的某一图像作为第二图像,相应的,电子设备可以根据用户的操作获取到用户选择的第二图像。
[0231] 可选地,获取与第一图像的预设分类信息匹配的待选背景图像,可以包括:
[0232] 向服务器发送第一图像的拍摄角度信息、以及预设分类信息;
[0233] 接收服务器发送的与第一图像的预设分类信息匹配的待选背景图像,待选背景图像由服务器按照待选背景图像与第一图像之间的拍摄角度差异值排序,待选背景图像与第一图像之间的拍摄角度差异值由服务器根据待选背景图像的拍摄角度信息、以及第一图像的拍摄角度信息计算得到。
[0234] 可选地,步骤704可以包括:
[0235] 展示目标背景图像,接收到用户在目标背景图像上的位置指定操作,得到用户在目标背景图像上指定位置的位置信息;
[0236] 确定位置信息对应的第一距离估计值;
[0237] 根据第一距离估计值对前景图像进行缩放,得到目标前景图像;
[0238] 将目标前景图像合成至目标背景图像中位置信息指示的位置,得到目标图像。
[0239] 可选地,将目标前景图像合成至目标背景图像上位置信息指示的位置,得到目标图像之前,还可以包括:
[0240] 对目标前景图像和/或目标背景图像的颜色参数进行调整。
[0241] 可选地,拍摄角度信息可以包括:拍摄姿态角,拍摄姿态角包括:俯仰角、方位角和横滚角。
[0242] 可以理解的是,上述实施例中的部分或全部步骤骤或操作仅是示例,本申请实施例还可以执行其它操作或者各种操作的变形。此外,各个步骤可以按照上述实施例呈现的不同的顺序来执行,并且有可能并非要执行上述实施例中的全部操作。
[0243] 图8为本申请图像合成装置一个实施例的结构图,可以应用于电子设备,如图8所示,该装置80可以包括:
[0244] 获取单元81,用于接收到用户针对第一图像的背景更换操作,获取第一图像的拍摄角度信息;获取第二图像、以及第二图像的拍摄角度信息;
[0245] 变换单元82,用于根据第一图像的拍摄角度信息和第二图像的拍摄角度信息对第二图像进行3D视角变换,使得第二图像的拍摄角度达到或接近第一图像的拍摄角度,得到目标背景图像;
[0246] 合成单元83,用于将从第一图像中分离出的前景图像与所述目标背景图像进行图像合成,得到目标图像。
[0247] 可选地,获取单元具体可以用于:获取第一图像的预设分类信息;获取并展示与第一图像的预设分类信息匹配的待选背景图像;展示的待选背景图像按照待选背景图像与第一图像之间的拍摄角度差异值从小到大排序;待选背景图像与第一图像之间的拍摄角度差异值根据待选背景图像的拍摄角度信息、以及第一图像的拍摄角度信息计算得到;接收到用户针对于待选背景图像的选择操作,将选择操作指示的待选背景图像作为第二图像。
[0248] 可选地,获取单元具体可以用于:向服务器发送第一图像的拍摄角度信息、以及预设分类信息;接收服务器发送的与第一图像的预设分类信息匹配的待选背景图像,待选背景图像由服务器按照待选背景图像与第一图像之间的拍摄角度差异值排序,待选背景图像与第一图像之间的拍摄角度差异值由服务器根据待选背景图像的拍摄角度信息、以及第一图像的拍摄角度信息计算得到。
[0249] 可选地,合成单元具体可以用于:展示目标背景图像,接收到用户在目标背景图像上的位置指定操作,得到用户在目标背景图像上指定位置的位置信息;确定位置信息对应的第一距离估计值;根据第一距离估计值对前景图像进行缩放,得到目标前景图像;将目标前景图像合成至目标背景图像中位置信息指示的位置,得到目标图像。
[0250] 可选地,合成单元还可以用于:对目标前景图像和/或目标背景图像的颜色参数进行调整。
[0251] 可选地,拍摄角度信息可以包括:拍摄姿态角,拍摄姿态角包括:俯仰角、方位角和横滚角。
[0252] 图8所示实施例提供的装置可用于执行本申请图4~图7所示方法实施例的技术方案,其实现原理和技术效果可以进一步参考方法实施例中的相关描述。
[0253] 应理解以上图8所示装置的各个单元的划分仅仅是一种逻辑功能的划分,实际实现时可以全部或部分集成到一个物理实体上,也可以物理上分开。且这些单元可以全部以软件通过处理元件调用的形式实现;也可以全部以硬件的形式实现;还可以部分单元以软件通过处理元件调用的形式实现,部分单元通过硬件的形式实现。例如,合成单元可以为单独设立的处理元件,也可以集成在电子设备的某一个芯片中实现。其它单元的实现与之类似。此外这些单元全部或部分可以集成在一起,也可以独立实现。在实现过程中,上述方法的各步骤或以上各个单元可以通过处理器元件中的硬件的集成逻辑电路或者软件形式的指令完成。
[0254] 例如,以上这些单元可以是被配置成实施以上方法的一个或多个集成电路,例如:一个或多个特定集成电路(Application Specific Integrated Circuit;以下简称:
ASIC),或,一个或多个微处理器(Digital Singnal Processor;以下简称:DSP),或,一个或者多个现场可编程门阵列(Field Programmable Gate Array;以下简称:FPGA)等。再如,这些单元可以集成在一起,以片上系统(System‑On‑a‑Chip;以下简称:SOC)的形式实现。
[0255] 本申请实施例还提供一种电子设备,电子设备可以包括:显示屏;一个或多个处理器;存储器;多个应用程序;以及一个或多个计算机程序。其中上述一个或多个计算机程序被存储在上述存储器中,上述一个或多个计算机程序包括指令,当上述指令被上述设备执行时,使得上述设备执行以下步骤:
[0256] 接收到用户针对第一图像的背景更换操作,获取第一图像的拍摄角度信息;
[0257] 获取第二图像、以及第二图像的拍摄角度信息;
[0258] 根据第一图像的拍摄角度信息和第二图像的拍摄角度信息对第二图像进行3D视角变换,使得第二图像的拍摄角度达到或接近第一图像的拍摄角度,得到目标背景图像;
[0259] 将从第一图像中分离出的前景图像与所述目标背景图像进行图像合成,得到目标图像。
[0260] 其中,所述前景图像可以是图4所示实施例中的人物图像,也可以是其他存在物的图像,例如动物图像、物体图像等等。电子设备可以将第一图像展示给用户,由用户执行区域选择操作,相应的,电子设备可以将用户的区域选择操作指示的区域作为前景图像的区域,进而从第一图像中分离出前景图像。
[0261] 可选地,获取第二图像的步骤,可以包括:
[0262] 获取第一图像的预设分类信息;
[0263] 获取并展示与第一图像的预设分类信息匹配的待选背景图像;展示的待选背景图像按照待选背景图像与第一图像之间的拍摄角度差异值排序;待选背景图像与第一图像之间的拍摄角度差异值根据待选背景图像的拍摄角度信息、以及第一图像的拍摄角度信息计算得到;
[0264] 接收到用户针对于待选背景图像的选择操作,将选择操作指示的待选背景图像作为第二图像。
[0265] 可选地,电子设备也可以从电子设备本地获取第二图像,例如用户选择电子设备的相册中的某一图像作为第二图像,相应的,电子设备可以根据用户的操作获取到用户选择的第二图像。
[0266] 可选地,获取与第一图像的预设分类信息匹配的待选背景图像的步骤,可以包括:
[0267] 向服务器发送第一图像的拍摄角度信息、以及预设分类信息;
[0268] 接收服务器发送的与第一图像的预设分类信息匹配的待选背景图像,待选背景图像由服务器按照待选背景图像与第一图像之间的拍摄角度差异值从小到大排序,待选背景图像与第一图像之间的拍摄角度差异值由服务器根据待选背景图像的拍摄角度信息、以及第一图像的拍摄角度信息计算得到。
[0269] 可选地,将从第一图像中分离出的前景图像与所述目标背景图像进行图像合成,得到目标图像的步骤,可以包括:
[0270] 展示目标背景图像,接收到用户在目标背景图像上的位置指定操作,得到用户在目标背景图像上指定位置的位置信息;
[0271] 确定位置信息对应的第一距离估计值;
[0272] 根据第一距离估计值对前景图像进行缩放,得到目标前景图像;
[0273] 将目标前景图像合成至目标背景图像中位置信息指示的位置,得到目标图像。
[0274] 可选地,将目标前景图像合成至目标背景图像上位置信息指示的位置,得到目标图像的步骤之前,还可以包括:
[0275] 对目标前景图像和/或目标背景图像的颜色参数进行调整。
[0276] 可选地,拍摄角度信息可以包括:拍摄姿态角,拍摄姿态角包括:俯仰角、方位角和横滚角。
[0277] 本申请还提供一种电子设备,所述设备包括存储介质和中央处理器,所述存储介质可以是非易失性存储介质,所述存储介质中存储有计算机可执行程序,所述中央处理器与所述非易失性存储介质连接,并执行所述计算机可执行程序以实现本申请图4~图7所示实施例提供的方法。
[0278] 本申请实施例还提供一种计算机可读存储介质,该计算机可读存储介质中存储有计算机程序,当其在计算机上运行时,使得计算机执行本申请图4~图7所示实施例提供的方法。
[0279] 本申请实施例还提供一种计算机程序产品,该计算机程序产品包括计算机程序,当其在计算机上运行时,使得计算机执行本申请图4~图7所示实施例提供的方法。
[0280] 本申请实施例中,“至少一个”是指一个或者多个,“多个”是指两个或两个以上。“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示单独存在A、同时存在A和B、单独存在B的情况。其中A,B可以是单数或者复数。字符“/”一般表示前后关联对象是一种“或”的关系。“以下至少一项”及其类似表达,是指的这些项中的任意组合,包括单项或复数项的任意组合。例如,a,b和c中的至少一项可以表示:a,b,c,a和b,a和c,b和c或a和b和c,其中a,b,c可以是单个,也可以是多个。
[0281] 本领域普通技术人员可以意识到,本文中公开的实施例中描述的各单元及算法步骤,能够以电子硬件、计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
[0282] 所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
[0283] 在本申请所提供的几个实施例中,任一功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read‑Only Memory;以下简称:ROM)、随机存取存储器(Random Access Memory;以下简称:RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
[0284] 以上所述,仅为本申请的具体实施方式,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。本申请的保护范围应以所述权利要求的保护范围为准。