基于光路采集的移动裸眼三维虚拟现实的方法和系统转让专利

申请号 : CN201611202874.0

文献号 : CN106878698B

文献日 :

基本信息:

PDF:

法律信息:

相似专利:

发明人 : 马魁裴仁静耿征张梅

申请人 : 中国科学院自动化研究所

摘要 :

本发明涉及本发明实施例提出一种基于光路采集的移动裸眼三维虚拟现实的方法和系统。其中,该方法可以包括:采集图像;根据采集到的图像获得两视点合成图索引图;根据加速度的位置信息和角速度的旋转信息,获得两视点图;基于图像的两视点合成图索引图,对两视点图渲染出合成图,得到三维虚拟现实显示图像。优选地,获得两视点图步骤具体可以包括:确定图像上子像素亮度影响权重,然后利用带有包围盒的最小二乘方法,确定两视点的合成图索引图;根据加速度的位置信息和角速度的旋转信息,调整所获取的图像的方位,获得两视点图。本发明实施例通过采用上述技术方案,解决了如何实现高质量的裸眼三维虚拟现实显示的技术问题。

权利要求 :

1.一种基于光路采集的移动裸眼三维虚拟现实的方法,其特征在于,所述方法包括:采集图像;

基于采集到的所述图像获得两视点合成图索引图;

根据观看者的加速度的位置信息和角速度的旋转信息,获得两视点图;

基于所述图像的所述两视点合成图索引图,对所述两视点图渲染出合成图,得到三维虚拟现实显示图像;

所述基于采集到的所述图像获得两视点合成图索引图具体包括:

确定所述图像上每个子像素的周边子像素对所述每个子像素的亮度影响权重;

基于所述图像上所述亮度影响权重,利用带有包围盒的最小二乘方法,确定所述两视点的所述合成图索引图。

2.根据权利要求1所述的基于光路采集的移动裸眼三维虚拟现实的方法,其特征在于,所述确定所述亮度影响权重具体包括:根据下式确定所述图像上所述亮度影响权重:

其中,所述Imagec(t)(i,j,k)表示在第t个视点处采集到的图像Imagec上的子像素,所述t=0、1,所述i=1~H,所述j=1~W,所述k表示图像Imagec的颜色通道且k=1~3;所述H表示所述图像的高度;所述W表示所述图像的宽度;所述r表示安全窗口半径;所述m、n表示以所述安全窗口中心为原点的窗口坐标;所述q表示图像 的颜色通道且q=1~3;所述Imagem(i+m,j+n,q)表示所述图像上的子像素;所述 表示所述图像上子像素(i+m,j+n,q)点亮到最大亮度时对邻近像素(i,j,k)经过归一化后的亮度影响权重。

3.根据权利要求1所述的基于光路采集的移动裸眼三维虚拟现实的方法,其特征在于,所述基于所述图像上所述亮度影响权重,利用带有包围盒的最小二乘方法,确定所述两视点的所述合成图索引图,具体包括:基于所述亮度影响权重,利用带有包围盒的最小二乘方法,根据下式确定所述两视点的所述合成图索引图:其中,所述 表示所述两视点对应亮度影响权重的差异;所述I表示所述两视点的所述合成图索引图,且被限定于包围盒BI={I∈Z1×H:L≤I≤U}中,L=0×I1×H且U=255×I1×H,所述I1×H表示H维的全1列向量;所述 表示两视点采集图像的差异;所述H表示所述图像的高度,所述Z表示整数。

4.根据权利要求1所述的基于光路采集的移动裸眼三维虚拟现实的方法,其特征在于,在所述确定所述亮度影响权重步骤之前还包括:对所述图像进行反畸变和兴趣区域提取操作处理。

5.根据权利要求1所述的基于光路采集的移动裸眼三维虚拟现实的方法,其特征在于,所述根据加速度的位置信息和角速度的旋转信息,获得两视点图,具体包括:根据所述加速度的位置信息和所述角速度的旋转信息,调整所采集的所述图像的方位,获得所述两视点图。

6.根据权利要求1所述的基于光路采集的移动裸眼三维虚拟现实的方法,其特征在于,所述基于所述图像的所述两视点合成图索引图,对所述两视点图渲染出合成图,得到三维虚拟现实显示图像,具体包括:根据下式渲染出合成图,得到所述三维虚拟现实显示图像:

Syn=I0×view0+I1×view1;

其中,所述Syn表示所述三维虚拟现实显示图像;所述I0表示第0视点的合成图索引图;

所述I1表示第1视点的合成图索引图;所述view0表示第0视点图;所述view1表示第1视点图。

7.一种基于光路采集的移动裸眼三维虚拟现实的系统,其特征在于,所述系统包括:图像获取单元,用于采集图像,并将所述图像发送至控制器;

移动终端,包括屏幕,所述屏幕上设有微透镜阵列膜,用于将加速度的位置信息和角速度的旋转信息发送至所述控制器,并通过所述屏幕显示三维虚拟现实显示图像;

所述控制器,分别与所述图像获取单元和所述移动终端通信连接;用于对所述图像进行处理,得到两视点合成图索引图,且根据所述加速度的位置信息和所述角速度的旋转信息,获得两视点图,并基于所述图像的所述两视点合成图索引图,对所述两视点图渲染出合成图,得到所述三维虚拟现实显示图像,以及将所述三维虚拟现实显示图像发送至所述移动终端;

所述控制器还用于执行如下操作:确定所述图像上每个子像素的周边子像素对所述每个子像素的亮度影响权重;基于所述图像上所述亮度影响权重,利用带有包围盒的最小二乘方法,确定所述两视点的所述合成图索引图。

8.根据权利要求7所述的基于光路采集的移动裸眼三维虚拟现实的系统,其特征在于,所述移动终端包括:加速度计,用于获取观看者的加速度的位置信息;

陀螺仪,用于获取观看者的角速度的旋转信息。

9.根据权利要求7所述的基于光路采集的移动裸眼三维虚拟现实的系统,其特征在于,所述图像获取单元为单目相机或双目相机。

10.根据权利要求7所述的基于光路采集的移动裸眼三维虚拟现实的系统,其特征在于,所述移动终端为手机或个人数字助理。

11.根据权利要求7所述的基于光路采集的移动裸眼三维虚拟现实的系统,其特征在于,所述控制器为计算机、服务器或工控机。

说明书 :

基于光路采集的移动裸眼三维虚拟现实的方法和系统

技术领域

[0001] 本发明涉及三维显示方法,尤其涉及一种基于光路采集的移动裸眼三维虚拟现实的方法和系统。

背景技术

[0002] 目前,虚拟现实在全球掀起了浪潮,而三维虚拟现实则是一个较新的发展方向。虚拟现实技术是集合了跟踪系统、触觉系统、图像生成与显示系统和可视化显示设备的一个综合成果,但在实用商业化的路中仍存在很多有待解决的问题。虚拟现实大多是通过穿戴式设备头盔来集成相关技术,但是头带大小无法调节、头盔过重、长时间佩戴时设备的透气、散热性差,这些因素都会使得观看者的舒适体验度下降;由于虚拟现实的设备需要与电脑相连,进行信号传输,其常常是连接一根很长的线缆作为通讯保障。在观看者移动的情况下,注意力一直在显示设备上而忽略了脚下的线缆就存在被绊倒的危险;相对而言,性能中等偏上的虚拟现实设备,其价格也普遍偏高。作为一款娱乐工具,目前其显示资源十分有限,但售价超出普通大众的承受能力。三维虚拟现实相对于传统的虚拟现实,更加贴近人类实际感知,能够直观的给观看者带来深度效果。在国内外众多三维显示技术中,全息技术是通过干涉和衍射的光学现象真实的记录并还原出真实物体图像的记录和还原技术,但目前的全息影像装置采用激光进行影像采集与显示,设备造价极其昂贵。集成成像三维显示技术在图像视点串扰、视点数目等多方面存在问题。裸眼体视三维显示具有可观的商业前景,目前已经走出实验室阶段的体视三维显示装置,大多结构复杂、笨重并且需要多种材料设备和自行设计的控制装置,并不适合应用在移动性较强的虚拟现实技术中。
[0003] 移动终端由于其便携性和普及性,在三维虚拟现实技术中占据了先天性的优势。微透镜阵列裸眼三维显示技术基于覆盖在二维平面屏幕上的微透镜阵列,其实现相对简单,并且其三维图像重建的质量足以用于许多消费电子设备。用于显示技术的现有渲染方法,例如飞利浦的模算术或光线反投影方法,需要依赖于设备测量的精确校正标定以产生高质量三维显示效果。
[0004] 有鉴于此,特提出本发明。

发明内容

[0005] 为了解决现有技术中的上述问题,即为了解决如何实现高质量的裸眼三维虚拟现实显示的技术问题而提出一种基于光路采集的移动裸眼三维虚拟现实的方法。此外,还提供一种基于光路采集的移动裸眼三维虚拟现实的系统。
[0006] 为了实现上述目的,根据本发明的一个方面,提供以下技术方案:
[0007] 一种基于光路采集的移动裸眼三维虚拟现实的方法,该方法包括:
[0008] 采集图像;
[0009] 根据采集到的图像获得两视点合成图索引图;
[0010] 根据加速度的位置信息和角速度的旋转信息,获得两视点图;
[0011] 基于图像的两视点合成图索引图,对两视点图渲染出合成图,得到三维虚拟现实显示图像。
[0012] 进一步地,所述基于采集到的所述图像获得两视点合成图索引图具体包括:
[0013] 确定图像上子像素亮度影响权重;
[0014] 基于图像上子像素亮度影响权重,利用带有包围盒的最小二乘方法,确定两视点的合成图索引图。
[0015] 进一步地,确定图像上子像素亮度影响权重具体可以包括:
[0016] 根据下式确定图像上子像素亮度影响权重:
[0017]
[0018] 其中,Imagec(t)(i,j,k)表示在第t个视点处采集到的图像上的子像素,t=0、1,i=1~H,j=1~W;H表示图像的高度;W表示图像的宽度;r表示安全窗口半径;m、n表示以安全窗口中心为原点的窗口坐标;q=1~3;Imagem(i+m,j+n,q)表示图像上的子像素;表示图像上子像素(i+m,j+n,q)点亮到最大亮度时对邻近像素(i,
j,k)经过归一化后的亮度影响权重。
[0019] 进一步地,基于图像上子像素亮度影响权重,利用带有包围盒的最小二乘方法,确定两视点的合成图索引图,具体可以包括:
[0020] 基于图像上子像素亮度影响权重,利用带有包围盒的最小二乘方法,根据下式确定两视点的合成图索引图:
[0021]
[0022] 其中, 表示两视点对应子像素亮度影响权重的差异;I表示两视点的合成图索引图,且被限定于包围盒BI={I∈Z1×H:L≤I≤U}中,L=0×I1×H且U=255×I1×H,I1×H表示H维的全1列向量; 表示两视点采集图像的差异;H表示图像的高度。
[0023] 进一步地,在确定图像上子像素亮度影响权重步骤之前还可以包括:
[0024] 对图像进行反畸变和兴趣区域提取操作处理。
[0025] 进一步地,根据加速度的位置信息和角速度的旋转信息,获得两视点图,具体可以包括:
[0026] 根据加速度的位置信息和角速度的旋转信息,调整所获取的图像的方位,获得两视点图。
[0027] 基于图像的两视点合成图索引图,对两视点图渲染出合成图,得到三维虚拟现实显示图像,具体包括:
[0028] 根据下式渲染出合成图,得到三维虚拟现实显示图像:
[0029] Syn=I0×view0+I1×view1
[0030] 其中,Syn表示三维虚拟现实显示图像;I0表示第0视点的合成图索引图;I1表示第1视点的合成图索引图;view0表示第0视点图;view1表示第1视点图。
[0031] 为了实现上述目的,根据本发明的另一个方面,提供以下技术方案:
[0032] 一种基于光路采集的移动裸眼三维虚拟现实的系统,该系统可以包括:
[0033] 图像获取单元,用于采集图像,并将图像发送至控制器;
[0034] 移动终端,包括屏幕,屏幕上设有微透镜阵列膜,用于将加速度的位置信息和角速度的旋转信息发送至控制器,并通过屏幕显示三维虚拟现实显示图像;
[0035] 控制器,分别与图像获取单元和移动终端通信连接;用于对图像进行处理,得到两视点合成图索引图,且根据加速度的位置信息和角速度的旋转信息,获得两视点图,并基于图像的两视点合成图索引图,对两视点图渲染出合成图,得到三维虚拟现实显示图像,以及将三维虚拟现实显示图像发送至移动终端。
[0036] 进一步地,移动终端还可以包括
[0037] 加速度计,用于获取加速度的位置信息;
[0038] 陀螺仪,用于获取角速度的旋转信息。
[0039] 进一步地图像获取单元为单目相机或双目相机。
[0040] 进一步地,移动终端为手机或个人数字助理。
[0041] 进一步地,控制器为计算机、笔记本电脑、服务器或工控机。
[0042] 本发明实施例提出一种基于光路采集的移动裸眼三维虚拟现实的方法和系统。其中,该方法可以包括:采集图像;基于采集到的图像获得两视点合成图索引图,根据加速度的位置信息和角速度的旋转信息,获得两视点图;基于图像的两视点合成图索引图,对两视点图渲染出合成图,得到三维虚拟现实显示图像。本发明实施例将三维显示技术与虚拟现实技术相结合,能够在微透镜阵列和移动终端屏幕的参数未知的情况下,呈现出高质量的三维显示效果。相比于传统虚拟现实设备减少了头盔的重量和舒适性欠佳的束缚感,同时增加了设备自身三维显示效果而非仅仅使用双目接收左右不同场景图片达到三维的效果。

附图说明

[0043] 图1是根据本发明实施例的基于光路采集的移动裸眼三维虚拟现实的系统的结构示意图;
[0044] 图2是根据本发明另一实施例的基于光路采集的移动裸眼三维虚拟现实的系统的结构示意图;
[0045] 图3是根据本发明实施例的用户手持手机在三个不同观察点的手机裸眼三维虚拟现实显示效果示意图;
[0046] 图4是根据本发明实施例的基于光路采集的移动裸眼三维虚拟现实的方法的流程示意图。

具体实施方式

[0047] 下面参照附图来描述本发明的优选实施方式。本领域技术人员应当理解的是,这些实施方式仅仅用于解释本发明的技术原理,并非旨在限制本发明的保护范围。
[0048] 下面以一示例性实施例来说明本发明实施例的应用平台。其中,可以利用两个基准线为60mm的图像获取单元模拟人的双眼,将其放在距离移动终端屏幕约300mm处。利用一个密封的实验箱,为图像获取单元的光路采集提供一个与外界光线隔绝的密闭环境,并在图像获取单元的后面设置风扇,以进行散热。优选地,为了使捕获图像上的像素最大化地利用,可以给图像获取单元配备长焦镜头。测试图集在计算机上生成,并且通过局域网搭建依次传输给移动终端进行显示。
[0049] 上述图像获取单元包括但不限于单目相机、双目相机、工业相机。其中,如果选用单目相机,在实际应用中,则采用两个单目相机。
[0050] 本发明实施例提供一种基于光路采集的移动裸眼三维虚拟现实的系统。如图1所示,该系统10包括:图像获取单元12、移动终端14和控制器16。其中,图像获取单元12用于采集图像,并将图像发送至控制器。移动终端14包括屏幕,该屏幕上设有微透镜阵列膜,用于将加速度的位置信息和角速度的旋转信息发送至控制器,并通过屏幕显示三维虚拟现实显示图像。控制器16分别与图像获取单元和移动终端通信连接;用于对图像进行处理,得到两视点合成图索引图,且根据加速度的位置信息和角速度的旋转信息,获得两视点图,并基于该图像的两视点合成图索引图,对两视点图渲染出合成图,得到三维虚拟现实显示图像,以及将三维虚拟现实显示图像发送至移动终端。
[0051] 该移动终端包括但不限于手机、个人数字助理。在本优选实施例中,将移动三维显示技术与虚拟现实技术相结合,利用移动终端可以实现可移动的裸眼三维虚拟现实显示。
[0052] 上述图像获取单元作为光路采集设备,其包括但不限于单目相机和双目相机。该图像获取单元可以与移动终端之间进行前期的校正和标定,之后进行三维虚拟现实的显示。
[0053] 上述控制器包括但不限于计算机、笔记本电脑、工控机、服务器。该服务器也可以为服务器集群。
[0054] 在移动终端的屏幕上覆盖微透镜阵列膜,该微透镜阵列膜由成千上万个凸透镜组成。这样,在不同的方向上观看时,位于凸透镜下方的不同地方的子像素被放大到观察者眼中。
[0055] 在本实施例中,控制器分别与图像获取单元和移动终端进行通信连接的方式包括但不限于WIFI网络、蓝牙、ZigBee、2G、3G、4G、5G。
[0056] 本发明实施例通过采用上述技术方案,能够在微透镜阵列和移动终端液晶屏幕的参数未知的情况下,实现复制性强、成本可控并且分辨率高的移动三维虚拟现实显示。
[0057] 在一个可选的实施例中,移动终端可以包括陀螺仪和加速度计。其中,加速度计用于获取加速度的位置信息。陀螺仪用于获取角速度的旋转信息。
[0058] 下面结合图2和图3以优选实施例的方式,来对基于光路采集的移动裸眼三维虚拟现实的系统的工作过程进行详细说明。本优选实施例以手机、相机、控制计算机分别作为移动终端、图像获取单元和控制器为例进行详细说明。其中,采用两个单目工业相机。手机屏幕上覆盖微透镜阵列膜。控制计算机通过路由器与手机和工业相机实现无线通信。
[0059] 本优选实施例进行如下距离设置:测量观看使用者的双目距离、手持手机3时屏幕距离眼睛的距离,将两个相机6水平放置间距设置为用户7双目的间距,将手机屏幕与相机6的距离和用户7手持手机3的距离保持一致。
[0060] 在光路采集实验盒4中,通过手机3经由光线5对工业相机6进行校正和标定。其中,标定方法包括但不限于主动视觉相机标定方法和相机自标定法。
[0061] 将工业相机6连接到控制计算机1并进行图像采集,优化出两张初始合成图索引图,其效果是两张索引图在手机3中的显示效果是黑白颜色互补的。
[0062] 通过手机3采集观看者的位移和旋转姿态,并通过WIFI网络与控制计算机1进行信号通讯,将观看者的位移和旋转姿态发送至控制计算机1。
[0063] 控制计算机1分别与手机3和工业相机6通过路由器2进行信号通讯,控制手机点亮单个像素点,同时控制相机6采集图像;还对两个工业相机6采集到的图像进行优化处理生成两视点图;以及还接收手机3发来的观看者的位移和旋转姿态数据,且根据观看者的位移和旋转姿态数据,将要显示的两视点图和初始合成图索引图相互作用生成虚拟三维场景图像(三维虚拟现实图像),并将该虚拟三维场景图像反馈至手机3,进行裸眼三维显示。此时,观看者就能在不需要任何其他外界辅助设备的情况下观看到虚拟场景的三维效果。
[0064] 图3示例性地示出了用户手持手机在三个不同观察点的手机裸眼三维虚拟现实显示效果示意图。
[0065] 本优选实施例构建了一个复制性强、成本可控并且分辨率高、可移动的基于光路采集的裸眼三维虚拟现实的系统,其融入了虚拟现实技术,作为基于光路采集的自动校准和减少串扰的移动三维显示的方案,能够在微透镜阵列和手机液晶屏幕的参数未知的情况下,呈现出高质量、细腻的三维显示效果,能够针对个人手持手机的差异做个性化定制,相比于传统虚拟现实设备,减少了头盔的重量和舒适性欠佳的束缚感,同时增加了设备自身三维显示效果而非仅仅使用双目接收左右不同场景图片达到三维的效果。
[0066] 此外,本发明实施例提供一种基于光路采集的移动裸眼三维虚拟现实的方法。该方法可以应用于上述基于光路采集的移动裸眼三维虚拟现实的系统。如图4所示,该方法可以包括:
[0067] S400:采集图像。
[0068] S410:基于采集到的图像获得两视点的合成图索引图。
[0069] 具体地,本步骤可以通过步骤S414至步骤S418来实现。
[0070] S414:确定图像上子像素亮度影响权重。
[0071] 本步骤针对两视点的合成图索引图上的每一个子像素的值都考虑了周边子像素对其的影响,并通过采集到的图像得到不同子像素影响的权重值。
[0072] 举例来说,当位于Imagem(i,j)窗口里的任何一个子像素Imagem(i,j,q)被点亮时,都会影响到捕获图像上、Imagec(t)(i,j)像素里的每一个子像素。
[0073] 具体地,本步骤可以进一步包括:根据下式确定图像上子像素亮度影响权重:
[0074]
[0075] 其中,Imagec(t)(i,j,k)表示在第t个视点处采集到的图像上的子像素,t=0、1,i=1~H,j=1~W;H表示图像的高度;W表示图像的宽度;r表示安全窗口半径;m、n表示以安全窗口中心为原点的窗口坐标;q=1~3;Imagem(i+m,j+n,q)表示图像上的子像素;表示图像上子像素(i+m,j+n,q)点亮到最大亮度时对邻近像素
(i,j,k)经过归一化后的亮度影响权重。
[0076] 根据本步骤得到的子像素亮度影响权重可以索引出权重矩阵,以用于后续的处理。
[0077] S416:基于图像上子像素亮度影响权重,利用带有包围盒的最小二乘方法,确定两视点的合成图索引图。
[0078] 具体地,本步骤可以进一步包括:基于图像上子像素亮度影响权重,利用带有包围盒的最小二乘方法,根据下式确定两视点的合成图索引图:
[0079]
[0080] 其中, 表示两视点对应子像素亮度影响权重的差异;I表示两视点的合成图索引图,且被限定于包围盒BI={I∈Z1×H:L≤I≤U}中,L=0×I1×H且U=255×I1×H,I1×H表示H维的全1列向量; 表示两视点采集图像的差异;H表示图像的高度。
[0081] 作为示例,通过以下方式确定第0视点的合成图索引图I0:
[0082] 步骤1:将I限定于包围盒BI={I∈Z1×H:L≤I≤U}中,其中,L=0×I1×H且U=255×I1×H,I1×H表示H维的全1列向量。
[0083] 步骤2:根据下式进行带有包围盒的最小二乘处理:
[0084]
[0085] 其中, 表示0视点和1视点捕获图像的差异, 表示两视点对应子像素亮度影响权重的差异,其为(H×W×3,H×W×3)大小的满秩稀疏矩阵,H表示图像的高度,W表示图像的宽度;I表示视点的合成图索引图。
[0086] 同理我们可以求得第1视点的合成图索引图。
[0087] 在一个优选的实施例中,本发明实施例在步骤S414之前还可以包括:
[0088] S412:对图像进行反畸变和兴趣区域提取操作处理。
[0089] 举例来说,考虑到移动终端屏幕上距离为N(N取整数)个像素的两个像素之间的亮度不会相互产生影响,所以可以将移动终端屏幕被分成了若干个N×N大小的安全窗口。故,向移动终端传输N×N×3张测试图imagem即可进行实施。其中,测试图的分辨率为H×W。其中,H表示测试图的高度;W表示测试图的宽度。在具体实施过程中,利用位于两视点观测点的图像获取单元分别进行捕获,得到捕获图像,并对捕获图像进行反畸变、兴趣区域提取操作,从而得到分辨率为H×W的imagec(0)图像和分辨率为H×W的imagec(1)图像。其中,图像获取单元包括但不限于单目相机、双目相机和工业相机。
[0090] S420:根据加速度的位置信息和角速度的旋转信息,获得两视点图。
[0091] 具体地,本步骤可以通过以下方式来实现:根据加速度的位置信息和角速度的旋转信息,调整采集图像的方位,获得两视点图。
[0092] 其中,加速度的位置信息可以通过移动终端的加速度计传感器进行采集而得到。角速度的旋转信息可以通过移动终端的陀螺仪传感器进行采集而得到。由此,可以采集到观看者的位移和旋转姿态,从而,利用该位移和旋转姿态实现移动裸眼三维虚拟现实的显示。
[0093] 在实际应用中,可以通过由手机、相机和计算机搭建的平台,通过步骤S420在计算机端调整虚拟相机的位姿,获得两视点图。
[0094] S430:基于图像的两视点合成图索引图,对两视点图渲染出合成图,得到三维虚拟现实显示图像。
[0095] 举例来说,根据下式渲染出合成图,得到三维虚拟现实显示图像:
[0096] Syn=I0×view0+I1×view1;
[0097] 其中,Syn表示三维虚拟现实显示图像;I0表示第0视点的合成图索引图;I1表示第1视点的合成图索引图;view0表示第0视点图;view1表示第1视点图。
[0098] 在一个优选的实施例中,本步骤S430还可以通过以下方式来实现:将两视点图与两张显示效果为黑白互补的预定合成图索引图进行合成,得到三维虚拟现实显示图像。
[0099] 上述实施例中虽然将各个步骤按照上述先后次序的方式进行了描述,但是本领域技术人员可以理解,为了实现本实施例的效果,不同的步骤之间不必按照这样的次序执行,其可以同时(并行)执行或以颠倒的次序执行,这些简单的变化都在本发明的保护范围之内。
[0100] 需要说明的是,在对本发明各个实施例的描述过程中,出于简明的考虑,省略了相同的部分,本领域技术人员应能理解,在不出现冲突的情况下,对一个实施例的说明也可以应用于另一个实施例。
[0101] 还应当注意,本说明书中使用的语言主要是为了可读性和教导的目的,并不是为了解释或者限定本发明的保护范围。
[0102] 以上对本发明的示例实施例的详细描述是为了说明和描述的目的而提供。不是为了穷尽或将本发明限制为所描述的精确形式。显然,许多变型和改变对本领域技术人员而言是显而易见的。实施例的选择和描述是为了最佳地说明本发明的原理及其实际应用,从而使本领域其他技术人员能够理解本发明的各种实施例和适于特定使用预期的各种变型。本发明的实施例可以省略上述技术特征中的一些技术特征,仅解决现有技术中存在的部分技术问题。而且,所描述的技术特征可以进行任意组合。本发明的保护范围由所附权利要求及其等价物来限定,本领域技术其他人员可以对所附权利要求中所描述的技术方案进行各种变型或替换和组合,这些更改或替换之后的技术方案都将落入本发明的保护范围之内。