一种眼镜匹配设计设备转让专利

申请号 : CN201911276019.8

文献号 : CN111161400B

文献日 :

基本信息:

PDF:

法律信息:

相似专利:

发明人 : 左忠斌左达宇

申请人 : 天目爱视(北京)科技有限公司

摘要 :

本发明提供了一种眼镜设备,包括3D采集装置、3D合成装置、眼镜适配装置、显示装置;3D采集装置,用于采集人体头部的多张图像;3D合成装置,用于利用上述多张图像合成头部3D模型;眼镜适配装置,用于将头部3D模型和眼镜3D模型适配;显示装置,用于显示头部3D模型和眼镜3D模型的适配效果;其中3D采集装置包括图像采集装置和背景板,背景板和图像采集装置在转动过程中保持相对设置,使得在采集时背景板成为图像采集装置所采集图像的背景图案。首次提出在眼镜匹配设计设备中通过增加背景板随相机一起旋转的方式来同时提高3D合成速度和合成精度,从而提高眼镜匹配的效果,降低等待时间。

权利要求 :

1.一种眼镜适配方法,其特征在于:包括第1步:采集用户头部多张图像,所述图像至少包括面部图像;

第2步:将多张图像合成头部3D模型;

第3步:将头部3D模型与眼镜模型相匹配,具体包括:

3-1确定头部3D模型多个点坐标;

3-2确定眼镜3D模型多个点坐标;

3-3通过旋转、平移、缩放中的至少一种变换方式,将头部3D模型多个点坐标与眼镜3D模型多个点坐标相匹配;

3-4向用户显示匹配效果;

使用3D采集装置采集用户头部多张图像,3D采集装置包括图像采集装置和背景板,背景板和图像采集装置在转动过程中保持相对设置,使得在采集时背景板成为图像采集装置所采集图像的背景图案;

背景板全部为纯色;

在垂直背景板被拍摄表面的方向进行投影,投影形状的水平方向上长度W1、投影形状的垂直方向上长度W2由下述条件决定:其中,d1为成像元件水平方向长度,d2为成像元件垂直方向长度,T为沿光轴方向图像采集装置传感元件到背景板的垂直距离,f为图像采集装置的焦距,A1、A2为经验系数;

其中A1>1.04,A2>1.04。

2.如权利要求1所述的方法,其特征在于:A1>1.25,A2>1.25。

3.如权利要求1所述的方法,其特征在于:将头部3D模型和眼镜3D模型适配包括先进行头部3D模型和眼镜3D模型的粗对齐,再进行头部3D模型和眼镜3D模型的二次对齐。

4.如权利要求1所述的方法,其特征在于:将眼镜3D数据发送给加工设备。

5.一种眼镜适配方法,其特征在于:包括第1步:采集用户头部多张图像,所述图像至少包括面部图像;

第2步:将多张图像合成头部3D模型;

第3步:将头部3D模型与眼镜模型相匹配,具体包括:

3-1确定头部3D模型多个点坐标;

3-2确定眼镜3D模型多个点坐标;

3-3通过旋转、平移、缩放中的至少一种变换方式,将头部3D模型多个点坐标与眼镜3D模型多个点坐标相匹配;

3-4向用户显示匹配效果;

使用3D采集装置采集用户头部多张图像,3D采集装置包括图像采集装置和背景板,背景板和图像采集装置在转动过程中保持相对设置,使得在采集时背景板成为图像采集装置所采集图像的背景图案;

背景板和图像采集装置的移动是同步的;背景板和图像采集装置位于旋转横梁的两端,相对设置,在旋转横梁转动时同步转动,始终保持相对设置。

6.如权利要求5所述的方法,其特征在于:在垂直背景板被拍摄表面的方向进行投影,投影形状的水平方向上长度W1、投影形状的垂直方向上长度W2由下述条件决定:其中,d1为成像元件水平方向长度,d2为成像元件垂直方向长度,T为沿光轴方向图像采集装置传感元件到背景板的垂直距离,f为图像采集装置的焦距,A1、A2为经验系数;

其中A1>1.04,A2>1.04。

7.如权利要求6所述的方法,其特征在于:A1>1.25,A2>1.25。

8.如权利要求5所述的方法,其特征在于:将头部3D模型和眼镜3D模型适配包括先进行头部3D模型和眼镜3D模型的粗对齐,再进行头部3D模型和眼镜3D模型的二次对齐。

9.如权利要求5所述的方法,其特征在于:将眼镜3D数据发送给加工设备。

10.一种眼镜适配方法,其特征在于:包括第1步:采集用户头部多张图像,所述图像至少包括面部图像;

第2步:将多张图像合成头部3D模型;

第3步:将头部3D模型与眼镜模型相匹配,具体包括:

3-1确定头部3D模型多个点坐标;

3-2确定眼镜3D模型多个点坐标;

3-3通过旋转、平移、缩放中的至少一种变换方式,将头部3D模型多个点坐标与眼镜3D模型多个点坐标相匹配;

3-4向用户显示匹配效果;

使用3D采集装置采集用户头部多张图像,3D采集装置包括图像采集装置,图像采集装置采集目标物时,相邻两个采集位置满足如下条件:其中L为两个位置图像采集装置光心的直线距离;f为图像采集装置的焦距;d为图像采集装置感光元件的矩形长度;T为图像采集装置感光元件沿着光轴到目标物表面的距离;δ为调整系数;

且δ<0.603。

11.如权利要求10所述的方法,其特征在于:δ<0.410。

12.如权利要求10所述的方法,其特征在于:δ<0.356。

13.如权利要求10所述的方法,其特征在于:δ<0.311。

14.如权利要求10所述的方法,其特征在于:δ<0.284。

15.如权利要求10所述的方法,其特征在于:δ<0.261。

16.如权利要求10所述的方法,其特征在于:δ<0.241。

17.如权利要求10所述的方法,其特征在于:δ<0.107。

18.如权利要求10所述的方法,其特征在于:将头部3D模型和眼镜3D模型适配包括先进行头部3D模型和眼镜3D模型的粗对齐,再进行头部3D模型和眼镜3D模型的二次对齐。

19.如权利要求10所述的方法,其特征在于:将眼镜3D数据发送给加工设备。

20.一种眼镜设备,其特征在于:包括3D采集装置、3D合成装置、眼镜适配装置、显示装置;

3D采集装置,用于采集人体头部的多张图像;

3D合成装置,用于利用上述多张图像合成头部3D模型;

眼镜适配装置,用于将头部3D模型和眼镜3D模型适配;

显示装置,用于显示头部3D模型和眼镜3D模型的适配效果;

其中3D采集装置包括图像采集装置和背景板,背景板和图像采集装置在转动过程中保持相对设置,使得在采集时背景板成为图像采集装置所采集图像的背景图案;

背景板全部为纯色;

在垂直背景板被拍摄表面的方向进行投影,投影形状的水平方向上长度W1、投影形状的垂直方向上长度W2由下述条件决定:其中,d1为成像元件水平方向长度,d2为成像元件垂直方向长度,T为沿光轴方向图像采集装置传感元件到背景板的垂直距离,f为图像采集装置的焦距,A1、A2为经验系数;

其中A1>1.04,A2>1.04。

21.如权利要求20所述的设备,其特征在于:A1>1.25,A2>1.25。

22.如权利要求20所述的设备,其特征在于:还包括标记点。

23.如权利要求22所述的设备,其特征在于:标记点位于座椅上。

24.如权利要求20所述的设备,其特征在于:3D合成装置和眼镜适配装置分立设置或在同一平台实现。

25.如权利要求20所述的设备,其特征在于:眼镜适配装置还用于眼镜数据修改。

26.如权利要求20所述的设备,其特征在于:将头部3D模型和眼镜3D模型适配包括先进行头部3D模型和眼镜3D模型的粗对齐,再进行头部3D模型和眼镜3D模型的二次对齐。

27.如权利要求20所述的设备,其特征在于:将眼镜3D数据发送给加工设备。

28.一种眼镜设备,其特征在于:包括3D采集装置、3D合成装置、眼镜适配装置、显示装置;

3D采集装置,用于采集人体头部的多张图像;

3D合成装置,用于利用上述多张图像合成头部3D模型;

眼镜适配装置,用于将头部3D模型和眼镜3D模型适配;

显示装置,用于显示头部3D模型和眼镜3D模型的适配效果;

其中3D采集装置包括图像采集装置和背景板,背景板和图像采集装置在转动过程中保持相对设置,使得在采集时背景板成为图像采集装置所采集图像的背景图案;

背景板和图像采集装置的移动是同步的;背景板和图像采集装置位于旋转横梁的两端,相对设置,在旋转横梁转动时同步转动,始终保持相对设置。

29.如权利要求28所述的设备,其特征在于:在垂直背景板被拍摄表面的方向进行投影,投影形状的水平方向上长度W1、投影形状的垂直方向上长度W2由下述条件决定:其中,d1为成像元件水平方向长度,d2为成像元件垂直方向长度,T为沿光轴方向图像采集装置传感元件到背景板的垂直距离,f为图像采集装置的焦距,A1、A2为经验系数;

其中A1>1.04,A2>1.04。

30.如权利要求29所述的设备,其特征在于:A1>1.25,A2>1.25。

31.如权利要求28所述的设备,其特征在于:还包括标记点。

32.如权利要求31所述的设备,其特征在于:标记点位于座椅上。

33.如权利要求28所述的设备,其特征在于:3D合成装置和眼镜适配装置分立设置或在同一平台实现。

34.如权利要求28所述的设备,其特征在于:眼镜适配装置还用于眼镜数据修改。

35.如权利要求28所述的设备,其特征在于:将头部3D模型和眼镜3D模型适配包括先进行头部3D模型和眼镜3D模型的粗对齐,再进行头部3D模型和眼镜3D模型的二次对齐。

36.如权利要求28所述的设备,其特征在于:将眼镜3D数据发送给加工设备。

37.一种眼镜设备,其特征在于:包括3D采集装置、3D合成装置、眼镜适配装置、显示装置;

3D采集装置,用于采集人体头部的多张图像;

3D合成装置,用于利用上述多张图像合成头部3D模型;

眼镜适配装置,用于将头部3D模型和眼镜3D模型适配;

显示装置,用于显示头部3D模型和眼镜3D模型的适配效果;

其中3D采集装置包括图像采集装置,图像采集装置采集目标物时,相邻两个采集位置满足如下条件:

其中L为两个位置图像采集装置光心的直线距离;f为图像采集装置的焦距;d为图像采集装置感光元件的矩形长度;T为图像采集装置感光元件沿着光轴到目标物表面的距离;δ为调整系数;

且δ<0.603。

38.如权利要求37所述的设备,其特征在于:δ<0.410。

39.如权利要求37所述的设备,其特征在于:δ<0.356。

40.如权利要求37所述的设备,其特征在于:δ<0.311。

41.如权利要求37所述的设备,其特征在于:δ<0.284。

42.如权利要求37所述的设备,其特征在于:δ<0.261。

43.如权利要求37所述的设备,其特征在于:δ<0.241。

44.如权利要求37所述的设备,其特征在于:δ<0.107。

45.如权利要求37所述的设备,其特征在于:还包括标记点。

46.如权利要求45所述的设备,其特征在于:标记点位于座椅上。

47.如权利要求37所述的设备,其特征在于:3D合成装置和眼镜适配装置分立设置或在同一平台实现。

48.如权利要求37所述的设备,其特征在于:眼镜适配装置还用于眼镜数据修改。

49.如权利要求37所述的设备,其特征在于:将头部3D模型和眼镜3D模型适配包括先进行头部3D模型和眼镜3D模型的粗对齐,再进行头部3D模型和眼镜3D模型的二次对齐。

50.如权利要求37所述的设备,其特征在于:将眼镜3D数据发送给加工设备。

说明书 :

一种眼镜匹配设计设备

技术领域

[0001] 本发明涉及眼镜设计技术领域,特别涉及通过3D形貌测量技术而实现眼镜自动匹配设计领域。

背景技术

[0002] 目前,用户在选择眼镜时通常去眼镜店进行实地选择佩戴。但这样费时费力。为了解决这一问题,有人提出拍摄用户脸部图片,然后远程向用户提供多款眼镜的图片,脸部图
片和眼镜图片相匹配即可完成眼镜的试戴。但由于两张图片都是平面图片,匹配效果与真
实效果差距较大,难以给用户找到真正满意的眼镜。并且这些匹配都是基于现有图片库,难
以给用户提供个性化的定制服务。
[0003] 目前也有一些眼镜设计软件,通过用户头部模型进行眼镜匹配。但首先获得用户头部模型时间较长,导致用户较长等待,体验不好。有些通过算法可以降低时间,但导致头
部模型不准确,用不准确的模型进行眼镜匹配会导致用户误判,且呈现效果也与真实有差
别,导致用户体验较差。有些甚至使用预先设定好的有限的头部模型作为用户头部模型。在
现有技术中,为了同时提高合成速度和合成精度,通常通过优化算法的方法实现。并且本领
域一直认为解决上述问题的途径在于算法的选择和更新,截止目前没有任何提出其他角度
同时提高合成速度和合成精度的方法。然而,算法的优化目前已经达到瓶颈,在没有更优理
论出现前,已经无法兼顾提高合成速度和合成的精度。
[0004] 另外,大多数软件只能利用眼镜库中的眼镜与用户进行匹配,而不能个性化定制。即使有些软件能够实现眼镜的设计,但由于其头部模型不准确,设计出来的眼镜只能作为
效果的展示,而不能作为加工数据。
[0005] 同时,目前没有能够精确采集头部数据的眼镜设计设备、采集设备。通常只能作为展示使用,而不能产生精确的加工数据。
[0006] 因此,目前急需解决以下技术问题:①能够同时提高3D合成速度和合成精度,提高眼镜匹配时的真实度,降低等待时间;②成本低,不增加过多设备复杂程度。③能够为客户
提供准确的眼镜加工数据,实现个性化定制。

发明内容

[0007] 鉴于上述问题,提出了本发明提供一种克服上述问题或者至少部分地解决上述问题的眼镜匹配设计设备。
[0008] 本发明的一方面提供了一种眼镜适配方法,包括
[0009] 第1步:采集用户头部多张图像,所述图像至少包括面部图像;
[0010] 第2步:将多张图像合成头部3D模型;
[0011] 第3步:将头部3D模型与眼镜模型相匹配,具体包括:
[0012] 3-1确定头部3D模型多个点坐标;
[0013] 3-2确定眼镜3D模型多个点坐标;
[0014] 3-3通过旋转、平移、缩放中的至少一种变换方式,将头部3D模型多个点坐标与眼镜3D模型多个点坐标相匹配;
[0015] 3-4向用户显示匹配效果。
[0016] 本发明的另一方面提供了一种眼镜设备,包括3D采集装置、3D合成装置、眼镜适配装置、显示装置;
[0017] 3D采集装置,用于采集人体头部的多张图像;
[0018] 3D合成装置,用于利用上述多张图像合成头部3D模型;
[0019] 眼镜适配装置,用于将头部3D模型和眼镜3D模型适配;
[0020] 显示装置,用于显示头部3D模型和眼镜3D模型的适配效果;
[0021] 其中3D采集装置包括图像采集装置和背景板,背景板和图像采集装置在转动过程中保持相对设置,使得在采集时背景板成为图像采集装置所采集图像的背景图案。
[0022] 本发明的第三方面还提供了一种眼镜设备,包括3D采集装置、3D合成装置、眼镜适配装置、显示装置;
[0023] 3D采集装置,用于采集人体头部的多张图像;
[0024] 3D合成装置,用于利用上述多张图像合成头部3D模型;
[0025] 眼镜适配装置,用于将头部3D模型和眼镜3D模型适配;
[0026] 显示装置,用于显示头部3D模型和眼镜3D模型的适配效果;
[0027] 其中3D采集装置包括图像采集装置,图像采集装置采集目标物时,相邻两个采集位置满足如下条件:
[0028]
[0029] 其中L为两个位置图像采集装置光心的直线距离;f为图像采集装置的焦距;d为图像采集装置感光元件(CCD)的矩形长度;T为图像采集装置感光元件沿着光轴到目标物表面
的距离;δ为调整系数;
[0030] 且δ<0.603;优选δ<0.410,或δ<0.356。
[0031] 可选的,在垂直背景板被拍摄表面的方向进行投影,投影形状的水平方向上长度W1、投影形状的垂直方向上长度W2由下述条件决定:
[0032]
[0033]
[0034] 其中,d1为成像元件水平方向长度,d2为成像元件垂直方向长度,T为沿光轴方向图像采集装置传感元件到背景板的垂直距离,f为图像采集装置的焦距,A1、A2为经验系数;
[0035] 其中A1>1.04,A2>1.04,优选,A1>1.25,A2>1.25
[0036] 可选的,还包括标记点。
[0037] 可选的,标记点位于座椅上。
[0038] 可选的,3D合成装置和眼镜适配装置分立设置或在同一平台实现。
[0039] 可选的,眼镜适配装置还用于眼镜数据修改。
[0040] 可选的,将头部3D模型和眼镜3D模型适配包括先进行头部3D模型和眼镜3D模型的粗对齐,再进行头部3D模型和眼镜3D模型的二次对齐。
[0041] 可选的,将眼镜3D数据发送给加工设备。
[0042] 发明点及技术效果
[0043] 1、首次提出在眼镜匹配设计设备中通过增加背景板随相机一起旋转的方式来同时提高3D合成速度和合成精度,从而提高眼镜匹配的效果,降低等待时间,使得眼镜数据可
以用于加工。
[0044] 2、通过优化背景板的尺寸,在降低旋转负担的同时,保证能够同时提高 3D合成速度和合成精度,从而提高眼镜匹配的效果,降低等待时间,使得眼镜数据可以用于加工。
[0045] 3、通过优化相机位置,能够同时提高3D合成速度和合成精度,从而提高眼镜匹配的效果,降低等待时间,使得眼镜数据可以用于加工。优化位置时,无需测量角度,无需测量
头部尺寸,适用于各种人群。更加方便、适应性强。
[0046] 4、由于上述原因,能够为用户提供准确的头部数据,从而使得该数据用于眼镜的定制加工。

附图说明

[0047] 通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本发明
的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:
[0048] 图1为本发明实施例提供的眼镜匹配设计设备的结构示意图。
[0049] 附图标记与各部件的对应关系如下:
[0050] 1背景板、2图像采集装置、3旋转横梁、4旋转装置、5支架、6座椅、7 底座、51横柱、52立柱。

具体实施方式

[0051] 下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例
所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围
完整的传达给本领域的技术人员。
[0052] 眼镜匹配设计设备包括背景板1、图像采集装置2、旋转横梁3、旋转装置 4、支架5、座椅6和底座7。
[0053] 支架包括横柱51和立柱52,立柱52与底座7连接,横柱51通过旋转装置4与旋转横梁3连接,从而使得旋转横梁3能够在旋转装置4的驱动下360°转动。背景板1和图像采集装
置2位于旋转横梁3的两端,相对设置,在旋转横梁3转动时同步转动,始终保持相对设置。
[0054] 底座上具有座椅6,座椅6位于背景板1和图像采集装置2之间。在人坐下时,头部正好位于转动轴附近且在图像采集装置2和背景板1之间,并且优选人头部位于图像采集装置
2的光轴上。由于每个人身高不同,因此人体头部的高度不同。此时可以通过调节座椅6的高
度来调整人体头部在图像采集装置 2视场中的位置。
[0055] 调节座椅6可以通过手动调节装置,例如座椅6通过丝杆与底座连接,通过旋转丝杆调节座椅高度。优选的,具有升降驱动装置,升降驱动装置与控制器数据连接,通过控制
器控制升降装置高度,从而调节座椅高度。控制器可以直接连接在眼镜匹配设计设备中,例
如可以防止在座椅扶手附近,以方便用户调节。但控制器也可以为移动终端,例如手机。这
样通过移动终端与眼镜匹配设计设备连接,在移动终端中就能够通过控制升降驱动装置从
而控制座椅高度。移动终端可以由操作员进行操作,也可以由用户进行操作,更加方便,且
不受位置限制。当然,控制器也可以由上位机承担,或由服务器、集群服务器承担。当然也可
以通过网络由云平台承担。这些上位机、服务器、集群服务器、云平台可以与进行3D合成处
理的上位机、服务器、集群服务器、云平台共用,即完成控制和3D合成双重功能。
[0056] 如果只进行3D头像的展示,那么只要3D头像各部分比例正确即可,无需每个部分的绝对尺寸。但是对于进行眼镜的匹配和设计而言,如果没有头部3D 模型的绝对尺寸,那
么就无法完成眼镜的真正匹配和设计,无法为眼镜最终的加工提供有意义的数据。为了获
得头部3D信息的绝对尺寸,需要对用户头部进行标定。但如果按目前常规方法,直接在用户
的头部贴标记,会带来不好的用户体验。而其他位置难以贴标记点。因此,本发明巧妙地在
座椅6上设置头托,在头托上设置标记点,并记录标记点相互之间的绝对距离。在图像采集
装置2转动到用户背后时,会采集到这些标记点,并根据这些标记点的预定距离,最终计算
出头部3D模型的尺寸。同时,在该位置设置标记点不影响用户面部信息采集。因此,这也是
本发明的发明点之一,可以提高用户体验的同时,获得头部3D信息的绝对距离。同时,标记
点也可以设置在座椅6上,只要图像采集装置2可以采集到的位置即可。上述标记点也可以
为标准量块,即具有一定空间大小,且预知绝对尺寸的标记物。当然,除了在头托上设置标
记点,也可以在其他位置设置相应的标准量块,只要标准量块在相机的视野范围内,且相对
人体头部静止即可。例如,可以为用户佩戴包含已知标记点的帽子、发卡等。
[0057] 图像采集装置2用于采集目标物的图像,其可以为CCD、CMOS、相机、摄像机、工业相机、监视器、摄像头、手机、平板、笔记本、移动终端、可穿戴设备、智能眼镜、智能手表、智能
手环以及带有图像采集功能所有设备。图像采集装置包括带有感光元件的相机本体和镜
头。优选的,相机本体可以采用工业相机,例如MER-2000-19U3M/C。工业相机拥有更小的体
积,并且与家用相机相比简化了不需要的功能,且性能更佳。图像采集装置2可以与处理单
元连接,从而将采集到的图像传递至处理单元。上述连接方式包括有线方式和无线方式,例
如通过数据线、网线、光纤、4G、5G、wifi等多种协议进行传递,当然也可以使用它们的组合
进行传递。
[0058] 设备还包括处理器,也可以成为处理单元,用以根据图像采集装置采集的多个图像,根据3D合成算法,合成目标物3D模型,得到目标物3D信息。
[0059] 处理单元根据上述一组图像中的多个图像得到目标物的3D信息(具体算法下文详述)。处理单元可以直接设置在图像采集装置所在的壳体内,也可以通过数据线或通过无线
方式与图像采集装置2连接。例如可以使用独立的计算机、服务器及集群服务器等作为处理
单元,图像采集装置2采集到的图像数据传输至其上,进行3D合成。同时,也可以将图像采集
装置2的数据传输至云平台,利用云平台的强大计算能力进行3D合成。
[0060] 背景板1全部为纯色,或大部分(主体)为纯色。特别是可以为白色板或黑色板,具体颜色可以根据目标物主体颜色来选择。背景板1通常为平板,优选也可以为曲面板,例如
凹面板、凸面板、球形板,甚至在某些应用场景下,可以为表面为波浪形的背景板1;也可以
为多种形状拼接板,例如可以用三段平面进行拼接,而整体呈现凹形,或用平面和曲面进行
拼接等。除了背景板1 表面的形状可以变化外,其边缘形状也可以根据需要选择。通常情况
下为直线型,从而构成矩形板。但是在某些应用场合,其边缘可以为曲线。
[0061] 优选的,背景板1为曲面板,这样可以使得在获得最大背景范围的情况下,使得背景板1投影尺寸最小。这使得背景板1在转动时需要的空间更小,有利于缩小设备体积,并且
减少设备重量,避免转动惯性,从而更有利于控制转动。
[0062] 无论背景板1的表面形状和边缘形状如何,在垂直其被拍摄表面的方向进行投影,投影形状的水平方向上长度W1、投影形状的垂直方向上长度W2由下述条件决定:
[0063]
[0064]
[0065] 其中,d1为成像元件水平方向长度,d2为成像元件垂直方向长度,T为沿光轴方向图像采集装置传感元件到背景板的垂直距离,f为图像采集装置的焦距,A1、A2为经验系数。
[0066] 经过大量实验,优选,A1>1.04,A2>1.04;更优选的2>A1>1.1,2>A2>1.1。
[0067] 在一些应用场景下,背景板1边缘为非直线形,导致其投影后投影图形边缘也为非直线。此时不同位置测量W1、W2均不同,因此实际计算时W1、W2不易确定。因此,可以在背景板
1相对两侧分别边缘取3-5个点,测量相对两点的直线距离,再取测量的平均值作为上述条
件中的W1、W2。
[0068] 如果背景板1过大,使得悬臂过长,会增加设备体积,同时给旋转带来额外的负担,使得设备更容易损坏。但如果背景板1过小,则会导致背景不单纯,从而带来计算的负担。
[0069] 下表为实验对照结果:
[0070] 实验条件:
[0071] 采集对象:真实人体头部
[0072] 相机:MER-2000-19U3M/C
[0073] 镜头:OPT-C1616-10M
[0074]经验系数 合成时间 合成精度
A1=1.2,A2=1.2 3.3分钟 高
A1=1.4,A2=1.4 3.4分钟 高
A1=0.9,A2=0.9 4.5分钟 中高
无 7.8分钟 中
[0075] 旋转横梁3通过旋转装置4与固定横梁连接,旋转装置4驱动旋转横梁3 转动,从而带动横梁两端的背景板1和图像采集装置2转动,但无论怎样转动,图像采集装置1与背景板
2均相对设置,特别是图像采集装置1的光轴穿过背景板2中心。
[0076] 光源设置于图像采集装置2镜头的周围,
[0077] 可以为LED光源,也可以为智能光源,即根据目标物及环境光的情况自动调整光源参数。通常情况下,光源位于图像采集装置2的镜头周边分散式分布,例如光源为在镜头周
边的环形LED灯。当被采集对象为人体,因此需要控制光源强度,避免造成人体不适。特别是
可以在光源的光路上设置柔光装置,例如为柔光外壳。或者直接采用LED面光源,不仅光线
比较柔和,而且发光更为均匀。更佳地,可以采用OLED光源,体积更小,光线更加柔和,并且
具有柔性特性,可以贴附于弯曲的表面。此外光源也可以为设置于旋转横梁3、承载图像采
集装置2的外壳上。
[0078] 3D采集相机(图像采集装置)位置优化
[0079] 根据大量实验,采集的间隔距离优选满足如下经验公式:
[0080] 在进行3D采集时,相邻两个图像采集装置2的位置,或图像采集装置2 相邻两个采集位置满足如下条件:
[0081]
[0082] 其中L为两个图像采集装置光心的直线距离;f为图像采集装置的焦距;d 为图像采集装置感光元件(CCD)的矩形长度;T为图像采集装置感光元件沿着光轴到目标物表面的
距离;δ为调整系数,δ<0.603。
[0083] 图像采集装置2在两个位置中的任何一个位置时,感光元件沿着光轴到目标物表面的距离作为T。除了这种方法外,在另一种情况下,L为An、An+1两个图像采集装置光心的直
线距离,与An、An+1两个图像采集装置相邻的An-1、 An+2两个图像采集装置和An、An+1两个图像
采集装置各自感光元件沿着光轴到目标物表面的距离分别为Tn-1、Tn、Tn+1、Tn+2,T=(Tn-1+Tn+
Tn+1+Tn+2)/4。当然可以不只限于相邻4个位置,也可以用更多的位置进行平均值计算。
[0084] L应当为两个图像采集装置光心的直线距离,但由于图像采集装置光心位置在某些情况下并不容易确定,因此在某些情况下也可以使用图像采集装置的感光元件中心、图
像采集装置2的几何中心、图像采集装置2与云台(或平台、支架)连接的轴中心、镜头近端或
远端表面的中心替代,经过试验发现由此带来的误差是在可接受的范围内的。
[0085] 通常情况下,现有技术中均采用物体尺寸、视场角等参数作为推算相机位置的方式,并且两个相机之间的位置关系也采用角度表达。由于角度在实际使用过程中并不好测
量,因此在实际使用时较为不便。并且,物体尺寸会随着测量物体的变化而改变。例如,在进
行一个成年人头部3D信息采集后,再进行儿童头部采集时,就需要重新测量头部尺寸,重新
推算。上述不方便的测量以及多次重新测量都会带来测量的误差,从而导致相机位置推算
错误。而本方案根据大量实验数据,给出了相机位置需要满足的经验条件,不仅避免测量难
以准确测量的角度,而且不需要直接测量物体大小尺寸。经验条件中d、f均为相机固定参
数,在购买相机、镜头时,厂家即会给出相应参数,无需测量。而T 仅为一个直线距离,用传
统测量方法,例如直尺、激光测距仪均可以很便捷的测量得到。因此,本发明的经验公式使
得准备过程变得方便快捷,同时也提高了相机位置的排布准确度,使得相机能够设置在优
化的位置中,从而在同时兼顾了3D合成精度和速度,具体实验数据参见下述。
[0086] 利用本发明装置,进行实验,得到了如下实验结果。
[0087]
[0088] 更换相机镜头,再次实验,得到了如下实验结果。
[0089]
[0090] 更换相机镜头,再次实验,得到了如下实验结果。
[0091]
[0092]
[0093] 从上述实验结果及大量实验经验可以得出,δ的值应当满足δ<0.603,此时已经能够合成部分3D模型,虽然有一部分无法自动合成,但是在要求不高的情况下也是可以接受
的,并且可以通过手动或者更换算法的方式弥补无法合成的部分。特别是δ的值满足δ<
0.410时,能够最佳地兼顾合成效果和合成时间的平衡;为了获得更好的合成效果可以选择
δ<0.356,此时合成时间会上升,但合成质量更好。当然为了进一步提高合成效果,可以选择
δ<0.311。而当δ为0.681 时,已经无法合成。但这里应当注意,以上范围仅仅是最佳实施例,
并不构成对保护范围的限定。
[0094] 并且从上述实验可以看出,对于相机拍照位置的确定,只需要获取相机参数(焦距f、CCD尺寸)、相机CCD与物体表面的距离T即可根据上述公式得到,这使得在进行设备设计
和调试时变得容易。由于相机参数(焦距f、CCD 尺寸)在相机购买时就已经确定,并且是产
品说明中就会标示的,很容易获得。因此根据上述公式很容易就能够计算得到相机位置,而
不需要再进行繁琐的视场角测量和物体尺寸测量。特别是在一些场合中,需要更换相机镜
头,那么本发明的方法直接更换镜头常规参数f计算即可得到相机位置;同理,在采集不同
物体时,由于物体大小不同,对于物体尺寸的测量也较为繁琐。而使用本发明的方法,无需
进行物体尺寸测量,能够更为便捷地确定相机位置。并且使用本发明确定的相机位置,能够
兼顾合成时间和合成效果。因此,上述经验条件是本发明的发明点之一。
[0095] 以上数据仅为验证该公式条件所做实验得到的,并不对发明构成限定。即使没有这些数据,也不影响该公式的客观性。本领域技术人员可以根据需要调整设备参数和步骤
细节进行实验,得到其他数据也是符合该公式条件的。
[0096] 3D信息采集方法流程
[0097] 将目标物,放置在图像采集装置2和背景板1之间。优选放置在旋转装置 4的转轴延长线上,即图像采集装置2转动所围绕的圆心处。这样可以保证图像采集装置2在转动过
程中距离目标物的距离基本不变,从而防止由于物距剧烈变化而导致图像采集不清晰,或
导致对相机的景深要求过高(增加成本)。
[0098] 当目标物为人体头部时,可以在图像采集装置2和背景板1之间放置座椅 6,在人坐下时,头部正好位于转动轴附近且在图像采集装置2和背景板1之间。由于每个人身高不
同,因此待采集的区域(例如人体头部)的高度不同。此时可以通过调节座椅6的高度来调整
人体头部在图像采集装置2视场中的位置。在进行物体的采集时,可以将座椅6替换为置物
台。
[0099] 除了调整座椅6高度,还可以通过调整图像采集装置2和背景板1在竖直方向上的高度来保证目标物中心位于图像采集装置2的视场中心。例如背景板 1可以沿第一安装柱
上下移动,承载图像采集装置2的水平托可以沿第二安装柱上下移动。通常,背景板1和图像
采集装置2的移动是同步的,保证图像采集装置的光轴穿过背景板1的中心位置。
[0100] 由于每次采集目标物尺寸大小差异较大。如果图像采集装置2在同一位置进行采集,则会导致目标物在图像中的比例变化巨大。例如目标物A在图像中大小合适时,如果换
成较小的目标物B,其在图像中的比例将非常小,这会极大地影响后续的3D合成速度和精
度。因此,可以驱动图像采集装置2在水平托上前后移动,保证目标物在图像采集装置2所采
集图片中的占比合适。同时,也可以通过调整焦距的方式适应头部大小不同的用户。但通常
人体头部尺寸相对固定,因此用固定焦距即可实现。
[0101] 3D合成方法流程
[0102] 根据上述采集方法,图像采集装置2通过与目标物相对运动而采集目标物一组图像;
[0103] 处理单元根据上述一组图像中的多个图像得到目标物的3D信息。具体算法如下。当然,处理单元可以直接设置在图像采集装置2所在的壳体内,也可以通过数据线或通过无
线方式与图像采集装置2连接。例如可以使用独立的计算机、服务器及集群服务器等作为处
理单元,图像采集装置采集到的图像数据传输至其上,进行3D合成。同时,也可以将图像采
集装置的数据传输至云平台,利用云平台的强大计算能力进行3D合成。
[0104] 利用上述采集到的图片进行3D合成时,可以采用现有算法实现,也可以采用本发明提出的优化的算法,主要包括如下步骤:
[0105] 步骤1:对所有输入照片进行图像增强处理。采用下述滤波器增强原始照片的反差和同时压制噪声。
[0106]
[0107] 式中:g(x,y)为原始影像在(x,y)处灰度值,f(x,y)为经过Wallis滤波器增强后该处的灰度值,mg为原始影像局部灰度均值,sg为原始影像局部灰度标准偏差,mf为变换后的
影像局部灰度目标值,sf为变换后影像局部灰度标准偏差目标值。c∈(0,1)为影像方差的
扩展常数,b∈(0,1)为影像亮度系数常数。
[0108] 该滤波器可以大大增强影像中不同尺度的影像纹理模式,所以在提取影像的点特征时可以提高特征点的数量和精度,在照片特征匹配中则提高了匹配结果可靠性和精度。
[0109] 步骤2:对输入的所有照片进行特征点提取,并进行特征点匹配,获取稀疏特征点。采用SURF算子对照片进行特征点提取与匹配。SURF特征匹配方法主要包含三个过程,特征
点检测、特征点描述和特征点匹配。该方法使用 Hessian矩阵来检测特征点,用箱式滤波器
(Box Filters)来代替二阶高斯滤波,用积分图像来加速卷积以提高计算速度,并减少了局
部影像特征描述符的维数,来加快匹配速度。主要步骤包括①构建Hessian矩阵,生成所有
的兴趣点,用于特征提取,构建Hessian矩阵的目的是为了生成图像稳定的边缘点(突变
点);②构建尺度空间特征点定位,将经过Hessian矩阵处理的每个像素点与二维图像空间
和尺度空间邻域内的26个点进行比较,初步定位出关键点,再经过滤除能量比较弱的关键
点以及错误定位的关键点,筛选出最终的稳定的特征点;③特征点主方向的确定,采用的是
统计特征点圆形邻域内的harr小波特征。即在特征点的圆形邻域内,统计60度扇形内所有
点的水平、垂直harr小波特征总和,然后扇形以0.2弧度大小的间隔进行旋转并再次统计该
区域内harr小波特征值之后,最后将值最大的那个扇形的方向作为该特征点的主方向;④
生成64 维特征点描述向量,特征点周围取一个4*4的矩形区域块,但是所取得矩形区域方
向是沿着特征点的主方向。每个子区域统计25个像素的水平方向和垂直方向的haar小波特
征,这里的水平和垂直方向都是相对主方向而言的。该haar 小波特征为水平方向值之后、
垂直方向值之后、水平方向绝对值之后以及垂直方向绝对值之和4个方向,把这4个值作为
每个子块区域的特征向量,所以一共有4*4*4=64维向量作为Surf特征的描述子;⑤特征点
匹配,通过计算两个特征点间的欧式距离来确定匹配度,欧氏距离越短,代表两个特征点的
匹配度越好。
[0110] 步骤3:输入匹配的特征点坐标,利用光束法平差,解算稀疏的人脸三维点云和拍照相机的位置和姿态数据,即获得了稀疏人脸模型三维点云和位置的模型坐标值;以稀疏
特征点为初值,进行多视照片稠密匹配,获取得到密集点云数据。该过程主要有四个步骤:
立体像对选择、深度图计算、深度图优化、深度图融合。针对输入数据集里的每一张影像,我
们选择一张参考影像形成一个立体像对,用于计算深度图。因此我们可以得到所有影像的
粗略的深度图,这些深度图可能包含噪声和错误,我们利用它的邻域深度图进行一致性检
查,来优化每一张影像的深度图。最后进行深度图融合,得到整个场景的三维点云。
[0111] 步骤4:利用密集点云进行人脸曲面重建。包括定义八叉树、设置函数空间、创建向量场、求解泊松方程、提取等值面几个过程。由梯度关系得到采样点和指示函数的积分关
系,根据积分关系获得点云的向量场,计算指示函数梯度场的逼近,构成泊松方程。根据泊
松方程使用矩阵迭代求出近似解,采用移动方体算法提取等值面,对所测点云重构出被测
物体的模型。
[0112] 步骤5:人脸模型的全自动纹理贴图。表面模型构建完成后,进行纹理贴图。主要过程包括:①纹理数据获取通过图像重建目标的表面三角面格网;②重建模型三角面的可见
性分析。利用图像的标定信息计算每个三角面的可见图像集以及最优参考图像;③三角面
聚类生成纹理贴片。根据三角面的可见图像集、最优参考图像以及三角面的邻域拓扑关系,
将三角面聚类生成为若干参考图像纹理贴片;④纹理贴片自动排序生成纹理图像。对生成
的纹理贴片,按照其大小关系进行排序,生成包围面积最小的纹理图像,得到每个三角面的
纹理映射坐标。
[0113] 应当注意,上述算法是本发明的优化算法,本算法与图像采集条件相互配合,使用该算法兼顾了合成的时间和质量,是本发明的发明点之一。当然,使用现有技术中常规3D合
成算法也可以实现,只是合成效果和速度会受到一定影响。
[0114] 眼镜匹配及制作
[0115] 第1步:首先采集用户头部图片信息。用户坐在采集装置的座椅6上,根据用户身高调整座椅6高度,同时也可以调整背景板1和相机高度,使得用户头部中心与图像采集装置2
的光轴在同一水平面。调整图像采集装置2的水平位置,使得用户头部位于图像正中间,采
集完整,且占据绝大部分面积。旋转装置驱动旋转横梁3转动360°,从而使得图像采集装置2
围绕用户头部转动 360°。在转动过程中,图像采集装置2至少每间隔L距离进行一次图像采
集,从而得到人体头部不同角度的多张照片。当然,对于眼镜匹配而言,人头部正面及侧面
信息较为重要,而头部背面信息缺失并不妨碍眼镜的匹配与设计。因此,在采集时也可以采
集头部部分信息,即转动范围可以小于360°。
[0116] 第2步:将多张图像合成头部3D模型。将多张照片利用3D合成软件合成 3D模型,在得到3D网格模型后,增加纹理信息,从而形成头部3D模型,具体方法如“3D合成方法流程”所
述。当然,为了能够更好地兼容,其他现有的合成方法也可以实现3D模型的建立,因此可以
采用的方法可以使用常见的3D 图片匹配算法。
[0117] 第3步:已有模型眼镜与人脸匹配。该步骤可以在上位机、服务器、集群服务器或云平台上实现,可以独立设置,也可以与3D合成步骤共用。具体包括:
[0118] 3-1:导入头部3D模型,模型采用人脸正面的方式进行显示。
[0119] 3-2:确定头部3D模型的多个点坐标。多个点通常选择为与眼镜框、两个眼镜腿相关联的点。例如可以选择与头部与眼镜想接触的部位:耳根、鼻子两侧,作为粗对齐的基础。
确定选择点的坐标P1(x1,y1,z1)、P2(x2,y2,z2)、P3(x3,y3,z3)。当然,也可以选择例如耳廓、鼻
头等不与眼镜相接触的点,从而只进行更为不精确的粗对齐,再进行细微调整。
[0120] 3-3:导入眼镜3D模型,在眼镜模型上确定与上述P1(x1,y1,z1)、P2(x2,y2,z2)、 P3(x3,y3,z3)点相对应的点Q1(Xg1,Yg1,Zg1)、Q2(Xg2,Yg2,Zg2)、Q3(Xg3,Yg3,Zg3)。将 P1与Q1、P2与
Q2、P3与Q3分别对齐,从而使得眼镜3D模型基本位于头部3D 模型合适的位置,这样眼镜就和
头部模型大致的结合了起来。
[0121] 例如,在匹配前眼镜和头部的尺寸做了归一,按照实物的准确尺寸,这样对应的时候,不会发生大的偏差,头部的摆放的的方向,鼻子在前,左耳和右耳在后,且分列左右。
[0122] 分别在左耳,右耳,鼻子上面选取空间坐标(0,90,0)(100,89,0)(52,89,56)。假设眼镜模型对应的鼻子,左耳,右耳的空间坐标为(0,0,0)(-50,0-45) (50,0-45)。
[0123] 首先,鼻子对准
[0124] 眼镜的所有点的空间尺寸平移量
[0125] xdelta=52-0=52
[0126] ydelta=89-0=89
[0127] zdelta=56-0=56
[0128] 其次,眼镜模型的空间点平移
[0129] 鼻子对应点(0+52=52,0+89=89,0+56=56)
[0130] 左耳对应点(-50+52=2,0+89=89-45+56=11)
[0131] 右耳对应点(50+52=102,0+89=89,-45+56=11)
[0132] 可选的,手动微调
[0133] Z轴方向的缩放,将眼镜的Z轴左边缩放,使z轴11的坐标大致落在0 的位置,眼镜腿就和人脸大致配合紧致。
[0134] 3-4:精确对齐。将匹配效果通过显示器向用户展示。用户或者操作人员通过观察显示器中的眼镜与头部模型的匹配的3D模型,通过拖拽、移动眼镜模型或头部模型,从而使
得两者精确对齐,符合通常的佩戴要求。除了人工微调外,也可以实现自动微调,调整方式
包括平移、旋转和缩放。
[0135] 例如,空间有点A(12,23,34)
[0136] 1.将A点平移(5,6,7)
[0137] 平移后A点新的坐标
[0138] X’=x+5=17
[0139] Y’=23+6=29
[0140] Z’=34+7=41
[0141] 平移后A点的空间坐标为(17,29,41)
[0142] 2.将A点的坐标在X方向缩放2倍,y方向缩放0.8倍,z方向缩放10倍缩放后A点新的坐标
[0143] X’=12*2=24
[0144] Y’=23*0.8=18.4
[0145] Y’=34*10=340
[0146] 缩放后A点的空间坐标为(24,18.4,340)
[0147] 3.将A点沿X轴旋转30度,
[0148] A点旋转30度的坐标
[0149] X’=12
[0150] Y’=23*cos30。-23*sin30。=23*0.866-23*0.5=8.418
[0151] Z’=34*sin30。-34*cos30。=34*0.5-34*0.866=-12.444
[0152] A点沿X轴旋转30度的空间坐标(12,8.418,-12.444)
[0153] 沿Y轴,z轴同样的原理。
[0154] 3-5:修改眼镜数据。除了匹配外,用户还可以以预定眼镜为基础,在匹配好的眼镜和头部3D模型上进行眼镜形状的改动,从而进行个性化的定制。并将最终设计佩戴效果通
过显示器向用户展示。例如,可以将圆形眼镜腿修改为方形;可以将5mm宽的眼镜腿修改为
6mm宽;可以将眼镜框某个部位设置凸起或凹陷,以及其他一些改变镜框形状、尺寸的方式。
[0155] 3-6:3D数据输出。将步骤3-4、3-5的3D数据输出至3D打印机或加工平台,从而按照选定的3D眼镜模型进行加工制造。
[0156] 本发明所述的转动运动,为在采集过程中前一位置采集平面和后一位置采集平面发生交叉而不是平行,或前一位置图像采集装置光轴和后一位置图像采集位置光轴发生交
叉而不是平行。也就是说,图像采集装置的采集区域环绕或部分环绕目标物运动,均可以认
为是两者相对转动。虽然本发明实施例中列举更多的为有轨道的转动运动,但是可以理解,
只要图像采集设备的采集区域和目标物之间发生非平行的运动,均是转动范畴,均可以使
用本发明的限定条件。本发明保护范围并不限定于实施例中的有轨道转动。
[0157] 本发明所述的相邻采集位置是指,在图像采集装置相对目标物移动时,移动轨迹上的发生采集动作的两个相邻位置。这通常对于图像采集装置运动容易理解。但对于目标
物发生移动导致两者相对移动时,此时应当根据运动的相对性,将目标物的运动转化为目
标物不动,而图像采集装置运动。此时再衡量图像采集装置在转化后的移动轨迹中发生采
集动作的两个相邻位置。
[0158] 上述目标物体、目标物、及物体皆表示预获取三维信息的对象。可以为一实体物体,也可以为多个物体组成物。例如可以为头部、手部等。所述目标物的三维信息包括三维
图像、三维点云、三维网格、局部三维特征、三维尺寸及一切带有目标物三维特征的参数。本
发明里所谓的三维是指具有XYZ三个方向信息,特别是具有深度信息,与只有二维平面信息
具有本质区别。也与一些称为三维、全景、全息、三维,但实际上只包括二维信息,特别是不
包括深度信息的定义有本质区别。
[0159] 在此处所提供的说明书中,说明了大量具体细节。然而,能够理解,本发明的实施例可以在没有这些具体细节的情况下实践。在一些实例中,并未详细示出公知的方法、结构
和技术,以便不模糊对本说明书的理解。
[0160] 类似地,应当理解,为了精简本公开并帮助理解各个发明方面中的一个或多个,在上面对本发明的示例性实施例的描述中,本发明的各个特征有时被一起分组到单个实施
例、图、或者对其的描述中。然而,并不应将该公开的方法解释成反映如下意图:即所要求保
护的本发明要求比在每个权利要求中所明确记载的特征更多的特征。更确切地说,如下面
的权利要求书所反映的那样,发明方面在于少于前面公开的单个实施例的所有特征。因此,
遵循具体实施方式的权利要求书由此明确地并入该具体实施方式,其中每个权利要求本身
都作为本发明的单独实施例。
[0161] 本领域那些技术人员可以理解,可以对实施例中的设备中的模块进行自适应性地改变并且把它们设置在与该实施例不同的一个或多个设备中。可以把实施例中的模块或单
元或组件组合成一个模块或单元或组件,以及此外可以把它们分成多个子模块或子单元或
子组件。除了这样的特征和/或过程或者单元中的至少一些是相互排斥之外,可以采用任何
组合对本说明书(包括伴随的权利要求、摘要和附图)中公开的所有特征以及如此公开的任
何方法或者设备的所有过程或单元进行组合。除非另外明确陈述,本说明书(包括伴随的权
利要求、摘要和附图)中公开的每个特征可以由提供相同、等同或相似目的的替代特征来代
替。
[0162] 此外,本领域的技术人员能够理解,尽管在此的一些实施例包括其它实施例中所包括的某些特征而不是其它特征,但是不同实施例的特征的组合意味着处于本发明的范围
之内并且形成不同的实施例。例如,在权利要求书中,所要求保护的实施例的任意之一都可
以以任意的组合方式来使用。
[0163] 本发明的各个部件实施例可以以硬件实现,或者以在一个或者多个处理器上运行的软件模块实现,或者以它们的组合实现。本领域的技术人员应当理解,可以在实践中使用
微处理器或者数字信号处理器(DSP)来实现根据本发明实施例的基于本发明装置中的一些
或者全部部件的一些或者全部功能。本发明还可以实现为用于执行这里所描述的方法的一
部分或者全部的设备或者装置程序 (例如,计算机程序和计算机程序产品)。这样的实现本
发明的程序可以存储在计算机可读介质上,或者可以具有一个或者多个信号的形式。这样
的信号可以从因特网网站上下载得到,或者在载体信号上提供,或者以任何其他形式提供。
[0164] 应该注意的是上述实施例对本发明进行说明而不是对本发明进行限制,并且本领域技术人员在不脱离所附权利要求的范围的情况下可设计出替换实施例。在权利要求中,
不应将位于括号之间的任何参考符号构造成对权利要求的限制。单词“包含”不排除存在未
列在权利要求中的元件或步骤。位于元件之前的单词“一”或“一个”不排除存在多个这样的
元件。本发明可以借助于包括有若干不同元件的硬件以及借助于适当编程的计算机来实
现。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项
来具体体现。单词第一、第二、以及第三等的使用不表示任何顺序。可将这些单词解释为名
称。
[0165] 至此,本领域技术人员应认识到,虽然本文已详尽示出和描述了本发明的多个示例性实施例,但是,在不脱离本发明精神和范围的情况下,仍可根据本发明公开的内容直接
确定或推导出符合本发明原理的许多其他变型或修改。因此,本发明的范围应被理解和认
定为覆盖了所有这些其他变型或修改。