AR眼镜中虚拟目标物的叠加方法转让专利

申请号 : CN201710104447.7

文献号 : CN106875493B

文献日 :

基本信息:

PDF:

法律信息:

相似专利:

发明人 : 何双伯李军锋刘晓夏爽熊山薛江冯伟夏

申请人 : 广东电网有限责任公司教育培训评价中心武汉新电电气股份有限公司

摘要 :

本发明涉及一种AR眼镜中虚拟目标物的叠加方法,包括:将AR眼镜固定设置在实际场景中的设定位置,在AR眼镜的前方放置标有多个刻度的实际标记物;对所述实际场景进行全景扫描,得到所述实际场景对应的虚拟场景,将所述虚拟场景导入开发设备,将AR眼镜拍摄得到的视频场景上传至开发设备;在所述开发设备进入调试模式后在同一界面显示所述虚拟场景和视频场景,将所述虚拟场景中的各个虚拟刻度调节至与所述视频场景中的各个拍摄刻度重合;将所述虚拟目标物叠加至所述虚拟场景中的目标位置,获取虚拟场景中叠加所述虚拟目标物的叠加范围参数,将所述虚拟目标物和叠加范围参数发送至AR眼镜。其可以实现对视频场景对应的实际场景的高度还原,使AR眼镜所显示的虚拟场景具体较好的显示效果。

权利要求 :

1.一种AR眼镜中虚拟目标物的叠加方法,其特征在于,包括如下步骤:

将AR眼镜固定设置在实际场景中的设定位置,在所述AR眼镜的前方放置标有多个刻度的实际标记物;

对所述实际场景进行全景扫描,得到所述实际场景对应的虚拟场景,将所述虚拟场景导入开发设备,将所述AR眼镜拍摄得到的视频场景上传至开发设备;其中,所述开发设备为生成所述AR眼镜对应的虚拟场景的设备;

在所述开发设备进入调试模式后在同一界面显示所述虚拟场景和视频场景,将所述虚拟场景中的各个虚拟刻度调节至与所述视频场景中的各个拍摄刻度重合;其中,所述虚拟刻度指虚拟场景中虚拟标记物上的刻度;所述拍摄刻度指拍摄得到的视频场景中拍摄标记物上的刻度;

将所述虚拟目标物叠加至所述虚拟场景中的目标位置,获取虚拟场景中叠加所述虚拟目标物的叠加范围参数,将所述虚拟目标物和叠加范围参数发送至AR眼镜;

将所述AR眼镜通过支架固定设置在实际场景中的设定位置;

所述将所述虚拟场景中的各个虚拟刻度调节至与所述视频场景中的各个拍摄刻度重合的过程包括:在虚拟场景中的虚拟支架上设置一个虚拟摄像机,通过所述虚拟摄像机调节所述虚拟场景,直至将所述虚拟场景中的各个虚拟刻度调节至与所述视频场景中的各个拍摄刻度重合;其中,在调节虚拟摄像机的过程中,所述虚拟场景中的虚拟支架和虚拟AR眼镜保持不动,虚拟场景中除虚拟支架和虚拟AR眼镜外的各个虚拟元素随所述虚拟摄像机运动。

2.根据权利要求1所述的AR眼镜中虚拟目标物的叠加方法,其特征在于,所述在虚拟场景中的虚拟支架上设置一个虚拟摄像机,通过所述虚拟摄像机调节所述虚拟场景,直至将所述虚拟场景中的各个虚拟刻度调节至与所述视频场景中的各个拍摄刻度重合的过程之后,还包括:记录所述虚拟摄像机与所述虚拟AR眼镜之间的相对坐标;

记录所述虚拟摄像机与所述虚拟AR眼镜之间的相对姿态信息;

所述将所述虚拟目标物叠加至所述虚拟场景中的目标位置,获取虚拟场景中叠加所述虚拟目标物的叠加范围参数,将所述虚拟目标物和叠加范围参数发送至AR眼镜的过程之后,还包括:检测所述AR眼镜在实际场景中的眼镜位移信息,根据所述眼镜位移信息调节所述虚拟摄像机的虚拟摄像机位置信息;其中在调节虚拟摄像机位置信息之后,所述虚拟摄像机与所述虚拟AR眼镜之间的相对坐标保持不变,所述虚拟摄像机与所述虚拟AR眼镜之间的相对姿态信息保持不变。

3.根据权利要求1所述的AR眼镜中虚拟目标物的叠加方法,其特征在于,所述实际标记物为设定边长的立方体,所述立方体的各个边长分别标有多个刻度。

4.根据权利要求3所述的AR眼镜中虚拟目标物的叠加方法,其特征在于,所述将所述虚拟场景中的各个虚拟刻度调节至与所述视频场景中的各个拍摄刻度重合的过程包括:将所述虚拟场景中虚拟标记物调节至与所述视频场景中的拍摄标记物重合;

将各个虚拟刻度调节至与所述拍摄刻度重合。

5.根据权利要求1至4任一项所述的AR眼镜中虚拟目标物的叠加方法,其特征在于,所述对所述实际场景进行全景扫描,得到所述实际场景对应的虚拟场景,将所述虚拟场景导入开发设备的过程包括:采用三维激光扫描设备扫描包括AR眼镜和实际标记物在内的实际场景;

通过点云数据获取所述实际场景中各实际目标物体的三维坐标信息,根据所述实际场景中各实际目标物体以及所述实际目标物体分别对应的三维坐标信息构建虚拟场景,将所述虚拟场景导入开发设备。

6.根据权利要求1至4任一项所述的AR眼镜中虚拟目标物的叠加方法,其特征在于,所述获取虚拟场景中叠加所述虚拟目标物的叠加范围参数,将所述虚拟目标物和叠加范围参数发送至AR眼镜的过程包括:在开发设备的虚拟场景中获取叠加所述虚拟目标物的叠加范围参数,对所述虚拟目标物和叠加范围参数进行打包处理,得到虚拟数据包;

将所述虚拟数据包发送至AR眼镜;

在所述AR眼镜中调用所述虚拟数据包,将所述虚拟目标物按照所述叠加范围参数叠加至AR眼镜的视频场景中。

7.根据权利要求1至4任一项所述的AR眼镜中虚拟目标物的叠加方法,其特征在于,所述将所述虚拟目标物叠加至所述虚拟场景中的目标位置,获取虚拟场景中叠加所述虚拟目标物的叠加范围参数,将所述虚拟目标物和叠加范围参数发送至AR眼镜的过程之后,还包括:在用户取下支架上的AR眼镜并佩戴后,通过AR眼镜的交互程序发出指令,向AR眼镜的虚拟场景中的目标位置推送虚拟信息,实现虚拟信息与目标物的叠加;其中,叠加了虚拟信息的虚拟场景在AR眼镜的用户视窗中显示。

说明书 :

AR眼镜中虚拟目标物的叠加方法

技术领域

[0001] 本发明涉及虚拟显示眼镜技术领域,特别是涉及一种AR眼镜中虚拟目标物的叠加方法。

背景技术

[0002] HoloLens眼镜等AR(增强现实技术)眼镜为用于进行虚拟现实场景显示的智能显示设备。若需要提高HoloLens眼镜等AR眼镜的增强现实功能,必须准确获取真实世界的信息(如虚拟场景所对应的实际场景信息)。AR眼镜在显示相应虚拟场景的过程中,需要依赖相应的SLAM(同步定位与建图)系统。以HoloLens眼镜为例,HoloLens眼镜依靠的是左右两边各两台的摄像头,覆盖的水平视角和垂直视角都达到120度。这些摄像头能够实时获取不同角度的深度图,再对不同的深度图进行累积,从而借助立体视觉等技术计算出场景及其内部目标物体的精确的三维模型。当用户移动时,需要精准的姿态确定和位置确定,HoloLens眼镜的SLAM系统通过景深摄像头和电容式陀螺仪等多种传感器获取环境的各种信息,以此计算出用户的相对或绝对位置,并完成对于现实场景的构建,保证移动中虚拟画面稳定和准确地叠加。
[0003] 然而SLAM技术目前的算法还要依赖高性能的GPU才能达到接近实时的运算,且算法自身存在大量迭代、尝试性运算,无法完全满足现实场景构建的实时性要求。因此在实际应用中,利用AR眼镜实现的虚拟信息叠加后的虚拟场景显示还存在画面延迟、定位精度低(厘米级)等不足,使AR眼镜所显示的虚拟场景效果差。

发明内容

[0004] 基于此,有必要针对传统方案中,AR眼镜所显示的虚拟场景效果差的技术问题,提供一种AR眼镜中虚拟目标物的叠加方法。
[0005] 一种AR眼镜中虚拟目标物的叠加方法,包括如下步骤:
[0006] 将AR眼镜固定设置在实际场景中的设定位置,在所述AR眼镜的前方放置标有多个刻度的实际标记物;
[0007] 对所述实际场景进行全景扫描,得到所述实际场景对应的虚拟场景,将所述虚拟场景导入开发设备,将所述AR眼镜拍摄得到的视频场景上传至开发设备;其中,所述开发设备为生成所述AR眼镜对应的虚拟场景的设备;
[0008] 在所述开发设备进入调试模式后在同一界面显示所述虚拟场景和视频场景,将所述虚拟场景中的各个虚拟刻度调节至与所述视频场景中的各个拍摄刻度重合;其中,所述虚拟刻度指虚拟场景中虚拟标记物上的刻度;所述拍摄刻度指拍摄得到的视频场景中拍摄标记物上的刻度;
[0009] 将所述虚拟目标物叠加至所述虚拟场景中的目标位置,获取虚拟场景中叠加所述虚拟目标物的叠加范围参数,将所述虚拟目标物和叠加范围参数发送至AR眼镜。
[0010] 上述AR眼镜中虚拟目标物的叠加方法,在实际场景中增设包括多个刻度的实际标记物,以此构建虚拟场景,使构建后的虚拟场景可以通过上述实际标记物调整与AR眼镜拍摄得到的视频场景之间的重合度,使虚拟场景与相应的视频场景完全重合,实现对视频场景对应的实际场景的高度还原,相应的虚拟目标物可以准确叠加至上述虚拟场景中,获取虚拟目标物实现准确叠加后的叠加范围参数,以便AR眼镜按照上述叠加范围参数将虚拟目标物叠加至AR眼镜的视频场景,使视频场景在AR眼镜中具体较好的显示效果。且在AR眼镜的显示过程中,无需实时、动态地识别相应实际场景中实物的图像,彻底解决了由于使用图像识别技术带来的画面延迟和重合精度低的问题,由于不需要进行相应实时定位和构建场景,可以节省AR眼镜系统的资源开销,降低系统硬件过热带来的风险。

附图说明

[0011] 图1为一个实施例的AR眼镜中虚拟目标物的叠加方法流程图;
[0012] 图2为一个实施例的实际标记物示意图。

具体实施方式

[0013] 下面结合附图对本发明的AR眼镜中虚拟目标物的叠加方法的具体实施方式作详细描述。
[0014] 参考图1,图1所示为一个实施例的AR眼镜中虚拟目标物的叠加方法流程图,包括如下步骤:
[0015] S10,将AR眼镜固定设置在实际场景中的设定位置,在所述AR眼镜的前方放置标有多个刻度的实际标记物;
[0016] 上述步骤可以通过支架固定在实际场景中设定位置处,上述设定位置可以为实际场景中的某侧或者某个角落的上方;将AR眼镜固定设置在设定位置处,AR眼镜自身携带的摄像头可以对实际场景的大部分空间进行拍摄。
[0017] 上述实际标记物可以为如图2所示的立方体,上述立方体的各个边上可以标记多个刻度,以图2所示的立方体为例,立方体的边长为100mm(毫米),每条边均以0.5mm间隔进行刻度。
[0018] S20,对所述实际场景进行全景扫描,得到所述实际场景对应的虚拟场景,将所述虚拟场景导入开发设备,将所述AR眼镜拍摄得到的视频场景上传至开发设备;其中,所述开发设备为生成所述AR眼镜对应的虚拟场景的设备;
[0019] 上述步骤可以采用三维激光扫描设备扫描包括AR眼镜和实际标记物在内的实际场景,获取空间位置信息,构建虚拟场景,具体的构建过程可以包括:第一步:通过三维激光扫描场景中各实物的水平方向、天顶距、斜距和反射强度等参数,自动存储并计算,获得点云数据;第二步:对点云数据进行编辑、扫描数据拼接与合并、影像数据点三维空间量测、点云影像可视化、空间数据三维建模、纹理分析处理和数据转换处理,构建虚拟场景。所构建的虚拟场景包括实际场景中的各个实际元素分别对应的虚拟元素,比如虚拟支架,虚拟AR眼镜以及虚拟标记物等等。
[0020] 在构建虚拟场景之后,可以保持AR眼镜和实际标记物相互位置关系不变,启动Hololens眼镜,进入开发程序,向开发设备导入虚拟场景,进入调试模式,在开发设备的同一界面中显示AR眼镜拍摄得到的视频场景和上述虚拟场景。
[0021] S30,在所述开发设备进入调试模式后在同一界面显示所述虚拟场景和视频场景,将所述虚拟场景中的各个虚拟刻度调节至与所述视频场景中的各个拍摄刻度重合;其中,所述虚拟刻度指虚拟场景中虚拟标记物上的刻度;所述拍摄刻度指拍摄得到的视频场景中拍摄标记物上的刻度;
[0022] 上述步骤可以在虚拟场景中设置虚拟摄像机等参考调节图形,通过调节上述参考调节图形实现对相应虚拟场景的调节,比如旋转上述参考调节图形设定角度,虚拟场景便相应旋转设定角度;将参考调节图形向某方向移动距离A,相应的,虚拟场景向该方向移动距离A。
[0023] 可以通过调节设置在虚拟场景中的参考调节图形将所述虚拟场景中的各个虚拟刻度调节至与所述视频场景中的各个拍摄刻度重合,使AR眼镜视角下的虚拟场景完全与相应的实际场景重合。在通过调节设置在虚拟场景中的参考调节图形调节相应虚拟场景的过程中,虚拟AR眼镜以及相应的虚拟支架固定不动,虚拟场景中除虚拟AR眼镜和虚拟支架以外的各个虚拟元素(如虚拟标记物、虚拟场景中的各个环境元素等)与参考调节图形运动一致;例如,旋转上述参考调节图形设定角度,虚拟场景中除虚拟AR眼镜和虚拟支架以外的各个虚拟元素分别旋转设定角度;将参考调节图形向某方向移动距离A,相应的,虚拟场景中除虚拟AR眼镜和虚拟支架以外的各个虚拟元素分别向该方向移动距离A。
[0024] S40,将所述虚拟目标物叠加至所述虚拟场景中的目标位置,获取虚拟场景中叠加所述虚拟目标物的叠加范围参数,将所述虚拟目标物和叠加范围参数发送至AR眼镜。
[0025] 上述步骤可以利用开发设备中的开发程序将虚拟目标物对应的虚拟信息根据相关设计要求放置在虚拟场景中的指定位置(目标位置),或者与虚拟场景中相对固定的目标物叠加,使上述虚拟目标物与相应的虚拟场景完全融合,得到还原度极高的虚拟场景。再从上述还原度极高的虚拟场景中获取叠加相应虚拟目标物的叠加范围参数,将所述虚拟目标物和叠加范围参数发送至AR眼镜,以便AR眼镜可以根据上述叠加范围参数将虚拟目标物准确叠加至AR眼镜的视频场景中,保证AR眼镜所显示的视频场景的显示效果。具体可以将上述虚拟目标物和叠加范围参数等虚拟信息通过开发程序打包后,输出到AR眼镜中,使AR眼镜可以对上述虚拟场景进行高质量显示。上述打包后的虚拟数据包可以包括相应虚拟摄像机在该场景的相对空间坐标及姿态数据、包括支架在内的虚拟场景空间坐标信息库。上述叠加范围参数可以包括虚拟场景中叠加虚拟目标物的坐标范围等参数,虚拟场景与AR眼镜的视频场景完全重合,因而虚拟场景中叠加虚拟目标物的叠加范围参数与视频场景中叠加该虚拟目标物的叠加范围参数一致。
[0026] 本实施例提供的AR眼镜中虚拟目标物的叠加方法,在实际场景中增设包括多个刻度的实际标记物,以此构建虚拟场景,使构建后的虚拟场景可以通过上述实际标记物调整与AR眼镜拍摄得到的视频场景之间的重合度,使虚拟场景与相应的视频场景完全重合,实现对视频场景对应的实际场景的高度还原,相应的虚拟目标物可以准确叠加至上述虚拟场景中,获取虚拟目标物实现准确叠加后的叠加范围参数,以便AR眼镜按照上述叠加范围参数将虚拟目标物叠加至AR眼镜的视频场景,使视频场景在AR眼镜中具体较好的显示效果。且在AR眼镜的显示过程中,无需实时、动态地识别相应实际场景中实物的图像,彻底解决了由于使用图像识别技术带来的画面延迟和重合精度低的问题,由于不需要进行相应实时定位和构建场景,可以节省AR眼镜系统的资源开销,降低系统硬件过热带来的风险。
[0027] 在一个实施例中,上述将所述AR眼镜通过支架固定设置在实际场景中的设定位置;
[0028] 所述将所述虚拟场景中的各个虚拟刻度调节至与所述视频场景中的各个拍摄刻度重合的过程可以包括:
[0029] 在虚拟场景中的虚拟支架上设置一个虚拟摄像机,通过所述虚拟摄像机调节所述虚拟场景,直至将所述虚拟场景中的各个虚拟刻度调节至与所述视频场景中的各个拍摄刻度重合;其中,在调节虚拟摄像机的过程中,所述虚拟场景中的虚拟支架和虚拟AR眼镜保持不动,虚拟场景中除虚拟支架和虚拟AR眼镜外的各个虚拟元素随所述虚拟摄像机运动。
[0030] 本实施例在虚拟支架的任意位置设置一个虚拟摄像机,可以采用手动方式仔细调整虚拟摄像机的坐标和姿态,使虚拟标记物的刻度与视频场景中的拍摄标记物的刻度完全重合,此时可以记录虚拟摄像机与虚拟AR眼镜(或者虚拟支架)的相对坐标及姿态数据,完成对虚拟摄像机的定位。
[0031] 作为一个实施例,上述在虚拟场景中的虚拟支架上设置一个虚拟摄像机,通过所述虚拟摄像机调节所述虚拟场景,直至将所述虚拟场景中的各个虚拟刻度调节至与所述视频场景中的各个拍摄刻度重合的过程之后,还可以包括
[0032] 记录所述虚拟摄像机与所述虚拟AR眼镜之间的相对坐标;上述虚拟摄像机与所述虚拟AR眼镜之间的相对坐标可以为虚拟摄像机上的某个摄像机表征点(如虚拟摄像机的中心点)与虚拟AR眼镜上的眼镜表征点(如虚拟AR眼镜的中心点)之间的相对坐标;
[0033] 记录所述虚拟摄像机与所述虚拟AR眼镜之间的相对姿态信息;上述虚拟摄像机与所述虚拟AR眼镜之间的相对姿态信息可以包括表征虚拟摄像机的线(如虚拟摄像机的中心轴线等)与表征虚拟AR眼镜的线(如虚拟AR眼镜的中心轴线等)之间所成的角度信息等;
[0034] 所述将所述虚拟目标物叠加至所述虚拟场景中的目标位置,获取虚拟场景中叠加所述虚拟目标物的叠加范围参数,将所述虚拟目标物和叠加范围参数发送至AR眼镜的过程之后,还包括:
[0035] 检测所述AR眼镜在实际场景中的眼镜位移信息,根据所述眼镜位移信息调节所述虚拟摄像机的虚拟摄像机位置信息;其中在调节虚拟摄像机位置信息之后,所述虚拟摄像机与所述虚拟AR眼镜之间的相对坐标保持不变,所述虚拟摄像机与所述虚拟AR眼镜之间的相对姿态信息保持不变。
[0036] 本实施例中,AR眼镜因用户使用发生运动时,AR眼镜中的陀螺仪等传感器可以检测上述AR眼镜在实际场景中的眼镜位移信息,此时,AR眼镜所显示的虚拟场景中的虚拟AR眼镜随着实际场景中的AR眼镜移动,且虚拟AR眼镜随着实际场景中的AR眼镜两者的移动特征完全一致(移动方向相同,移动距离相同),此时AR眼镜所显示的虚拟场景与相应的实际场景之间的完全重合状态发生改变,此时可以根据所述眼镜位移信息调节所述虚拟摄像机的虚拟摄像机位置信息,实现对相应虚拟场景的调节,使AR眼镜中的虚拟场景保持与相应实际场景的重合状态。
[0037] 上述虚拟AR眼镜与实际场景中的AR眼镜之间的运动信息保持一致,即虚拟AR眼镜与实际R眼镜之间移动方向、在相应方向上的移动距离完全相同,在实际场景中的AR眼镜固定不动时,虚拟AR眼镜也保持固定不动状态。虚拟场景以及虚拟场景中除虚拟眼镜和虚拟支架外的虚拟元素与虚拟摄像机的运动信息保持一致,例如,旋转上述虚拟摄像机设定角度,虚拟场景以及虚拟场景中除虚拟AR眼镜和虚拟支架以外的各个虚拟元素分别旋转设定角度;将虚拟摄像机向某方向移动距离A,相应的,虚拟场景以及虚拟场景中除虚拟AR眼镜和虚拟支架以外的各个虚拟元素分别向该方向移动距离A。
[0038] 在一个实施例中,上述实际标记物可以为设定边长的立方体,所述立方体的各个边长分别可以标有多个刻度。
[0039] 本实施例的实际标记物可以为如图2所示的立方体,立方体的边长为100mm,每条边均以0.5mm间隔进行刻度,以便于后续虚拟标记物与拍摄标记物之间的比对。
[0040] 作为一个实施例,上述将所述虚拟场景中的各个虚拟刻度调节至与所述视频场景中的各个拍摄刻度重合的过程可以包括:
[0041] 将所述虚拟场景中虚拟标记物调节至与所述视频场景中的拍摄标记物重合;
[0042] 将各个虚拟刻度调节至与所述拍摄刻度重合。
[0043] 本实施例可以保证虚拟场景与相应实际场景的重合精度,从而保证后续虚拟场景的显示质量。
[0044] 在一个实施例中,上述对所述实际场景进行全景扫描,得到所述实际场景对应的虚拟场景,将所述虚拟场景导入开发设备的过程可以包括:
[0045] 采用三维激光扫描设备扫描包括AR眼镜和实际标记物在内的实际场景;
[0046] 通过点云数据获取所述实际场景中各实际目标物体的三维坐标信息,根据所述实际场景中各实际目标物体以及所述实际目标物体分别对应的三维坐标信息构建虚拟场景,将所述虚拟场景导入开发设备。
[0047] 本实施例可以对扫描得到的点云数据进行编辑、扫描数据拼接与合并、影像数据点三维空间量测、点云影像可视化、空间数据三维建模、纹理分析处理和数据转换处理,构建虚拟场景。所构建的虚拟场景包括实际场景中的各个实际元素分别对应的虚拟元素,比如虚拟支架,虚拟AR眼镜以及虚拟标记物等等。
[0048] 在一个实施例中,上述获取虚拟场景中叠加所述虚拟目标物的叠加范围参数,将所述虚拟目标物和叠加范围参数发送至AR眼镜的过程包括:
[0049] 在开发设备的虚拟场景中获取叠加所述虚拟目标物的叠加范围参数,对所述虚拟目标物和叠加范围参数进行打包处理,得到虚拟数据包;
[0050] 将所述虚拟数据包发送至AR眼镜;
[0051] 在所述AR眼镜中调用所述虚拟数据包,将所述虚拟目标物按照所述叠加范围参数叠加至AR眼镜的视频场景中。
[0052] 本实施例中,开发设备的开发程序将虚拟信息(待叠加至虚拟场景的虚拟目标)根据设计要求放置在虚拟场景中的指定位置,或者与虚拟场景中相对固定的目标物叠加,以保证后续虚拟场景的高度还原。再从高度还原后的虚拟场景中获取虚拟目标的叠加范围参数,将虚拟目标物和叠加范围参数通过开发程序打包后,输出到AR眼镜中进行相应显示。打包后的程序可以包括虚拟摄像机在该场景的相对空间坐标及姿态数据、包括虚拟支架在内的虚拟场景空间坐标信息库。
[0053] 在上述AR眼镜的实际使用过程中,用户将AR眼镜放置在现实场景中的支架上固定,启动AR眼镜,系统软件自动读入预先设置的虚拟摄像机在该场景的相对空间坐标及姿态数据及虚拟场景空间坐标信息,以确定虚拟摄像机的位置和姿态。
[0054] 在一个实施例中,上述将所述虚拟目标物叠加至所述虚拟场景中的目标位置,获取虚拟场景中叠加所述虚拟目标物的叠加范围参数,将所述虚拟目标物和叠加范围参数发送至AR眼镜的过程之后,还可以包括:
[0055] 在用户取下支架上的AR眼镜并佩戴后,通过AR眼镜的交互程序发出指令,向AR眼镜的虚拟场景中的目标位置推送虚拟信息,实现虚拟信息与目标物的叠加;其中,叠加了虚拟信息的虚拟场景在AR眼镜的用户视窗中显示。
[0056] 用户在场景中自由移动时,AR眼镜的相应系统实时读取AR眼镜在场景中三维坐标的变化量(眼镜位移信息),传递给虚拟摄像机,虚拟摄像机根据坐标变化量实时调整虚拟信息在场景中的坐标和姿态,并将当前视角下的虚拟信息输出到用户视窗中。在AR眼镜的实际使用过程中,如果保持AR眼镜在支架上的固定方式不变(即保持虚拟摄像机与AR眼镜的初始位置不变),则虚拟摄像机的定位操作只需要执行一次。当应用于不同场景时,将包括支架在内的现实场景进行三维扫描并构建虚拟场景后,只需导入虚拟摄像机与相应虚拟AR眼镜的相对坐标及姿态数据,再进行虚拟目标物对应的虚拟信息与相应虚拟场景的叠加,便可以保证上述虚拟场景在AR眼镜中的显示效果。
[0057] 以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
[0058] 以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。