基于可穿戴智能设备的无人车控制方法、装置及系统转让专利

申请号 : CN202010677177.0

文献号 : CN111796740A

文献日 :

基本信息:

PDF:

法律信息:

相似专利:

发明人 : 斯戈泰

申请人 : 嘉善新石器智牛科技有限公司

摘要 :

本申请提供一种基于可穿戴智能设备的无人车控制方法、装置及系统,涉及无人车控制技术领域。该基于可穿戴智能设备的无人车控制方法包括:当可穿戴智能设备获取的现实视野图像包括无人车时,先根据无人车发送的控制菜单信息生成叠加于现实视野图像上的AR控制菜单图像;然后将AR控制菜单图像投射于佩戴可穿戴智能设备的用户眼中,并接收用户输入的针对AR控制菜单图像的操作信息;最后根据操作信息控制无人车执行相应的动作,能够通过可穿戴智能设备快速输入无人车(如自动驾驶车辆、无人驾驶车辆等)的控制指令,控制效率高,互动性强。

权利要求 :

1.一种基于可穿戴智能设备的无人车控制方法,其特征在于,包括:当所述可穿戴智能设备获取的现实视野图像包括所述无人车时,根据所述无人车发送的控制菜单信息生成叠加于所述现实视野图像上的AR控制菜单图像;

将所述AR控制菜单图像投射于佩戴所述可穿戴智能设备的用户眼中,并接收用户针对所述AR控制菜单图像的操作信息;

根据所述操作信息控制所述无人车执行相应的动作。

2.根据权利要求1所述的基于可穿戴智能设备的无人车控制方法,其特征在于,所述方法还包括:获取所述可穿戴智能设备的现实视野图像,并判断所述现实视野图像是否包括所述无人车的现实图像;

如果包括,获取所述无人车和所述可穿戴智能设备之间的实时距离;

判断所述实时距离是否小于预设距离;

如果小于,执行所述的根据所述无人车发送的控制菜单信息生成叠加于所述现实视野图像上的AR控制菜单图像。

3.根据权利要求1所述的基于可穿戴智能设备的无人车控制方法,其特征在于,当所述可穿戴智能设备获取的现实视野图像包括所述无人车时,所述方法还包括:接收所述无人车发送的推送信息;

根据所述推送信息生成AR信息推送图像,并将所述AR信息推送图像投射于佩戴所述可穿戴智能设备的用户眼中。

4.根据权利要求1所述的基于可穿戴智能设备的无人车控制方法,其特征在于,根据所述无人车发送的控制菜单信息生成叠加于所述现实视野图像上的AR控制菜单图像,包括:接收所述无人车发送的控制菜单信息,并根据所述控制菜单信息,生成控制菜单展示图像;

在所述现实视野图像中确定所述无人车的现实图像;

将所述控制菜单展示图像和所述现实图像进行耦合处理,得到AR控制菜单图像。

5.根据权利要求1所述的基于可穿戴智能设备的无人车控制方法,其特征在于,所述操作信息为用户眼睛注视信息、用户手势信息、用户语音信息中的一种或者多种。

6.根据权利要求1~5任一项所述的基于可穿戴智能设备的无人车控制方法,其特征在于,根据所述操作信息控制所述无人车执行相应的动作,包括:对所述操作信息进行识别处理,得到操作识别结果;

根据所述操作识别结果和所述AR控制菜单图像,生成控制信息;

将所述控制信息发送至所述无人车,以使所述无人车根据所述控制信息执行相应的动作。

7.一种基于可穿戴智能设备的无人车控制装置,其特征在于,所述基于可穿戴智能设备的无人车控制装置包括:生成单元,用于当所述可穿戴智能设备获取的现实视野图像包括所述无人车时,根据所述无人车发送的控制菜单信息生成叠加于所述现实视野图像上的AR控制菜单图像;

投射单元,用于将所述AR控制菜单图像投射于佩戴所述可穿戴智能设备的用户眼中;

接收单元,用于接收用户输入的针对所述AR控制菜单图像的操作信息;

控制单元,用于根据所述操作信息控制所述无人车执行相应的动作。

8.一种基于可穿戴智能设备的无人车控制系统,其特征在于,包括可穿戴智能设备和无人车,其中,所述可穿戴智能设备,用于判断所述可穿戴智能设备的现实视野图像是否包括所述无人车,如果包括,与所述无人车建立通信连接;

所述无人车,用于通过所述通信连接发送所述无人车的控制菜单信息至所述可穿戴智能设备;

所述可穿戴智能设备,用于接收所述无人车发送的控制菜单信息;以及根据所述控制菜单信息生成叠加于所述现实视野图像上的AR控制菜单图像;以及将所述AR控制菜单图像投射于佩戴所述可穿戴智能设备的用户眼中,并接收用户输入的针对所述AR控制菜单图像的操作信息;以及根据操作信息生成控制信息并发送至所述无人车;

所述无人车,用于接收所述控制信息,并根据所述控制信息执行相应的动作。

9.一种计算机设备,其特征在于,包括存储器以及处理器,所述存储器用于存储计算机程序,所述处理器运行所述计算机程序以使所述计算机设备执行权利要求1至6中所述的基于可穿戴智能设备的无人车控制方法。

10.一种计算机可读存储介质,其特征在于,其存储有用于实现权利要求1至6中任一项所述的基于可穿戴智能设备的无人车控制方法时所使用的计算机程序。

说明书 :

基于可穿戴智能设备的无人车控制方法、装置及系统

技术领域

[0001] 本申请涉及无人车控制技术领域,具体而言,涉及一种基于可穿戴智能设备的无人车控制方法、装置及系统。

背景技术

[0002] 如今,随着无人驾驶技术的发展,无人车在商品配送领域的应用已经日益广泛。现有的无人车控制方法,通常是通过车载触控屏幕或智能手机进行控制。在实际使用中,当需要控制无人车执行相应的动作时,使用者需要先移动至无人车处,然后在车载触控屏幕上唤起用户操作界面,再在用户操作界面上输入控制指令,进而控制无人车执行相应的动作,控制效率低;或是通过智能手机扫描车身的唯一识别码,打开控制界面,然后在该控制界面上输入控制指令以控制无人车,指令输入步骤繁琐,互动性差,控制效率低。然而在实践中发现,现有的无人车控制方法控制效率低,互动性差。

发明内容

[0003] 本申请实施例的目的在于提供一种基于可穿戴智能设备的无人车控制方法、装置及系统,能够通过可穿戴智能设备快速输入控制指令,控制效率高,互动性好。
[0004] 本申请实施例第一方面提供了一种基于可穿戴智能设备的无人车控制方法,包括:
[0005] 当所述可穿戴智能设备获取的现实视野图像包括所述无人车时,根据所述无人车发送的控制菜单信息生成叠加于所述现实视野图像上的AR控制菜单图像;
[0006] 将所述AR控制菜单图像投射于佩戴所述可穿戴智能设备的用户眼中,并接收用户输入的针对所述AR控制菜单图像的操作信息;
[0007] 根据所述操作信息控制所述无人车执行相应的动作。
[0008] 在上述实现过程中,先根据无人车发送的控制菜单信息生成叠加于现实视野图像上的AR控制菜单图像;然后将AR控制菜单图像投射于佩戴可穿戴智能设备的用户眼中,并接收用户输入的针对AR控制菜单图像的操作信息;最后根据操作信息控制无人车执行相应的动作,能够通过可穿戴智能设备快速输入控制指令,控制效率高,互动性强。
[0009] 进一步地,所述方法还包括:
[0010] 获取所述可穿戴智能设备的现实视野图像,并判断所述现实视野图像是否包括所述无人车的现实图像;
[0011] 如果包括,获取所述无人车和所述可穿戴智能设备之间的实时距离;
[0012] 判断所述实时距离是否小于预设距离;
[0013] 如果小于,执行所述的根据所述无人车发送的控制菜单信息和所述现实图像生成叠加于所述现实图像上的AR控制菜单图像。
[0014] 在上述实现过程中,在生成叠加于现实图像上的AR控制菜单图像之前,先通过判断获取到的现实视野图像是否包括无人车的现实图像,来判断佩戴该可穿戴智能设备的用户是否看到无人车,当判断出用户看到无人车之后,再判断用户与无人车之间的实时距离是否小于预设距离,以避免距离过远导致的用户与无人车之间交互失败或者交互体验差的问题,有利于提升交互效率。
[0015] 进一步地,当所述可穿戴智能设备获取的现实视野图像包括所述无人车时,所述方法还包括:
[0016] 接收所述无人车发送的推送信息;
[0017] 根据所述推送信息生成AR信息推送图像,并将所述AR信息推送图像投射于佩戴所述可穿戴智能设备的用户眼中。
[0018] 在上述实现过程中,当视野中出现无人车时,接收无人车的推送信息,生成相应的AR信息推送图像,并将该AR信息推送图像投射于佩戴所述可穿戴智能设备的用户眼中,及时给用户推送相应的广告信息,便于用户了解无人车的相关信息。
[0019] 进一步地,根据所述无人车发送的控制菜单信息生成叠加于所述现实视野图像上的AR控制菜单图像,包括:
[0020] 接收所述无人车发送的控制菜单信息,并根据所述控制菜单信息,生成控制菜单展示图像;
[0021] 在所述现实视野图像中确定所述无人车的现实图像;
[0022] 将所述控制菜单展示图像和所述现实图像进行耦合处理,得到AR控制菜单图像。
[0023] 在上述实现过程中,当判断出用户看到无人车之后,能够自动接收无人车发送的控制菜单信息,并能够通过AR技术将控制菜单展示图像和现实图像进行耦合处理,生成AR控制菜单图像,不需要用户进行主动操作去触发无人车的控制菜单,提升了交互的便捷度,进一步提升了用户的交互体验。
[0024] 进一步地,所述操作信息为用户眼睛注视信息、用户手势信息、用户语音信息中的一种或者多种。
[0025] 在上述实现过程中,用户可通过手势、语音、眼睛注视的方式输入操作信息,步骤简单,提升了交互的便捷度,进一步提升了用户的交互体验。
[0026] 进一步地,根据所述操作信息控制所述无人车执行相应的动作,包括:
[0027] 对所述操作信息进行识别处理,得到操作识别结果;
[0028] 根据所述操作识别结果和所述AR控制菜单图像,生成控制信息;
[0029] 将所述控制信息发送至所述无人车,以使所述无人车根据所述控制信息执行相应的动作。
[0030] 在上述实现过程中,能够识别用户输入的操作信息,并根据操作信息和AR控制菜单图像确定出用户所触发的命令信息,然后根据命令信息生成对应的控制信息,然后可穿戴智能设备将该控制信息发送至无人车,无人车在接收到该控制信息之后,能够根据该控制信息执行相应的动作。
[0031] 本申请实施例第二方面提供了一种基于可穿戴智能设备的无人车控制装置,所述基于可穿戴智能设备的无人车控制装置包括:
[0032] 生成单元,用于当所述可穿戴智能设备获取的现实视野图像包括所述无人车时,根据所述无人车发送的控制菜单信息生成叠加于所述现实视野图像上的AR控制菜单图像;
[0033] 投射单元,用于将所述AR控制菜单图像投射于佩戴所述可穿戴智能设备的用户眼中;
[0034] 接收单元,用于接收用户输入的针对所述AR控制菜单图像的操作信息;
[0035] 控制单元,用于根据所述操作信息控制所述无人车执行相应的动作。
[0036] 在上述实现过程中,生成单元在可穿戴智能设备获取的现实视野图像包括无人车时,先根据无人车发送的控制菜单信息生成叠加于现实视野图像上的AR控制菜单图像;然后投射单元将AR控制菜单图像投射于佩戴可穿戴智能设备的用户眼中,进一步地,接收单元接收用户输入的针对AR控制菜单图像的操作信息;最后控制单元根据操作信息控制无人车执行相应的动作,能够通过可穿戴智能设备快速输入控制指令,控制效率高,互动性强。
[0037] 本发明第三方面公开一种基于可穿戴智能设备的无人车控制系统,包括可穿戴智能设备和无人车,其中,
[0038] 所述可穿戴智能设备,用于判断所述可穿戴智能设备的现实视野图像是否包括所述无人车,如果包括,与所述无人车建立通信连接;
[0039] 所述无人车,用于通过所述通信连接发送所述无人车的控制菜单信息至所述可穿戴智能设备;
[0040] 所述可穿戴智能设备,用于接收所述无人车发送的控制菜单信息;以及根据所述控制菜单信息生成叠加于所述现实视野图像上的AR控制菜单图像;以及将所述AR控制菜单图像投射于佩戴所述可穿戴智能设备的用户眼中,并接收用户输入的针对所述AR控制菜单图像的操作信息;以及根据操作信息生成控制信息并发送至所述无人车;
[0041] 所述无人车,用于接收所述控制信息,并根据所述控制信息执行相应的动作。
[0042] 在上述实现过程中,当可穿戴智能设备判断出其现实视野图像包括无人车时,能够自动与无人车之间建立通信连接,然后无人车能够通过该通信连接向可穿戴智能设备发送控制菜单信息,可穿戴智能设备接收到控制菜单信息之后,能够根据控制菜单信息生成叠加于现实视野图像上的AR控制菜单图像,并将AR控制菜单图像投射于佩戴可穿戴智能设备的用户眼中,进一步地,可穿戴智能设备接收用户输入的针对AR控制菜单图像的操作信息,以及根据操作信息生成相应的控制信息;最后,无人车能够根据可穿戴智能设备发送的控制信息执行相应的动作,能够通过可穿戴智能设备快速输入控制指令,控制效率高,互动性强。
[0043] 本申请实施例第四方面提供了一种计算机设备,包括存储器以及处理器,所述存储器用于存储计算机程序,所述处理器运行所述计算机程序以使所述计算机设备执行根据本申请实施例第一方面中任一项所述的基于可穿戴智能设备的无人车控制方法。
[0044] 本申请实施例第五方面提供了一种计算机可读存储介质,其存储有计算机程序指令,所述计算机程序指令被一处理器读取并运行时,执行本申请实施例第一方面中任一项所述的基于可穿戴智能设备的无人车控制方法。

附图说明

[0045] 为了更清楚地说明本申请实施例的技术方案,下面将对本申请实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本申请的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
[0046] 图1为本申请实施例一提供的一种基于可穿戴智能设备的无人车控制方法的流程示意图;
[0047] 图2为本申请实施例二提供的一种基于可穿戴智能设备的无人车控制方法的流程示意图;
[0048] 图3为本申请实施例三提供的一种基于可穿戴智能设备的无人车控制装置的结构示意图;
[0049] 图4为本申请实施例三提供的另一种基于可穿戴智能设备的无人车控制装置的结构示意图;
[0050] 图5为本申请实施例四提供的一种基于可穿戴智能设备的无人车控制系统的系统构架示意图;
[0051] 图6为本申请实施例一提供的一种AR控制菜单图像与实际的无人车进行叠加的效果示意图。
[0052] 图标:410-可穿戴智能设备,420-无人车。

具体实施方式

[0053] 下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行描述。
[0054] 应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。同时,在本申请的描述中,术语“第一”、“第二”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
[0055] 实施例1
[0056] 请参看图1,图1为本申请实施例提供的一种基于可穿戴智能设备的无人车控制方法的流程示意框图。如图1所示,该基于可穿戴智能设备的无人车控制方法包括:
[0057] S101、当可穿戴智能设备获取的现实视野图像包括无人车时,根据无人车发送的控制菜单信息生成叠加于现实视野图像上的AR控制菜单图像。
[0058] 本申请实施例中,可穿戴智能设备可以为AR眼镜、头盔等具有AR功能的可穿戴设备等,对此本申请实施例不作限定。
[0059] 本申请实施例中,可穿戴智能设备和智能手机一样,具有独立的操作系统,可穿戴智能设备可以由用户安装软件、游戏等软件服务商提供的程序。可穿戴智能设备能够通过语音或动作操控完成添加日程、地图导航、与好友互动、拍摄照片和视频、与朋友展开视频通话等功能,并可以通过移动通讯网络来实现无线网络接入。
[0060] 本申请实施例中,增强现实(Augmented Reality,AR)技术,是一种实时地计算摄影机影像的位置及角度并加上相应图像的技术,是一种将真实世界信息和虚拟世界信息“无缝”集成的新技术,能够将虚拟世界套在现实世界并进行互动。
[0061] 本申请实施例中,可穿戴智能设备具有使用简便,体积较小等优点,能够将虚拟影像投射至人眼中,以实现虚拟影响与现实世界叠加的效果。
[0062] 本申请实施例中,可穿戴智能设备上设置有摄像头,能够实时获取可穿戴智能设备的现实视野图像,是实际的现实图像,该现实视野图像与佩戴该可穿戴智能设备的用户眼睛所看到的视野一样,当可穿戴智能设备获取的现实视野图像包括无人车时,表明用户也看到了该无人车。当佩戴该可穿戴智能设备的用户看到该无人车之后,可穿戴智能设备能够接收无人车发送的控制菜单信息,并根据该控制菜单信息生成叠加于该现实视野图像上的AR控制菜单图像。可穿戴智能设备能够自动识别无人车并触发展示信息(AR控制菜单图像),不需要用户进行主动操作去触发无人车的控制菜单,提升了交互的便捷度,进一步提升了用户的交互体验。
[0063] S102、将AR控制菜单图像投射于佩戴可穿戴智能设备的用户眼中,并接收用户输入的针对AR控制菜单图像的操作信息。
[0064] 本申请实施例中,可穿戴智能设备上设置有投影装置,该投影装置能够将AR控制菜单图像投射至用户眼睛的视网膜上,并能够使得用户看见AR控制菜单图像与实际看到的无人车进行叠加的效果。
[0065] 请一并参阅图6,图6为本实施例提供的一种AR控制菜单图像与实际的无人车进行叠加的效果示意图。如图6展现了佩戴可穿戴智能设备的用户看见的效果示意图,其中,A为人眼看到的AR控制菜单图像,B为人眼看到的无人车的现实图像。
[0066] 本申请实施例中,操作信息为用户眼睛注视信息、用户手势信息、用户语音信息中的一种或者多种,对此本申请实施例不作限定。
[0067] 作为一种可选的实施方式,通过语音控制的方式输入针对AR控制菜单图像的操作信息,能够让用户感受到更加自然和轻松的交互体验。语音控制即是让计算设备能听懂人说的话,还能根据人的说话内容去执行相应的指令。对于体积小、佩戴在身体上的可穿戴智能设备来说,语音控制是行之有效的交互方式。
[0068] 在上述实施方式中,语音控制中最核心部分是对语音的识别技术。可以采用骨传导技术完成对语音的高效识别和传输,在可穿戴智能设备上设置间接骨传导传感器,在每个镜腿内设置发声变频器。然后可穿戴智能设备可以通过变频器振动时产生的声音信息,将声音信息通过用户头部侧面的骨头传递到内耳,以使用户听到可穿戴智能设备输出的声音信息。
[0069] 作为一种可选的实施方式,可以通过三维手势识别的方式输入针对AR控制菜单图像的操作信息,完成以可穿戴智能设备的交互功能,优势在于采用了非接触式方式。
[0070] 在上述实施方式中,三维手势识别要用到深度信息,能够识别各种手势、手型和动作。要获取深度信息就要用到特别的硬件,在配合上识别算法就能实现三维手势识别了。可穿戴智能设备上可以设置手势识别传感器,如非接触式光学IR手势识别传感器、3D手势识别芯片、手势识别臂环、用于手势控制的智能戒指等,对此本申请实施例不作限定,其中,该非接触式光学IR手势识别传感器具有手势识别、环境光检测、接近感知和颜色感知的四合一传感器模块;3D手势识别芯片在其电场的作用下,无需接触就能感应手势,能够在15cm的距离以内按150dpi的高精度确定坐标位置;该手势控制的智能戒指内置有惯性传感器模块、处理器和低功耗蓝牙模块。
[0071] 作为一种可选的实施方式,可以通过眼动跟踪的方式输入针对AR控制菜单图像的操作信息,眼动跟踪即是对眼睛的注视点或者是眼睛相对于头部的运动状态进行测量的过程。可穿戴智能设备还能够通过眼动跟踪技术感知到用户的情绪,来判断用户对注视的目标的反应。
[0072] 在上述实施方式中,眼动跟踪测量技术主要是基于图像和视频测量法,该方法囊括了多种测量可区分眼动特征的技术,这些特征有巩膜和虹膜的异色边沿、角膜反射的光强以及瞳孔的外观形状等。基于图像、结合瞳孔形状变化以及角膜反射的方法在测量用户视线的关注点中应用很广泛。
[0073] 在步骤S102之后,还包括以下步骤:
[0074] S103、根据操作信息控制无人车执行相应的动作。
[0075] 本申请实施例中,可穿戴智能设备能够识别用户输入的操作信息,并根据操作信息和AR控制菜单图像确定出用户所触发的命令信息,然后根据命令信息生成对应的控制信息,然后可穿戴智能设备将该控制信息发送至无人车,无人车在接收到该控制信息之后,能够根据该控制信息执行相应的动作。
[0076] 在实际使用中,当该无人车为送货无人车时,用户可以通过可穿戴智能设备输入取货信息,然后无人车接收到取货信息之后,执行开箱操作;当该无人车为移动售货无人车时,用户可以通过可穿戴智能设备进行货物选择、下单、付款等操作,通过增强现实技术结合可穿戴智能设备与无人车进行交互的方式,提升了控制无人车的便捷度,操作步骤简单,进而提升用户的交互体验。
[0077] 本申请实施例中,该方法的执行主体可以为可穿戴智能设备、具有AR功能的可穿戴设备等,对此本实施例中不作任何限定。
[0078] 可见,实施图1所描述的基于可穿戴智能设备的无人车控制方法,能够通过可穿戴智能设备快速输入控制指令,控制效率高,互动性好。
[0079] 实施例2
[0080] 请参看图2,图2为本申请实施例提供的一种基于可穿戴智能设备的无人车控制方法的流程示意框图。如图2所示,该基于可穿戴智能设备的无人车控制方法包括:
[0081] S201、获取可穿戴智能设备的现实视野图像。
[0082] 本申请实施例中,可穿戴智能设备上设置有摄像头,能够实时获取可穿戴智能设备的现实视野图像,是实际的现实图像,该现实视野图像与佩戴该可穿戴智能设备的用户眼睛所看到的视野一样。
[0083] S202、判断现实视野图像是否包括无人车的现实图像,如果是,执行步骤S203;如果否,执行步骤S201继续获取可穿戴智能设备的现实视野图像。
[0084] 本申请实施例中,当可穿戴智能设备获取的现实视野图像包括无人车时,表明用户也看到了该无人车。
[0085] 作为一种可选的实施方式,当判断出现实视野图像包括无人车的现实图像时,还可以包括以下步骤:
[0086] 接收无人车发送的推送信息;
[0087] 根据推送信息生成AR信息推送图像,并将AR信息推送图像投射于佩戴可穿戴智能设备的用户眼中。
[0088] 在上述实施方式中,当视野中出现无人车时,接收无人车的推送信息,生成相应的AR信息推送图像,并将该AR信息推送图像投射于佩戴可穿戴智能设备的用户眼中,及时给用户推送相应的广告信息,便于用户了解无人车的相关信息。
[0089] S203、获取无人车和可穿戴智能设备之间的实时距离。
[0090] 在步骤S203之后,还包括以下步骤:
[0091] S204、判断实时距离是否小于预设距离,如果是,执行步骤S205;如果否,执行步骤S201继续获取可穿戴智能设备的现实视野图像。
[0092] 本申请实施例中,当无人车与佩戴该可穿戴智能设备的用户之间的距离小于预设距离时,表明无人车与用户距离适中,此时用户若对无人车进行交互,有利于提升用户的交互体验。
[0093] S205、接收无人车发送的控制菜单信息,并根据控制菜单信息,生成控制菜单展示图像。
[0094] 在步骤S205之后,还包括以下步骤:
[0095] S206、在现实视野图像中确定无人车的现实图像。
[0096] S207、将控制菜单展示图像和现实图像进行耦合处理,得到AR控制菜单图像。
[0097] 本申请实施例中,实施上述步骤S205~步骤S207,能够根据无人车发送的控制菜单信息和现实图像生成叠加于现实图像上的AR控制菜单图像。
[0098] 在步骤S207之后,还包括以下步骤:
[0099] S208、将AR控制菜单图像投射于佩戴可穿戴智能设备的用户眼中,并接收用户输入的针对AR控制菜单图像的操作信息。
[0100] 本申请实施例中,操作信息为用户眼睛注视信息、用户手势信息、用户语音信息中的一种或者多种,对此本申请实施例不作限定。
[0101] S209、对操作信息进行识别处理,得到操作识别结果。
[0102] 本申请实施例中,可以通过眼动追踪技术识别用户眼睛注视信息,通过手势识别技术识别用户手势信息,通过语音识别技术识别用户语音信息,对此本申请实施例不作限定。
[0103] S210、根据操作识别结果和AR控制菜单图像,生成控制信息。
[0104] S211、将控制信息发送至无人车,以使无人车根据控制信息执行相应的动作。
[0105] 本申请实施例中,实施上述步骤S209~步骤S211,能够根据操作信息控制无人车执行相应的动作。
[0106] 可见,实施图2所描述的基于可穿戴智能设备的无人车控制方法,能够通过可穿戴智能设备快速输入控制指令,控制效率高,互动性好。
[0107] 实施例3
[0108] 请参看图3,图3为本申请实施例提供的一种基于可穿戴智能设备的无人车控制装置的结构示意框图。如图3所示,该基于可穿戴智能设备的无人车控制装置包括:
[0109] 生成单元310,用于当可穿戴智能设备获取的现实视野图像包括无人车时,根据无人车发送的控制菜单信息生成叠加于现实视野图像上的AR控制菜单图像;
[0110] 投射单元320,用于将AR控制菜单图像投射于佩戴可穿戴智能设备的用户眼中。
[0111] 接收单元330,用于接收用户输入的针对AR控制菜单图像的操作信息。
[0112] 控制单元340,用于根据操作信息控制无人车执行相应的动作。
[0113] 请一并参阅图4,图4是本申请实施例提供的另一种基于可穿戴智能设备的无人车控制装置的结构示意框图。其中,图4所示的基于可穿戴智能设备的无人车控制装置是由图3所示的基于可穿戴智能设备的无人车控制装置进行优化得到的。如图4所示,该基于可穿戴智能设备的无人车控制装置还包括:
[0114] 获取单元350,用于获取可穿戴智能设备的现实视野图像;
[0115] 判断单元360,用于识别现实视野图像是否包括无人车的现实图像;
[0116] 获取单元350,还用于当判断出现实视野图像包括现实图像时,获取无人车和可穿戴智能设备之间的实时距离;
[0117] 判断单元360,还用于判断实时距离是否小于预设距离;如果小于,触发生成单元310根据无人车发送的控制菜单信息和现实图像生成叠加于现实图像上的AR控制菜单图像。
[0118] 作为一种可选的实施方式,接收单元330,还用于当判断出现实视野图像包括无人车的现实图像时,接收无人车发送的推送信息。
[0119] 生成单元310,还用于根据推送信息生成AR信息推送图像。
[0120] 投射单元320,还用于将AR信息推送图像投射于佩戴可穿戴智能设备的用户眼中。
[0121] 作为一种可选的实施方式,生成单元310包括:
[0122] 第一子单元311,用于接收无人车发送的控制菜单信息,并根据控制菜单信息,生成控制菜单展示图像。
[0123] 第二子单元312,用于在现实视野图像中确定无人车的现实图像。
[0124] 第三子单元313,用于将控制菜单展示图像和现实图像进行耦合处理,得到AR控制菜单图像。
[0125] 本申请实施例中,操作信息为用户眼睛注视信息、用户手势信息、用户语音信息中的一种或者多种,对此本申请实施例不作限定。
[0126] 作为一种可选的实施方式,控制单元340包括:
[0127] 第四子单元341,用于对操作信息进行识别处理,得到操作识别结果。
[0128] 第五子单元342,用于根据操作识别结果和AR控制菜单图像,生成控制信息。
[0129] 第六子单元343,用于将控制信息发送至无人车,以使无人车根据控制信息执行相应的动作。
[0130] 可见,实施本实施例所描述的基于可穿戴智能设备的无人车控制装置,能够通过可穿戴智能设备快速输入控制指令,控制效率高,互动性好。
[0131] 实施例4
[0132] 请参看图5,图5为本申请实施例提供的一种基于可穿戴智能设备的无人车控制系统的系统构架示意图。如图5所示,该基于可穿戴智能设备的无人车控制系统包括可穿戴智能设备410和无人车420,其中,
[0133] 可穿戴智能设备410,用于判断可穿戴智能设备410的现实视野图像是否包括无人车420,如果包括,与无人车420建立通信连接。
[0134] 本申请实施例中,可穿戴智能设备410可以通过短距离通信的方式与无人车420进行通信连接,具体可以通过蓝牙、局域网等方式进行通信连接,对此本申请实施例不作限定。
[0135] 无人车420,用于通过通信连接发送无人车420的控制菜单信息至可穿戴智能设备410。
[0136] 可穿戴智能设备410,用于接收无人车420发送的控制菜单信息;以及根据控制菜单信息生成叠加于现实视野图像上的AR控制菜单图像;以及将AR控制菜单图像投射于佩戴可穿戴智能设备410的用户眼中,并接收用户输入的针对AR控制菜单图像的操作信息;以及根据操作信息生成控制信息并发送至无人车420。
[0137] 无人车420,用于接收控制信息,并根据控制信息执行相应的动作。
[0138] 在实际使用中,当该无人车420为送货无人车420时,用户可以通过可穿戴智能设备410输入取货信息,然后无人车420接收到取货信息之后,执行开箱操作;当该无人车420为移动售货无人车420时,用户可以通过可穿戴智能设备410进行货物选择、下单、付款等操作,通过增强现实技术结合可穿戴智能设备410与无人车420进行交互额方式,提升了控制无人车420的便捷度,操作步骤简单,进而提升用户的交互体验。
[0139] 可见,实施本实施例所描述的基于可穿戴智能设备的无人车控制系统,能够通过可穿戴智能设备快速输入控制指令,控制效率高,互动性好。
[0140] 此外,本发明还提供了一种计算机设备。该计算机设备包括存储器和处理器,存储器可用于存储计算机程序,处理器通过运行计算机程序,从而使该计算机设备执行上述方法或者上述基于可穿戴智能设备的无人车控制装置中的各个模块的功能。
[0141] 存储器可包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据移动终端的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
[0142] 本实施例还提供了一种计算机存储介质,用于储存上述计算机设备中使用的计算机程序。
[0143] 在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,也可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,附图中的流程图和框图显示了根据本申请的多个实施例的装置、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现方式中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
[0144] 另外,在本申请各个实施例中的各功能模块可以集成在一起形成一个独立的部分,也可以是各个模块单独存在,也可以两个或两个以上模块集成形成一个独立的部分。
[0145] 所述功能如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
[0146] 以上所述仅为本申请的实施例而已,并不用于限制本申请的保护范围,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
[0147] 以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应所述以权利要求的保护范围为准。
[0148] 需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。