多用户交互方法、装置及陪护机器人转让专利

申请号 : CN201680016196.0

文献号 : CN107636696A

文献日 :

基本信息:

PDF:

法律信息:

相似专利:

发明人 : 张绚

申请人 : 深圳市柔宇科技有限公司

摘要 :

一种多用户交互方法,包括:检测陪护机器人(50)的用户数量及用户相对于所述陪护机器人(50)的方位;根据所述用户数量及方位,将所述陪护机器人(50)的显示屏(55)划分多个分屏显示区域;通过所述多个分屏显示区域同时与位于不同方位的用户进行交互。采用该办法,可以实现所述陪护机器人(50)与多个用户之间的同步交互,降低陪护机器人(50)的功耗和生产成本,并提升陪护机器人(50)的整体性能。还公开了一种多用户交互装置和一种陪护机器人。

权利要求 :

1.一种多用户交互方法,其特征在于,所述方法包括:检测陪护机器人的用户数量及用户相对于所述陪护机器人的方位;

根据所述用户数量及方位,将所述陪护机器人的显示屏划分多个分屏显示区域;

通过所述多个分屏显示区域同时与位于不同方位的用户进行交互。

2.如权利要求1所述的方法,其特征在于,所述根据所述用户数量及方位,将所述陪护机器人的显示屏划分多个分屏显示区域,包括:根据所述方位的数量,计算在第一方向上需要划分的第一分屏显示区域的数量;

根据预设可视角度,计算每一个所述方位对应的第一分屏显示区域的位置和大小;

在第一方向上将所述显示屏划分为与所述方位的数量相对应的多个第一分屏显示区域。

3.如权利要求2所述的方法,其特征在于,所述根据所述用户数量及方位,将所述陪护机器人的显示屏划分多个分屏显示区域,还包括:根据每一个所述方位的用户数量,计算在第二方向上需要划分的第二分屏显示区域的数量;

在第二方向上将所述方位对应的第一分屏显示区域划分为与所述方位的用户数量相对应的多个第二分屏显示区域。

4.如权利要求1-3任意一项所述的方法,其特征在于,所述将所述陪护机器人的显示屏划分多个分屏显示区域之后,通过所述多个分屏显示区域同时与位于不同方位的用户进行交互之前,所述方法还包括:检测所述用户相对于所述陪护机器人的姿态;

根据所述用户相对于所述陪护机器人的姿态,控制所述分屏显示区域调整显示方向。

5.如权利要求1-3任意一项所述的方法,其特征在于,所述通过所述多个分屏显示区域同时与位于不同方位的用户进行交互,包括:通过每一个所述分屏显示区域分别接收不同用户的输入信息;

对每一个用户的输入信息单独进行处理;并

通过多个所述分屏显示区域分别为不同用户显示输出信息。

6.一种多用户交互装置,其特征在于,所述装置包括:检测单元,用于检测陪护机器人的用户数量及用户相对于所述陪护机器人的方位;

分屏单元,用于根据所述用户数量及方位,将所述陪护机器人的显示屏划分多个分屏显示区域;

交互单元,用于通过所述多个分屏显示区域同时与位于不同方位的用户进行交互。

7.如权利要求6所述的装置,其特征在于,所述分屏单元包括:数量确定子单元,用于根据所述方位的数量,计算在第一方向上需要划分的第一分屏显示区域的数量;

位置确定子单元,用于根据预设可视角度,计算每一个所述方位对应的第一分屏显示区域的位置和大小;

分屏处理子单元,用于在第一方向上将所述显示屏划分为与所述方位的数量相对应的多个第一分屏显示区域。

8.如权利要求7所述的装置,其特征在于,所述数量确定子单元,还用于根据每一个所述方位的用户数量,计算在第二方向上需要划分的第二分屏显示区域的数量;

所述分屏处理子单元,还用于在第二方向上将所述方位对应的第一分屏显示区域划分为与所述方位的用户数量相对应的多个第二分屏显示区域。

9.如权利要求6-8任意一项所述的装置,其特征在于,所述检测单元,还用于检测所述用户相对于所述陪护机器人的姿态;

所述分屏单元,还用于根据所述用户相对于所述陪护机器人的姿态,控制所述分屏显示区域调整显示方向。

10.如权利要求6-8任意一项所述的装置,其特征在于,所述交互单元包括:输入子单元,用于通过每一个所述分屏显示区域分别接收不同用户的输入信息;

处理子单元,用于对每一个用户的输入信息单独进行处理;并输出子单元,用于通过多个所述分屏显示区域分别为不同用户显示输出信息。

11.一种陪护机器人,包括主体和头部,其特征在于,所述陪护机器人还包括处理器、存储器、显示屏及多个传感器;所述显示屏和所述多个传感器环绕所述主体或所述头部设置;

所述处理器与所述存储器、所述显示屏及所述多个传感器电性连接,所述处理器用于调用存储于所述存储器中的可执行程序代码,并执行如下操作:通过所述多个传感器检测陪护机器人的用户数量及用户相对于所述陪护机器人的方位;

根据所述用户数量及方位,将所述陪护机器人的显示屏划分多个分屏显示区域;

通过所述多个分屏显示区域同时与位于不同方位的用户进行交互。

12.如权利要求11所述的陪护机器人,其特征在于,所述根据所述用户数量及方位,将所述陪护机器人的显示屏划分多个分屏显示区域,包括:根据所述方位的数量,计算在第一方向上需要划分的第一分屏显示区域的数量;

根据预设可视角度,计算每一个所述方位对应的第一分屏显示区域的位置和大小;

在第一方向上将所述显示屏划分为与所述方位的数量相对应的多个第一分屏显示区域。

13.如权利要求12所述的陪护机器人,其特征在于,所述根据所述用户数量及方位,将所述陪护机器人的显示屏划分多个分屏显示区域,还包括:根据每一个所述方位的用户数量,计算在第二方向上需要划分的第二分屏显示区域的数量;

在第二方向上将所述方位对应的第一分屏显示区域划分为与所述方位的用户数量相对应的多个第二分屏显示区域。

14.如权利要求11-13任意一项所述的陪护机器人,其特征在于,所述将所述陪护机器人的显示屏划分多个分屏显示区域之后,通过所述多个分屏显示区域同时与位于不同方位的用户进行交互之前,所述操作还包括:通过所述传感器检测所述用户相对于所述陪护机器人的姿态;

根据所述用户相对于所述陪护机器人的姿态,控制所述分屏显示区域调整显示方向。

15.如权利要求11-13任意一项所述的陪护机器人,其特征在于,所述通过所述多个分屏显示区域同时与位于不同方位的用户进行交互,包括:通过每一个所述分屏显示区域分别接收不同用户的输入信息;

对每一个用户的输入信息单独进行处理;并

通过多个所述分屏显示区域分别为不同用户显示输出信息。

说明书 :

多用户交互方法、装置及陪护机器人

技术领域

[0001] 本发明涉及人机交互领域,尤其涉及一种多用户交互方法、一种多用户交互装置及一种陪护机器人。

背景技术

[0002] 随着家用设备的不断智能化,消费者的智能化服务需求也在不断提升。近年来,通过将机器人应用从工业领域迁移至家居服务、医疗康复、教育娱乐等领域,市场上出现了各种形式的陪护机器人,为给消费者带来了更智能、更便利的生活体验。陪护机器人与用户之间的部分信息交互需要通过显示屏实现,例如,通过在陪护机器人的头部或者身体上镶嵌一块触控显示屏,从而可以接收用户输入的信息,并显示对应的输出信息,以实现信息交互。然而,这种交互方式在同一时间只能实现与单个用户之间的信息交互。当有多个用户同时使用时,则需要通过驱动机器人整体转动或者部分转动以使触控显示屏朝向对应的用户。驱动机器人转动需要消耗大量的电能,而且如果是部分转动的方式,例如头部转动,则需要在机器人上设置转动机构,随着使用时间和次数的不断增加,转动机构会存在损耗,进而导致机器人故障,不利于提升陪护机器人的整体性能。

发明内容

[0003] 鉴于现有技术中存在的上述问题,本发明实施例提供一种多用户交互方法、一种多用户交互装置及一种陪护机器人,以实现陪护机器人与多个用户之间的同步交互,降低陪护机器人的功耗和生产成本,并提升陪护机器人的整体性能。
[0004] 一种多用户交互方法,包括:
[0005] 检测陪护机器人的用户数量及用户相对于所述陪护机器人的方位;
[0006] 根据所述用户数量及方位,将所述陪护机器人的显示屏划分多个分屏显示区域;
[0007] 通过所述多个分屏显示区域同时与位于不同方位的用户进行交互。
[0008] 其中,所述根据所述用户数量及方位,将所述陪护机器人的显示屏划分多个分屏显示区域,包括:
[0009] 根据所述方位的数量,计算在第一方向上需要划分的第一分屏显示区域的数量;
[0010] 根据预设可视角度,计算每一个所述方位对应的第一分屏显示区域的位置和大小;
[0011] 在第一方向上将所述显示屏划分为与所述方位的数量相对应的多个第一分屏显示区域。
[0012] 其中,所述根据所述用户数量及方位,将所述陪护机器人的显示屏划分多个分屏显示区域,还包括:
[0013] 根据每一个所述方位的用户数量,计算在第二方向上需要划分的第二分屏显示区域的数量;
[0014] 在第二方向上将所述方位对应的第一分屏显示区域划分为与所述方位的用户数量相对应的多个第二分屏显示区域。
[0015] 其中,所述将所述陪护机器人的显示屏划分多个分屏显示区域之后,通过所述多个分屏显示区域同时与位于不同方位的用户进行交互之前,所述方法还包括:
[0016] 检测所述用户相对于所述陪护机器人的姿态;
[0017] 根据所述用户相对于所述陪护机器人的姿态,控制所述分屏显示区域调整显示方向。
[0018] 其中,所述通过所述多个分屏显示区域同时与位于不同方位的用户进行交互,包括:
[0019] 通过每一个所述分屏显示区域分别接收不同用户的输入信息;
[0020] 对每一个用户的输入信息单独进行处理;并
[0021] 通过多个所述分屏显示区域分别为不同用户显示输出信息。
[0022] 一种多用户交互装置,包括:
[0023] 检测单元,用于检测陪护机器人的用户数量及用户相对于所述陪护机器人的方位;
[0024] 分屏单元,用于根据所述用户数量及方位,将所述陪护机器人的显示屏划分多个分屏显示区域;
[0025] 交互单元,用于通过所述多个分屏显示区域同时与位于不同方位的用户进行交互。
[0026] 其中,所述分屏单元包括:
[0027] 数量确定子单元,用于根据所述方位的数量,计算在第一方向上需要划分的第一分屏显示区域的数量;
[0028] 位置确定子单元,用于根据预设可视角度,计算每一个所述方位对应的第一分屏显示区域的位置和大小;
[0029] 分屏处理子单元,用于在第一方向上将所述显示屏划分为与所述方位的数量相对应的多个第一分屏显示区域。
[0030] 其中,所述数量确定子单元,还用于根据每一个所述方位的用户数量,计算在第二方向上需要划分的第二分屏显示区域的数量;
[0031] 所述分屏处理子单元,还用于在第二方向上将所述方位对应的第一分屏显示区域划分为与所述方位的用户数量相对应的多个第二分屏显示区域。
[0032] 其中,所述检测单元,还用于检测所述用户相对于所述陪护机器人的姿态;
[0033] 所述分屏单元,还用于根据所述用户相对于所述陪护机器人的姿态,控制所述分屏显示区域调整显示方向。
[0034] 其中,所述交互单元包括:
[0035] 输入子单元,用于通过每一个所述分屏显示区域分别接收不同用户的输入信息;
[0036] 处理子单元,用于对每一个用户的输入信息单独进行处理;并
[0037] 输出子单元,用于通过多个所述分屏显示区域分别为不同用户显示输出信息。
[0038] 一种陪护机器人,包括主体和头部,所述陪护机器人还包括处理器、存储器、显示屏及多个传感器;所述显示屏和所述多个传感器环绕所述主体或所述头部设置;所述处理器与所述存储器、所述显示屏及所述多个传感器电性连接,所述处理器用于调用存储于所述存储器中的可执行程序代码,并执行如下操作:
[0039] 通过所述多个传感器检测陪护机器人的用户数量及用户相对于所述陪护机器人的方位;
[0040] 根据所述用户数量及方位,将所述陪护机器人的显示屏划分多个分屏显示区域;
[0041] 通过所述多个分屏显示区域同时与位于不同方位的用户进行交互。
[0042] 其中,所述根据所述用户数量及方位,将所述陪护机器人的显示屏划分多个分屏显示区域,包括:
[0043] 根据所述方位的数量,计算在第一方向上需要划分的第一分屏显示区域的数量;
[0044] 根据预设可视角度,计算每一个所述方位对应的第一分屏显示区域的位置和大小;
[0045] 在第一方向上将所述显示屏划分为与所述方位的数量相对应的多个第一分屏显示区域。
[0046] 其中,所述根据所述用户数量及方位,将所述陪护机器人的显示屏划分多个分屏显示区域,还包括:
[0047] 根据每一个所述方位的用户数量,计算在第二方向上需要划分的第二分屏显示区域的数量;
[0048] 在第二方向上将所述方位对应的第一分屏显示区域划分为与所述方位的用户数量相对应的多个第二分屏显示区域。
[0049] 其中,所述将所述陪护机器人的显示屏划分多个分屏显示区域之后,通过所述多个分屏显示区域同时与位于不同方位的用户进行交互之前,所述操作还包括:
[0050] 通过所述传感器检测所述用户相对于所述陪护机器人的姿态;
[0051] 根据所述用户相对于所述陪护机器人的姿态,控制所述分屏显示区域调整显示方向。
[0052] 其中,所述通过所述多个分屏显示区域同时与位于不同方位的用户进行交互,包括:
[0053] 通过每一个所述分屏显示区域分别接收不同用户的输入信息;
[0054] 对每一个用户的输入信息单独进行处理;并
[0055] 通过多个所述分屏显示区域分别为不同用户显示输出信息。
[0056] 所述多用户交互方法、装置及陪护机器人,通过检测陪护机器人的用户数量及用户相对于所述陪护机器人的方位,并将所述陪护机器人的显示屏划分多个分屏显示区域,进而通过所述多个分屏显示区域同时与位于不同方位的用户进行交互,从而可以实现陪护机器人与多个用户之间的同步交互,降低陪护机器人的功耗和生产成本,并提升陪护机器人的整体性能。

附图说明

[0057] 为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍。
[0058] 图1是本发明实施例提供的多用户交互方法的第一流程示意图;
[0059] 图2是本发明实施例提供的多用户交互方法的第二流程示意图;
[0060] 图3是本发明实施例提供的多用户交互方法的第三流程示意图;
[0061] 图4是本发明实施例提供的多用户交互装置的结构示意图;
[0062] 图5是本发明实施例提供的陪护机器人的结构示意图;
[0063] 图6是本发明实施例提供的陪护机器人的第一种使用场景示意图;
[0064] 图7是本发明实施例提供的陪护机器人的第二种使用场景示意图;
[0065] 图8是本发明实施例提供的陪护机器人的第三种使用场景示意图;
[0066] 图9是本发明实施例提供的陪护机器人的第四种使用场景示意图。

具体实施方式

[0067] 下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
[0068] 请参阅图1,在本发明一个实施例中,提供一种多用户交互方法,其可以应用于陪护机器人中,以实现所述陪护机器人与多个用户之间的同步交互,降低陪护机器人的功耗和生产成本,并提升陪护机器人的整体性能。
[0069] 所述多用户交互至少包括如下步骤:
[0070] 步骤S11:检测陪护机器人的用户数量及用户相对于所述陪护机器人的方位;
[0071] 步骤S13:根据所述用户数量及方位,将所述陪护机器人的显示屏划分多个分屏显示区域;
[0072] 步骤S15:通过所述多个分屏显示区域同时与位于不同方位的用户进行交互。
[0073] 其中,所述陪护机器人可以包括主体和头部,以及环绕所述主体或所述头部设置的显示屏及多个传感器。所述显示屏用于与用户交互,在本实施例中,所述显示屏为柔性触控显示屏,其可以接收用户的输入信息,并显示对应的输出信息。所述多个传感器用于检测所述陪护机器人的用户数量及用户相对于所述陪护机器人的方位。可以理解,所述多个传感器可以按照预设的方位等间距地环绕所述主体或所述头部设置且位于同一水平面上,从而可以检测位于所述陪护机器人不同方位的用户数量,并统计所有方位的用户数量。
[0074] 在本实施例中,所述传感器可以为图像传感器,每一个所述图像传感器对应于一个方位,且相邻的两个图像传感器对应的方位之间无缝连接,从而可以通过所述多个图像传感器获取所述陪护机器人四周的全景图像,进而通过图像处理即可获取每一个方位的用户数量及所有用户数量。其中,所述每一个所述图像传感器对应的方位对应于每一个所述图像传感器的最大成像角度所能覆盖的方向和范围,例如,假设一个所述图像传感器的最大成像角度为90度,则通过在所述陪护机器人的主体或头部按照90度的间距设置四个所述图像传感器,即可覆盖所述陪护机器人的所有方位。
[0075] 所述陪护机器人还包括处理器和存储器,所述处理器与所述存储器、所述显示屏及所述多个传感器电性连接,所述处理器用于根据所述多个传感器检测到的用户数量及方位,将所述陪护机器人的显示屏划分多个分屏显示区域,对用户的输入信息进行处理以生成对应的输出信息,并控制所述多个分屏显示区域进行分别显示。在本实施例中,可以通过每一个所述分屏显示区域分别接收不同用户的输入信息;并通过所述处理器对每一个用户的输入信息单独进行处理;进而通过多个所述分屏显示区域分别为不同用户显示输出信息。所述存储器用于存储系统数据及用户数据,例如,所述陪护机器人的操作系统或运行程序,用户自定义参数等。
[0076] 请参阅图2,所述根据所述用户数量及方位,将所述陪护机器人的显示屏划分多个分屏显示区域,包括:
[0077] 步骤S131:根据所述方位的数量,计算在第一方向上需要划分的第一分屏显示区域的数量;
[0078] 步骤S133:根据预设可视角度,计算每一个所述方位对应的第一分屏显示区域的位置和大小;
[0079] 步骤S135:在第一方向上将所述显示屏划分为与所述方位的数量相对应的多个第一分屏显示区域。
[0080] 在本实施例中,所述第一方向为水平方向。由于所述显示屏环绕所述陪护机器人的头部或主体设置,从而可以通过所述显示屏与围绕所述陪护机器人的用户进行交互。同时,由于所述显示屏提供给位于不同方位的用户的视角是有限的,例如,所述显示屏位于所述陪护机器人左侧部分显示的内容只有同样位于所述陪护机器人左侧的用户才能看到,因此需要根据所述方位的数量,在水平环绕所述陪护机器人的头部或主体的方向上,将所述显示屏划分为与所述方位的数量相对应的多个第一分屏显示区域,以通过所述多个第一分屏显示区域分别与位于不同方位的用户进行交互。可以理解,每一个所述方位的用户数量可以为一个或多个。所述预设可视角度为每一个所述方位的用户从不同的视角清晰地观察到所述分屏显示区域内显示的所有内容的角度。
[0081] 通过在将所述显示屏环绕所述陪护机器人的头部或主体设置,并根据所述陪护机器人的不同用户所处的方位的不同,将所述显示屏划分为对应于所述方位数量的所述多个第一分屏显示区域,进而通过所述多个第一分屏显示区域分别与对应方位的用户进行交互,在实现多用户同步交互的同时,无需驱动所述陪护机器人转动,从而有利于降低陪护机器人的功耗和生产成本,并提升陪护机器人的整体性能。
[0082] 其中,所述根据所述用户数量及方位,将所述陪护机器人的显示屏划分多个分屏显示区域,还包括:
[0083] 步骤S137:根据每一个所述方位的用户数量,计算在第二方向上需要划分的第二分屏显示区域的数量;
[0084] 步骤S139:在第二方向上将所述方位对应的第一分屏显示区域划分为与所述方位的用户数量相对应的多个第二分屏显示区域。
[0085] 可以理解,当位于所述陪护机器人其中一个方位的用户数量大于一个时,要实现所述陪护机器人与每一个用户之间的单独交互,则需要对所述方位对应的所述第一分屏显示区域进一步划分为多个第二分屏显示区域,并通过所述多个第二分屏显示区域分别与位于该方位的多个用户进行交互。在本实施例中,所述第二方向为垂直方向。可以理解,由于每一个方位对应的所述第一分屏显示区域的大小是根据“每一个所述方位的用户从不同的视角能够清晰地观察到所述分屏显示区域内显示的所有内容”的条件而设定的,且所述显示屏在垂直方向上的弧度要远小于水平方向的弧度,即在垂直方向上所述第一分屏显示区域显示的所有内容均能被位于该方位的所有用户清晰地观察到,因此,在将所述方位对应的第一分屏显示区域划分为与所述方位的用户数量相对应的多个第二分屏显示区域,可以直接根据所述方位的用户数量,将所述第一分屏显示区域等分为对应数量的第二分屏显示区域。
[0086] 请参阅图3,在本发明一个实施例中,所述将所述陪护机器人的显示屏划分多个分屏显示区域之后,通过所述多个分屏显示区域同时与位于不同方位的用户进行交互之前,所述方法还包括:
[0087] 步骤S14:检测所述用户相对于所述陪护机器人的姿态,并根据所述用户相对于所述陪护机器人的姿态控制所述分屏显示区域调整显示方向。
[0088] 在本实施例中,所述传感器还用于进行人脸识别,以根据人脸识别的结果,检测所述用户相对于所述陪护机器人的姿态,进而由所述处理器控制所述用户对应的分屏显示区域调整显示方向,以使所述分屏显示区域的显示方向与所述用户相对于所述陪护机器人的姿态相一致,从而提升用户体验。其中,所述用户相对于所述陪护机器人的姿态可以为站姿或者卧姿,例如,当所述用户躺在床上,而所述陪护机器人站立在床边与所述用户进行交互时,所述用户相对于所述陪护机器人的姿态为卧姿,此时,可控制所述用户对应的分屏显示区域将显示方向调整为与所述用户的视线方向相同,从而提升所述用户在躺着观看所述分屏显示区域上的内容时的舒适度。
[0089] 请参阅图4,在本发明一个实施例中,还提供一种多用户交互装置40,包括:
[0090] 检测单元41,用于检测陪护机器人的用户数量及用户相对于所述陪护机器人的方位;
[0091] 分屏单元43,用于根据所述用户数量及方位,将所述陪护机器人的显示屏划分多个分屏显示区域;
[0092] 交互单元45,用于通过所述多个分屏显示区域同时与位于不同方位的用户进行交互。
[0093] 其中,所述分屏单元43包括:
[0094] 数量确定子单元431,用于根据所述方位的数量,计算在第一方向上需要划分的第一分屏显示区域的数量;
[0095] 位置确定子单元433,用于根据预设可视角度,计算每一个所述方位对应的第一分屏显示区域的位置和大小;
[0096] 分屏处理子单元435,用于在第一方向上将所述显示屏划分为与所述方位的数量相对应的多个第一分屏显示区域。
[0097] 其中,所述数量确定子单元431,还用于根据每一个所述方位的用户数量,计算在第二方向上需要划分的第二分屏显示区域的数量;
[0098] 所述分屏处理子单元435,还用于在第二方向上将所述方位对应的第一分屏显示区域划分为与所述方位的用户数量相对应的多个第二分屏显示区域。
[0099] 其中,所述检测单元41,还用于检测所述用户相对于所述陪护机器人的姿态;
[0100] 所述分屏单元43,还用于根据所述用户相对于所述陪护机器人的姿态,控制所述分屏显示区域调整显示方向。
[0101] 其中,所述交互单元45包括:
[0102] 输入子单元451,用于通过每一个所述分屏显示区域分别接收不同用户的输入信息;
[0103] 处理子单元453,用于对每一个用户的输入信息单独进行处理;并[0104] 输出子单元455,用于通过多个所述分屏显示区域分别为不同用户显示输出信息。
[0105] 可以理解,本实施例中所述的多用户交互装置40的各组成单元的功能及其具体实现还可以参照图1-图3所示方法实施例中的相关描述,此处不再赘述。
[0106] 请参阅图5,在本发明一个实施例中,还提供一种陪护机器人50,包括主体51、头部53及环绕所述主体51或所述头部53设置的显示屏55及多个传感器57。所述显示屏55用于与用户交互,在本实施例中,所述显示屏55为柔性触控显示屏,其可以接收用户的输入信息,并显示对应的输出信息。所述多个传感器57用于检测所述陪护机器人50的用户数量及用户相对于所述陪护机器人50的方位。可以理解,所述多个传感器57可以按照预设的方位等间距地环绕所述主体51或所述头部53设置且位于同一水平面上,从而可以检测位于所述陪护机器人50不同方位的用户数量,并统计所有方位的用户数量。在本实施例中,所述传感器57可以为图像传感器。
[0107] 所述陪护机器人50还包括处理器58和存储器59,所述处理器58与所述存储器59、所述显示屏55及所述多个传感器57电性连接,所述处理器58用于根据所述多个传感器57检测到的用户数量及方位,将所述显示屏55划分多个分屏显示区域,对用户的输入信息进行处理以生成对应的输出信息,并控制所述多个分屏显示区域进行分别显示。所述存储器59用于存储系统数据及用户数据,例如,所述陪护机器人50的操作系统或运行程序,用户自定义参数等。在本实施例中,所述存储器59还用于存储用于实现所述多用户交互装置40的可执行程序代码,所述处理器58用于调用存储于所述存储器59中的可执行程序代码,并执行如下操作:
[0108] 通过所述多个传感器57检测陪护机器人50的用户数量及用户相对于所述陪护机器人50的方位;
[0109] 根据所述用户数量及方位,将所述陪护机器人的显示屏55划分多个分屏显示区域;
[0110] 通过所述多个分屏显示区域同时与位于不同方位的用户进行交互。
[0111] 其中,所述根据所述用户数量及方位,将所述陪护机器人的显示屏划分多个分屏显示区域,包括:
[0112] 根据所述方位的数量,计算在第一方向上需要划分的第一分屏显示区域的数量;
[0113] 根据预设可视角度,计算每一个所述方位对应的第一分屏显示区域的位置和大小;
[0114] 在第一方向上将所述显示屏划分为与所述方位的数量相对应的多个第一分屏显示区域。
[0115] 请参阅图6,在一种使用场景中,所述陪护机器人50的四周可包括多个用户,例如用户A和用户B。其中,所述用户A位于所述陪护机器人50的第一方位,所述用户B位于所述陪护机器人50的第二方位,所述第一方位与所述第二方位相背。通过所述传感器57分别检测出所述用户A和所述用户B的方位之后,所述陪护机器人50将所述显示屏55划分为与所述第一方位和所述第二方位对应的两个第一分屏显示区域551,其中一个所述第一分屏显示区域551用于与所述用户A进行交互,另一个所述第一分屏显示区域551用于与所述用户B进行交互,且两个所述第一分屏显示区域551之间相互独立显示,即两个所述第一分屏显示区域551显示的内容可以不相同。
[0116] 可以理解,所述陪护机器人50并不限于如图6所示的将所述显示屏55划分为两个所述第一分屏显示区域551,还可以根据所述方位的数量将所述显示屏55划分为多个相互独立的第一分屏显示区域551,所述多个第一分屏显示区域551沿水平方向环绕所述陪护机器人50的主体51或所述头部53间隔设置。在本实施例中,所述多个第一分屏显示区域551沿水平方向环绕所述陪护机器人50的头部53间隔设置,如图7所示。
[0117] 其中,所述根据所述用户数量及方位,将所述陪护机器人的显示屏划分多个分屏显示区域,还包括:
[0118] 根据每一个所述方位的用户数量,计算在第二方向上需要划分的第二分屏显示区域的数量;
[0119] 在第二方向上将所述方位对应的第一分屏显示区域划分为与所述方位的用户数量相对应的多个第二分屏显示区域。
[0120] 请参阅图8,在一种使用场景中,当所述陪护机器人50的一个方位包括多个用户时,还可以将该方位对应的第一分屏显示区域551在第二方向上划分为与该方位的用户数量相对应的多个第二分屏显示区域553。在本实施例中,所述第二方向为垂直方向,所述陪护机器人50的一个方位包括两个用户,该方位赌赢的第一分屏显示区域551在垂直方向上被划分为两个第二分屏显示区域553,从而可以通过所述两个第二分屏显示区域553分别与位于该方位的两个用户进行交互。其中,所述两个第二分屏显示区域553的大小相同。
[0121] 其中,所述将所述陪护机器人的显示屏划分多个分屏显示区域之后,通过所述多个分屏显示区域同时与位于不同方位的用户进行交互之前,所述操作还包括:
[0122] 通过所述传感器57检测所述用户相对于所述陪护机器人50的姿态;
[0123] 根据所述用户相对于所述陪护机器人50的姿态,控制所述分屏显示区域调整显示方向。
[0124] 请参阅图9,在一种使用场景中,所述传感器57还用于进行人脸识别,以根据人脸识别的结果,检测所述用户相对于所述陪护机器人50的姿态,进而由所述处理器58控制所述用户对应的分屏显示区域551调整显示方向,以使所述分屏显示区域551的显示方向与所述用户相对于所述陪护机器人50的姿态相一致,从而提升用户体验。其中,所述用户相对于所述陪护机器人50的姿态可以为站姿或者卧姿。当所述传感器57检测到当前分屏显示区域551对应方位的用户相对于所述陪护机器人50的姿态为站姿时,所述分屏显示区域551的显示方向如图9(a)所示,即所述分屏显示区域551显示的图像的方向与所述用户站立时的视线方向相一致。当所述传感器57检测到当前分屏显示区域551应方位的用户相对于所述陪护机器人50的姿态为卧姿时,则通过所述处理器58控制该分屏显示区域551将显示方向调整至与所述用户卧倒时的视线方向相同,如图9(b)所示。
[0125] 其中,所述通过所述多个分屏显示区域同时与位于不同方位的用户进行交互,包括:
[0126] 通过每一个所述分屏显示区域分别接收不同用户的输入信息;
[0127] 对每一个用户的输入信息单独进行处理;并
[0128] 通过多个所述分屏显示区域分别为不同用户显示输出信息。
[0129] 可以理解,本实施例中所述的陪护机器人50的各组成部分的功能及其具体实现还可以参照图1-图3所示方法实施例中的相关描述,此处不再赘述。
[0130] 所述多用户交互方法、装置及陪护机器人,通过检测陪护机器人的用户数量及用户相对于所述陪护机器人的方位,并将所述陪护机器人的显示屏划分多个分屏显示区域,进而通过所述多个分屏显示区域同时与位于不同方位的用户进行交互,从而可以实现陪护机器人与多个用户之间的同步交互,降低陪护机器人的功耗和生产成本,并提升陪护机器人的整体性能。
[0131] 以上所揭露的仅为本发明的较佳实施例而已,当然不能以此来限定本发明之权利范围,本领域普通技术人员可以理解实现上述实施例的全部或部分流程,并依本发明权利要求所作的等同变化,仍属于发明所涵盖的范围。