会员体验
专利管家(专利管理)
工作空间(专利管理)
风险监控(情报监控)
数据分析(专利分析)
侵权分析(诉讼无效)
联系我们
交流群
官方交流:
QQ群: 891211   
微信请扫码    >>>
现在联系顾问~
首页 / 专利库 / 专利权 / 权利要求 / 信息处理装置、信息处理方法和程序

信息处理装置、信息处理方法和程序

阅读:1032发布:2020-09-07

IPRDB可以提供信息处理装置、信息处理方法和程序专利检索,专利查询,专利分析的服务。并且[问题]为了能够通过更自然的动作来执行与识别过程的执行相关的反馈。[解决方案]提供了一种信息处理装置,所述信息处理装置设置有动作控制单元,用于相对于基于识别处理执行行动的动作主体来执行动作控制。所述动作控制单元基于识别对象信息的输入使动作主体执行响应动作,其中,所述响应动作是与识别处理的执行相关的提示性反馈。此外,提供了一种信息处理方法,包括处理器相对于基于识别处理执行行动的动作主体来执行动作控制,所述动作控制的执行还包括使得动作主体基于识别对象信息的输入执行响应动作,其中,所述响应动作是与识别处理的执行相关的提示性反馈。,下面是信息处理装置、信息处理方法和程序专利的具体信息内容。

1.一种信息处理装置,包括

动作控制单元,被配置为执行基于识别处理而行动的移动对象的动作控制,其中,所述动作控制单元使得所述移动对象基于识别目标信息的输入执行响应动作,并且所述响应动作包括与所述识别处理的执行相关的隐式反馈。

2.根据权利要求1所述的信息处理装置,其中,所述动作控制单元使得所述移动对象基于检测到所述识别目标信息的输入开始的事实执行第一响应,并且使得所述移动对象基于检测到所述识别目标信息的输入完成的事实执行第二响应,并且所述第一响应和所述第二响应是与所述识别处理的执行相关的所述隐式反馈。

3.根据权利要求2所述的信息处理装置,其中,所述动作控制单元使得所述移动对象基于所述识别处理完成的事实,执行作为与所述识别处理的执行相关的反馈的第三响应。

4.根据权利要求3所述的信息处理装置,其中,所述动作控制单元使得所述移动对象在执行所述第三响应之后执行基于所述识别处理的行动。

5.根据权利要求3所述的信息处理装置,其中,所述移动对象具有模仿生物的形式和能力,并且所述第一响应、所述第二响应和所述第三响应包括身体动作、眼球动作、使用声音的情感表达动作中的任何一种。

6.根据权利要求3所述的信息处理装置,其中,所述动作控制单元基于从传感器信息估计的情况,动态地确定与所述第一响应、所述第二响应和所述第三响应中的每一个相关的动作类别。

7.根据权利要求3所述的信息处理装置,其中,所述动作控制单元基于用户的状态动态地确定与所述第一响应、所述第二响应和所述第三响应中的每一个相关的动作类别。

8.根据权利要求3所述的信息处理装置,其中,所述动作控制单元基于与所述识别处理相关的可靠性动态地确定所述第三响应的动作。

9.根据权利要求3所述的信息处理装置,其中,所述识别处理是语音识别处理。

10.根据权利要求9所述的信息处理装置,其中,所述第一响应是眼球动作。

11.根据权利要求9所述的信息处理装置,其中,所述移动对象是具有驱动单元的装置。

12.根据权利要求9所述的信息处理装置,其中,所述动作控制单元基于确定用户话语的受话者不是所述移动对象,不使得所述移动对象执行所述第一响应、所述第二响应和所述第三响应中的至少一个。

13.根据权利要求9所述的信息处理装置,其中,在所述移动对象的行动期间检测到用户的话语开始的情况下,所述动作控制单元逐渐停止所述行动。

14.根据权利要求13所述的信息处理装置,其中,所述动作控制单元控制所述移动对象在停止所述行动后不产生任何声音。

15.根据权利要求9所述的信息处理装置,其中,在与所述语音识别处理相关的可靠性低的情况下,所述动作控制单元使得所述移动对象执行提示用户再次发出话语的所述第三响应。

16.根据权利要求15所述的信息处理装置,其中,所述动作控制单元控制所述移动对象在完成提示再次话语的所述第三响应之后不产生任何声音。

17.根据权利要求1所述的信息处理装置,其中,所述移动对象是没有语言交流手段的自主移动对象。

18.根据权利要求1所述的信息处理装置,其中,所述信息处理装置是所述移动对象。

19.一种信息处理方法,包括

由处理器执行基于识别处理而行动的移动对象的动作控制,其中,执行所述动作控制还包括

使得所述移动对象基于识别目标信息的输入执行响应动作,并且所述响应动作是与所述识别处理的执行相关的隐式反馈。

20.一种使计算机用作信息处理装置的程序,所述信息处理装置包括:动作控制单元,被配置为执行基于识别处理而行动的移动对象的动作控制,其中,所述动作控制单元使得所述移动对象基于识别目标信息的输入执行响应动作,并且所述响应动作是与所述识别处理的执行相关的隐式反馈。

说明书全文

信息处理装置、信息处理方法和程序

技术领域

[0001] 本公开涉及一种信息处理装置、信息处理方法和程序。

背景技术

[0002] 近年来,已经开发了基于识别处理进行动作的各种装置。上述装置包括诸如机器人的移动对象,其基于识别的情况执行自主行动。例如,专利文献1公开了一种腿式移动机器人,其执行自主动作并根据每种情况展现感觉。
[0003] 引用列表
[0004] 专利文献
[0005] 专利文献1:日本专利申请公开号2003-71763

发明内容

[0006] 本发明要解决的问题
[0007] 顺便说一下,在基于识别处理做出动作的装置中,向用户呈现正在执行识别处理这一事实是重要的。然而,在使用像专利文献1中描述的腿式移动机器人那样的灯执行反馈的情况下,可能存在与移动对象的目标相反地表现出非自然表情的假设情况。
[0008] 考虑到这一点,本公开提出了一种新颖的、改进的并且能够以更自然的动作执行与识别处理的执行相关的反馈的信息处理装置、信息处理方法和程序。
[0009] 问题的解决方案
[0010] 根据本公开,提供了一种信息处理装置,包括动作控制单元,其执行基于识别处理而行动的移动对象的动作控制,其中,动作控制单元使得移动对象基于识别目标信息的输入执行响应动作,并且响应动作是与识别处理的执行相关的隐式反馈。
[0011] 此外,根据本公开,提供了一种信息处理方法,包括由处理器执行基于识别处理而行动的移动对象的动作控制,其中,执行动作控制还包括使得移动对象基于识别目标信息的输入执行响应动作,并且响应动作是与识别处理的执行相关的隐式反馈。
[0012] 此外,根据本公开,提供了一种使计算机用作信息处理装置的程序,包括动作控制单元,其执行基于识别处理而行动的移动对象的动作控制,其中,动作控制单元使得移动对象基于识别目标信息的输入执行响应动作,并且响应动作是与识别处理的执行相关的隐式反馈。
[0013] 本发明的效果
[0014] 如上所述,根据本公开,可以用更自然的动作来执行与识别处理的执行相关的反馈。
[0015] 注意,上述效果并不总是受到限制,并且除了上述效果之外或者代替上述效果,还可以提供本说明书中描述的任何一种效果或者可以从本说明书中掌握的其他效果。

附图说明

[0016] [图1]是示出根据本公开的实施方式的自主移动对象的示例性硬件配置的示图;
[0017] [图2]示出根据本公开的实施方式的自主移动对象中包括的致动器的示例性配置;
[0018] [图3]是描述根据本公开的实施方式的自主移动对象中包括的致动器的动作的示图;
[0019] [图4]是描述根据本公开的实施方式的自主移动对象中包括的致动器的动作的示图;
[0020] [图5]是描述根据本公开的实施方式的自主移动对象中包括的显示器的功能的示图;
[0021] [图6]是示出根据本公开的实施方式的自主移动对象的示例性动作的示图;
[0022] [图7]是示出根据本公开的第一实施方式的自主移动对象10的示例性功能配置的功能框图;
[0023] [图8]是示出根据实施方式的比较技术的示例性动作控制的示图;
[0024] [图9]是示出根据该实施方式的动作控制的概述的示图;
[0025] [图10]是描述根据实施方式的信息处理方法和比较技术之间的差异的示图;
[0026] [图11]是示出根据实施方式的示例性第一响应的示图;
[0027] [图12]是示出根据实施方式的示例性第二响应的示图;
[0028] [图13]是示出根据实施方式的示例性第三响应的示图;
[0029] [图14]是描述根据实施方式的基于情况的动作类别的动态控制的示图;
[0030] [图15]是描述根据实施方式的基于话语的受话者的识别的动作控制的示图;
[0031] [图16]是描述根据实施方式的到响应动作的转换控制的示图;
[0032] [图17]是描述根据实施方式的虚拟空间中的移动对象的控制的示图;
[0033] [图18]是示出根据实施方式的动作控制的流程的流程图;
[0034] [图19]是示出根据本公开的实施方式的动作控制装置的示例性硬件配置的示图。

具体实施方式

[0035] 在下文中,将参考附图详细描述本公开的优选实施方式。注意,在本说明书和附图中,具有基本相同功能配置的组成元件将由相同的附图标记表示,并且将省略相同描述的重复。
[0036] 注意,将按以下顺序提供描述。
[0037] 1.自主移动对象10的概述
[0038] 2.自主移动对象10的示例性硬件配置
[0039] 3.第一实施方式
[0040] 3.1.概述
[0041] 3.2.示例性功能配置
[0042] 3.3.动作控制的具体示例
[0043] 3.4.控制流程
[0044] 4.动作控制装置的示例性硬件配置
[0045] 5.结论
[0046] <1.自主移动对象10的概述>
[0047] 首先,将描述根据本公开的实施方式的自主移动对象10的概述。根据本公开的实施方式的自主移动对象10包括信息处理装置,该信息处理装置基于收集的传感器信息执行情境估计,并且根据每个情境自主选择和执行各种类型的动作。自主移动对象10的一个特征是在每种情况下自主执行被估计为最优的动作,这不同于简单地根据用户的指令执行动作的机器人。
[0048] 因此,根据情况,可能存在根据本公开的实施方式的自主移动对象10不响应于用户的指令故意执行动作的情况,并且还可能存在自主移动对象执行不同于该动作的另一行为的情况。上述情况的示例对应于例如:响应于用户的指令执行动作的情况;用户安全、自主移动对象10或外围环境受到危害的情况;自主移动对象10优先考虑充电处理等的另一愿望(本能)的情况;诸如此类。
[0049] 此外,可能存在这样的情况,其中,自主移动对象10试图引起用户的兴趣,或者试图通过故意不遵循用户的指令来向用户传送自己的感觉和硬件状态。
[0050] 另一方面,自主移动对象10具有被用户喜爱的强烈愿望(本能)。因此,自主移动对象10响应于用户的指令重复执行动作,以取悦用户,学习用户的喜爱动作,并且即使在没有给出指令的情况下也自发地执行这样的动作。
[0051] 因此,根据本公开的实施方式的自主移动对象10全面评估愿望、感觉、周围环境等,并且然后确定并执行像包括人类在内的动物一样的自主动作。在上述各点中,自主移动对象10明显不同于基于指令执行相应动作或相应处理的被动装置。
[0052] 根据本公开的实施方式的自主移动对象10可以是在空间中自主移动并执行各种动作的自主移动机器人。自主移动对象10可以是自主移动机器人,其具有模仿例如人或动物(例如,狗)的形状,并且具有做出动作的能力。此外,例如,自主移动对象10可以是能够与用户通信的车辆或其他装置。根据本公开的实施方式的自主移动对象10的形状、能力和期望水平等可以根据目的和角色适当地设计。
[0053] <2.自主移动对象10的示例性硬件配置>
[0054] 接下来,将描述根据本公开的实施方式的自主移动对象10的示例性硬件配置。注意,下面将作为示例描述自主移动对象10是狗形四足步行机器人的情况。
[0055] 图1是示出根据本公开的实施方式的自主移动对象10的示例性硬件配置的示图。如图1所示,自主移动对象10是狗形四足步行机器人,具有头部、躯干、四条腿和尾巴。此外,自主移动对象10在头部包括两个显示器510。
[0056] 此外,自主移动对象10包括各种传感器。自主移动对象10包括例如麦克风515、相机520、飞行时间(ToF)传感器525、人体传感器530、距离传感器535、触摸传感器540、照度传感器545、脚底按钮550和惯性传感器555。
[0057] (麦克风515)
[0058] 麦克风515具有收集外围声音的功能。上述声音包括例如用户的话语和外围环境声音。自主移动对象10可以包括例如头部的四个麦克风。因为设置了多个麦克风515,所以可以以高灵敏度收集在外围产生的声音,并且还可以执行声源定位。
[0059] (相机520)
[0060] 相机520具有对用户和外围环境成像的功能。自主移动对象10还可以包括例如位于鼻尖和腰部的两个广角相机。在这种情况下,设置在鼻尖的广角相机捕捉对应于自主移动对象的前视野(即,狗的视野)的图像,并且腰部的广角相机捕捉主要在其上侧的外围区域的图像。自主移动对象10可以基于由设置在腰部的广角相机捕捉的图像提取例如天花板的特征点,并且可以实现同时定位和映射(SLAM)。
[0061] (ToF传感器525)
[0062] ToF传感器525具有检测距存在于头部前方的对象的距离的功能。ToF传感器525设置在头部的鼻尖。根据ToF传感器525,可以高精度地检测与各种对象的距离,并且可以执行根据与包括用户、障碍物等的目标的相对位置的动作。
[0063] (人体传感器530)
[0064] 人体传感器530具有检测用户、由用户饲养的宠物等的存在的功能。例如,人体传感器530设置在胸部上。根据人体传感器530,检测存在于前方的动物体,并且因此,可以执行对动物体的各种动作,例如,根据诸如兴趣、恐惧、惊讶等感觉的动作。
[0065] (距离传感器535)
[0066] 距离传感器535具有获取自主移动对象10的前地板表面的情况的功能。例如,距离传感器535设置在胸部上。根据距离传感器535,可以高精度地检测自主移动对象10和存在于前地板表面上的对象之间的距离,并且可以执行根据与对象的相对位置的动作。
[0067] (触摸传感器540)
[0068] 触摸传感器540具有检测用户接触的功能。触摸传感器540设置在自主移动对象10的区域,例如,头顶、下巴下方、背部等,这些区域很可能被用户触摸。触摸传感器540可以是例如电容型触摸传感器或压敏型触摸传感器。根据触摸传感器540,可以检测用户的接触行动,例如,触摸、轻拍、击打、推动等,并且可以执行响应于接触行动的动作。
[0069] (照度传感器545)
[0070] 照度传感器545检测自主移动对象10所处的空间的照度。例如,照度传感器545可以设置在头部后面的尾部等的底部。根据照度传感器545,可以检测外围亮度,并且可以执行根据亮度的动作。
[0071] (脚底按钮550)
[0072] 脚底按钮550具有检测自主移动对象10的腿的底面是否与地板接触的功能。为此,脚底按钮550设置在对应于四条腿的每个爪子的区域。根据脚底按钮550,可以检测自主移动对象10和地板表面之间的接触状态或非接触状态,并且例如,可以掌握用户拿起并保持自主移动对象10。
[0073] (惯性传感器555)
[0074] 惯性传感器555是六轴传感器,其检测头部和躯干中每一个的物理量,例如,速度、加速度和旋转。即,惯性传感器555检测在X轴、Y轴和Z轴的每一个中的加速度和角速度。惯性传感器555设置在头部和躯干的每一个中。根据惯性传感器555,可以高精度地检测自主移动对象10的头部和躯干的动作,并且可以执行根据每种情况的动作控制。
[0075] 在上面,已经描述了根据本公开的实施方式的自主移动对象10中包括的示例性传感器。注意,上面参考图1描述的配置仅仅是示例,并且可以包括在自主移动对象10中的传感器的配置不限于此。除了上述配置之外,自主移动对象10还可以包括例如各种通信装置,包括温度传感器、地磁传感器和全球导航卫星系统(GNSS)信号接收器等。自主移动对象10中包括的传感器的配置可以根据规格和每个实际应用灵活地修改。
[0076] 随后,将描述根据本公开的实施方式的自主移动对象10的接合部的示例性配置。图2是根据本公开的实施方式的自主移动对象10中包括的致动器570的示例性配置。根据本公开的实施方式的自主移动对象10总共包括22个旋转自由度,包括:除了图2所示的旋转部件之外,耳朵和尾巴各两个,且嘴中一个。
[0077] 例如,自主移动对象10在头部包括三个自由度,并且因此,可以同时执行点头和歪头的两个动作。此外,自主移动对象10通过设置在腰部的致动器570再现腰部摆动动作,并且能够执行更接近真实狗的自然和灵活的动作。
[0078] 注意,根据本公开的实施方式的自主移动对象10可以通过例如组合单轴致动器和双轴致动器来实现上述二十二个旋转自由度。例如,单轴致动器可用于肘部和腿的膝部,而双轴致动器可分别用于肩部和大腿基部。
[0079] 图3和图4是描述根据本公开的实施方式的自主移动对象10中包括的致动器570的动作的示图。参考图3,致动器570可以通过用马达575旋转输出齿轮来以任意旋转位置和旋转速度驱动可移动臂590。
[0080] 参考图4,根据本公开的实施方式的致动器570包括后盖571、齿轮箱盖572、控制板573、齿轮箱基座574、马达575、第一齿轮576、第二齿轮577和输出齿轮578、检测磁体579以及两个轴承580。
[0081] 根据本公开的实施方式的致动器570可以是例如磁性自旋阀巨磁阻(svGMR)。当控制板573基于主处理器的控制旋转马达575时,动力经由第一齿轮576和第二齿轮577传递到输出齿轮578,并且可以驱动可移动臂590。
[0082] 此外,当设置在控制板573上的位置传感器检测到与输出齿轮578同步旋转的检测磁体579的旋转角度时,可以高精度地检测可移动臂590的旋转角度,即旋转位置。
[0083] 注意,由于磁性svGMR是非接触型的,所以磁性svGMR具有优异的耐久性,并且当磁性svGMR用于GMR饱和区域时,具有接收由检测磁体579或位置传感器的距离波动引起的信号波动的小影响的优点。
[0084] 在上面,已经描述了根据本公开的实施方式的自主移动对象10中包括的致动器570的示例性配置。根据上述配置,可以:高精度地控制包括在自主移动对象10中的接合部的弯曲和拉伸动作;并且还精确地检测每个接合位置的旋转位置。
[0085] 随后,将参考图5描述根据本公开的实施方式的自主移动对象10中包括的显示器510的功能。图5是描述根据本公开的实施方式的自主移动对象10中包括的显示器510的功能的示图。
[0086] (显示器510)
[0087] 显示器510都具有视觉表达自主移动对象10的眼睛动作和感觉的功能。如图5所示,显示器510可以根据感觉和动作来表达眼球、瞳孔和眼睑的动作。显示器510通过故意不显示与眼球动作无关的字符、符号、图像等,产生接近真实动物(例如,狗)的自然动作。
[0088] 此外,如图5所示,自主移动对象10包括分别对应于右眼和左眼的两个显示器510r和510l。显示器510r和510l由例如两个独立的有机发光二极管(OLED)实现。根据OLED,与单个平板显示器呈现一对眼球的情况或两个独立平板显示器呈现两个眼球的情况相比,可以再现眼球的曲面,并且可以实现更自然的外部。
[0089] 如上所述,根据显示器510r和510l,如图5所示的自主移动对象10的视线和感觉可以以高精度和灵活性来表达。此外,用户可以从显示器510上显示的眼球的动作直观地掌握自主移动对象10的状态。
[0090] 在上面,已经描述了根据本公开的实施方式的自主移动对象10的示例性硬件配置。根据上述配置,由于自主移动对象10的接合部和眼球的动作可以如图6所示以高精度灵活控制,所以可以实现更接近真实生物的动作和感觉的表达。注意,图6是示出根据本公开的实施方式的自主移动对象10的示例性动作的示图,但是在图6中,简单示出了自主移动对象10的外部结构,因为将针对自主移动对象10的接合部和眼球的动作来提供描述。根据本公开的实施方式的自主移动对象10的硬件配置和外部不限于附图中示出的示例,并且可以适当地设计。
[0091] <3.第一实施方式>
[0092] <<3.1概述>>
[0093] 接下来,将描述本公开的第一实施方式。如上所述,根据本公开的实施方式的自主移动对象10(也称为移动对象)可以是狗形信息处理装置。根据本公开的实施方式的自主移动对象10的一个特征不包括用于视觉信息的输出装置,该视觉信息不包括通过眼球动作的感觉表达或者使用语音的语言交流手段。根据该特征,可以执行接近实际狗的更自然的动作,并且用户对自主移动对象10的功能和外部感觉不太陌生。
[0094] 然而,在像自主移动对象10这样的不包括针对用户的显式信息传输手段的装置的情况下,可能存在用户难以清楚地掌握装置的状态的情况。例如,自主移动对象10具有识别用户话语并基于识别结果执行行动的功能。然而,与安装在智能手机等上的语音识别功能不同,在自主移动对象10的语音识别中,用户不提供任何用按钮等开始识别的明确指令。因此,在显示基于识别结果的行动之前,用户难以确定是否执行识别处理。
[0095] 此外,如上所述,根据情况,存在根据本公开的实施方式的自主移动对象10可能不响应于用户的指令而故意执行动作的情况,或者存在自主移动对象可能执行不同于该行动的另一行为的情况。因此,在正常执行识别处理并且自主移动对象10执行不符合用户意图的行动的情况下,假设用户可能错误地识别出识别处理已经失败或者没有执行识别处理。
[0096] 另一方面,为了消除如上所述的可能性,可以想到通过输出例如具有语音或视觉信息的单词“正在执行识别”等或者通过打开灯来明确地执行与执行识别处理相关的反馈。
[0097] 然而,如上所述,如上所述的显式反馈可能使自主移动对象10的行为不自然,并且可能降低用户对自主移动对象10的兴趣或热情。
[0098] 根据本实施方式的技术思想是针对上述要点设计的,并且能够执行与识别处理的执行相关的更自然的反馈。为此,实现根据本实施方式的信息处理方法的自主移动对象10具有基于识别目标信息的输入来执行响应动作的一个特征,该响应动作是与识别处理的执行相关的隐式反馈。
[0099] 在下文中,将详细描述根据本实施方式的自主移动对象10的上述特征以及由这些特征提供的效果。
[0100] <<3.2.功能示例性配置>>
[0101] 首先,将描述根据本实施方式的自主移动对象10的功能示例性配置。图7是示出根据本实施方式的自主移动对象10的功能示例性配置的功能框图。参考图7,根据本实施方式的自主移动对象10包括输入单元110、识别单元120、学习单元130、行动计划单元140、动作控制单元150、驱动单元160和输出单元170。
[0102] (输入单元110)
[0103] 输入单元110具有收集与用户和外围环境相关的各种信息的功能。输入单元110收集例如用户的话语和在外围产生的环境声音、与用户和外围环境相关的图像信息以及各种传感器信息。为此,输入单元110包括图1所示的各种传感器。
[0104] (识别单元120)
[0105] 识别单元120具有基于由输入单元110收集的各种信息执行与用户、外围环境和自主移动对象10的状态相关的各种识别的功能。作为示例,识别单元120可以执行人类识别、面部表情和视线的识别、对象识别、颜色识别、形状识别、标记识别、障碍识别、水平差异识别、亮度识别等。
[0106] 此外,识别单元120基于用户的话语、单词理解、感觉识别、声源定位等来执行语音识别。另外,识别单元120可以识别用户等的接触、周围温度、动物体的存在、自主移动对象10的姿势等。
[0107] 此外,识别单元120具有基于上述识别信息估计和理解放置自主移动对象10的外围环境和情况的功能。此时,识别单元120还可以通过使用预先存储的环境知识来整体估计情况。
[0108] (学习单元130)
[0109] 学习单元130具有学习环境(情形)、行动以及通过行动与环境的交互的功能。学习单元130通过使用例如诸如深度学习的机器学习算法来实现上述学习。注意,学习单元130采用的学习算法不限于上述示例,并且可以适当地设计。
[0110] (行动计划单元140)
[0111] 行动计划单元140具有基于识别单元120估计的情况和学习单元130学习的知识来计划将由自主移动对象10执行的行动的功能。例如,根据本实施方式的行动计划单元140基于由识别单元120识别的用户的话语来确定符合用户话语意图的行动的执行或者不符合用户有意话语意图的行动的执行。
[0112] (动作控制单元150)
[0113] 动作控制单元150具有基于识别单元120的识别处理和行动计划单元140的行动计划来控制驱动单元160的操作和输出单元170的操作的功能。动作控制单元150基于上述行动计划执行例如致动器570的旋转控制、每个显示器510的显示控制、扬声器的声音输出控制等。
[0114] 此外,根据本实施方式的动作控制单元150具有基于识别目标信息的输入来执行响应动作的控制的一个特征,该响应动作是与识别处理的执行相关的隐式反馈。将分别详细描述根据本实施方式的动作控制单元150的功能的细节。
[0115] (驱动单元160)
[0116] 驱动单元160具有基于动作控制单元150的控制弯曲和拉伸包括在自主移动对象10中的多个接合部的功能。更具体地,驱动单元160基于动作控制单元150的控制来驱动包括在每个接合部中的致动器570。
[0117] (输出单元170)
[0118] 输出单元170具有基于动作控制单元150的控制输出视觉信息和声音信息的功能。为此,输出单元170包括显示器510和扬声器。注意,根据本实施方式的输出单元170具有如上所述不输出显式语言通信信息的一个特征。
[0119] 在上面,已经描述了根据本实施方式的自主移动对象10的功能配置。注意,图7所示的配置仅仅是示例,并且根据本实施方式的自主移动对象10的功能配置不限于这些示例。根据本实施方式的自主移动对象10可以包括例如与信息处理服务器和另一自主移动对象等通信的通信单元。
[0120] 此外,根据本实施方式的识别单元120、学习单元130、行动计划单元140、动作控制单元150等可以实现为上述信息处理服务器(动作控制装置)的功能。在这种情况下,动作控制单元150可以基于根据由自主移动对象10的输入单元110收集的传感器信息确定的行动计划来控制自主移动对象10的驱动单元160和输出单元170。根据本实施方式的自主移动对象10的功能配置可以根据规范和每个实际应用灵活地修改。
[0121] <<3.3.动作控制的具体示例>>
[0122] 随后,将详细描述根据本实施方式的动作控制的具体示例。如上所述,根据本实施方式的动作控制单元150具有基于识别目标信息的输入来控制响应动作的执行的一个特征,该响应动作是与识别处理的执行相关的隐式反馈。根据该特征,用户可以直观地掌握自主移动对象10的识别处理的进展。
[0123] 注意,下面将使用根据本实施方式的自主移动对象10执行语音识别的示例性情况来描述动作控制单元150的功能。然而,根据本实施方式的识别处理不限于该示例,并且根据本实施方式的技术思想可以应用于各种识别处理和估计处理。根据本实施方式的动作控制单元150可以控制例如与对象识别、说话者识别或声纹识别、标记识别、感觉估计等相关的隐式反馈。
[0124] 在此处,将首先通过相对于根据本实施方式的信息处理方法的比较技术来提供对动作控制的描述。如上所述,即使在自主移动对象10正确识别用户话语的情况下,也可能存在自主移动对象10执行不符合用户意图的行动的情况。在这种情况下,用户很难确定是否已经执行了语音识别,并且用户有可能将行动误识别为自主移动对象的故障。
[0125] 为了消除上述可能性,还假设与基于识别的行动分开执行指示语音识别完成的反馈。
[0126] 图8是示出通过比较技术的示例性动作控制的示图。图8示出了当根据比较技术的移动对象90执行与用户话语相关的语音识别处理时时间序列的状态变化。
[0127] 注意,在本实施方式中,语音识别处理通过信号处理、话语检测、模式识别和话语理解来实现,并且将使用利用与获取的模式匹配的字典的示例性情况来描述话语理解。然而,上述情况仅仅是示例,并且根据本实施方式的信息处理方法可以应用于各种语音识别技术。
[0128] 图8的左侧、图8的中心和图8的右侧分别示出了检测到用户开始说话时的移动对象90的状态、检测到用户结束说话并开始匹配时的移动对象90的状态以及完成匹配时的移动对象90的状态。
[0129] 如图所示,在比较技术中,当匹配完成时,通过使得移动对象90执行移动耳朵的动作,语音识别处理完成这一事实反馈给用户。根据该控制,即使在移动对象90此后执行不符合意图的行动的情况下,用户也可以掌握已经执行了语音识别处理。
[0130] 然而,在用户完成匹配时确认耳朵的动作之前,用户难以理解语音识别处理已经开始或当前正在执行。
[0131] 考虑到这一点,根据本实施方式的动作控制单元150通过以下方式解决上述问题:使自主移动对象10基于检测到识别目标信息的输入开始这一事实,执行第一响应;并且使自主移动对象10基于检测到识别目标信息的输入结束这一事实,执行第二响应。注意,在本示例的情况下,上述识别目标信息表示用户的话语。
[0132] 图9是示出根据本实施方式的动作控制的概述的示图。类似于图8,图9示出了在检测到开始说话时、在检测到话语完成时以及在匹配完成时时间序列中的自主移动对象10的状态。
[0133] 首先,当识别单元120检测到开始说话时,根据本实施方式的动作控制单元150可以使得输出单元170使用眼球动作来执行第一响应。上述眼球动作由每个显示器510实现。根据第一响应,用户可以以较少的延迟掌握自主移动对象10已经对用户的话语做出反应。
此外,根据第一响应,可以向用户进行无声反馈,并且可以有效地防止由致动器570的驱动声音或扬声器的声音输出引起的语音识别的准确度降低。因此,通过输出与眼球动作相关的视觉信息的隐式反馈对包括驱动单元的语音识别装置提供了高效果。
[0134] 接下来,当识别单元120检测到结束说话并且匹配开始时,动作控制单元150可以使驱动单元160执行竖起耳朵的动作。根据第二响应,自主移动对象10可以产生对用户的话语做出反应并弯曲耳朵的动作,并且用户可以直观地掌握正在执行语音识别处理。
[0135] 此外,根据本实施方式的动作控制单元150基于匹配(即识别处理)完成这一事实,使得自主移动对象10执行第三响应,该第三响应是指示识别处理完成的反馈。例如,动作控制单元150可以使得驱动单元160执行降低耳朵的动作和张开嘴的动作,并且可以使得输出单元170输出对应于吠叫的声音。
[0136] 根据上述第三响应,用户可以清楚地掌握已经执行了语音识别处理。注意,动作控制单元150可以基于执行第三响应之后的语音识别结果,使得自主移动对象10执行对应于由行动计划单元140计划的行动的动作。注意,可能存在上述行动是不符合如上所述的用户话语意图的行动的情况。
[0137] 图10是描述根据本实施方式的信息处理方法和比较技术之间的语音识别处理和响应动作的差异的示图。图10以时间序列示出了根据本实施方式和比较技术的每个信息处理方法中的语音识别处理和响应动作之间的对应关系。注意,图中的方法1对应于上述比较技术,而方法2对应于根据本实施方式的信息处理方法。
[0138] 参考图10,发现在执行对用户的响应动作之前,在比较技术中需要大约800ms。由于这一点,用户可能对移动对象在大约800ms内没有做出任何反应这一事实感到陌生,尽管用户可以理解该处理已经由指示语音识别处理完成的响应动作执行。
[0139] 另一方面,在根据本实施方式的信息处理方法中,在用户开始“早上好”的话语之后不久做出第一响应,并且在伴随着结束说话的检测而开始匹配时毫不延迟地执行第二响应。因此,根据依照本实施方式的信息处理方法,可以在用户开始说话之后立即逐步执行多个级别的反馈。根据该技术,即使在完成匹配之前的阶段,用户也可以掌握自主移动对象10正在试图理解用户的话语。
[0140] 接下来,将详细描述根据本实施方式的第一响应的具体示例。如上所述,根据本实施方式的第一响应可以包括眼球动作。
[0141] 图11是示出根据本实施方式的示例性第一响应的示图。图1示出了由动作控制单元150控制的显示器510的时间序列的变化。具体地,在识别单元120检测到用户的开始说话的情况下,根据本实施方式的动作控制单元150可以在每个显示器510上显示对应于闪烁的图像。
[0142] 注意,除了如图所示的闪烁之外,动作控制单元150可以使得每个显示器510输出与用户进行眼神接触的表情或眨眼等的表情。
[0143] 因此,由于根据本实施方式的动作控制单元150使得输出单元170执行与眼球动作相关的显示,作为第一响应,所以可以在不妨碍语音识别处理的情况下没有延迟地实现对用户话语的反馈。
[0144] 注意,除了眼球动作之外,根据本实施方式的动作控制单元150还可以使自主移动对象10执行伴随着致动器570的驱动的身体动作或者使用声音的情感表达动作,作为第一响应。注意,上述使用声音的情感表达动作包括广泛的非语言动作,例如,吠叫、振翅声、鼓掌等。
[0145] 在这种情况下,假设语音识别的精度可能由于致动器570的驱动声音或扬声器输出的声音而降低,但是例如在扬声器和麦克风之间的位置关系固定的情况下,可以通过例如使用参考信号执行回声消除来抑制识别精度的降低。此外,可能存在如下所述通过不采用眼球动作,作为第一响应,来提高用户便利性的情况。
[0146] 接下来,将详细描述根据本实施方式的第二响应的具体示例。根据本实施方式的第二响应可以是眼球动作、身体动作或使用声音的情感表达动作中的任何一种或其组合。图12是示出根据本实施方式的示例性第二响应的示图。
[0147] 例如,根据本实施方式的动作控制单元150可以控制身体动作,例如,竖起耳朵,如图12的左侧所示。注意,除了耳朵的动作之外,动作控制单元150可以控制尾巴、腿等的动作。
[0148] 另一方面,动作控制单元150可以控制眼球动作,例如,如图12的右侧所示,将视线倾斜地指向上方的动作。此外,动作控制单元150还可以控制情绪表达动作,例如,轻微咆哮等。作为根据本实施方式的第二响应,例如,可以根据作为自主移动对象10的模型而采用的生物的种类使用更自然的动作。
[0149] 接下来,将详细描述根据本实施方式的第三响应的具体示例。根据本实施方式的第三响应可以是眼球动作、身体动作或使用声音的情感表达动作中的任何一种或其组合。此外,根据本实施方式的动作控制单元150可以基于与识别处理相关的可靠性来动态确定第三响应的动作。图13是示出根据本实施方式的示例性第三响应的示图。
[0150] 在与识别处理相关的可靠性高的情况下,根据本实施方式的动作控制单元150使得自主移动对象10执行表示理解用户的话语的肯定的第三响应,例如,如图13的左侧所示。上述肯定行为包括对应于例如快乐、兴奋、兴趣等的情感表达行动。
[0151] 另一方面,在与识别处理相关的可靠性低的情况下,根据本实施方式的动作控制单元150使得自主移动对象10执行第三响应,例如,如图13右侧所示,提示用户再次发出话语。提示用户再次发出话语的第三响应包括对应于例如问题、焦虑等的情感表达行动。例如,动作控制单元150可以使驱动单元160在倾斜头部的同时执行竖起耳朵的动作。
[0152] 根据动作控制单元150的上述功能,用户可以直观地掌握语音识别处理的结果不好,并且用户可以再次发出话语。
[0153] 在上面,已经用具体示例描述了根据本实施方式的第一响应、第二响应和第三响应。如上所述,根据本实施方式的第一响应、第二响应和第三响应可以通过使用声音的眼球动作、身体动作或情感表达动作中的任何一种或其组合来实现。
[0154] 此外,根据本实施方式的动作控制单元150可以基于从传感器信息估计的情况,动态地确定与第一响应、第二响应和第三响应相关的动作类别。注意,根据上述传感器信息估计的情况包括与用户、自主移动对象10和外围环境相关的各种状态/情况。
[0155] 图14是描述根据本实施方式的基于情况的动作类别的动态控制的示图。图14示出了用户U1从自主移动对象10后面发出话语的情况。在这种情况下,很有可能无法从用户U1的位置识别自主移动对象10的显示器510。
[0156] 因此,在从自主移动对象10后面检测到话语的情况下,根据本实施方式的动作控制单元150可以使得自主移动对象10执行不使用眼球动作的响应动作,例如,摇动尾巴的身体动作等。
[0157] 此外,例如,在周围环境声音很大的情况下,动作控制单元150可以优先考虑眼球动作或身体动作,并且在周围黑暗的情况下,动作控制单元可以优先考虑眼球动作或使用声音的情感表达动作,因为难以确认身体动作。
[0158] 此外,动作控制单元150可以特别基于用户状态来动态确定与第一响应、第二响应和第三响应中的每一个相关的动作类别。例如,在检测到通常佩戴视力矫正工具的用户没有佩戴视力矫正工具这一事实的情况下,动作控制单元150不利用使用眼球动作的响应动作,并且可以优先考虑使用声音的情感表达动作。
[0159] 此外,类似的情况也适用于估计用户视力受损的情况。识别单元120可以例如从用户持有的白手杖等执行上述估计。此外,识别单元120可以根据用户响应于自主移动对象10的行动的反应来执行上述估计。注意,在听觉感知或听觉损伤的校正装置方面也是如此。
[0160] 因此,根据按照本实施方式的动作控制单元150,可以执行更方便并且响应于各种情况的反馈。
[0161] 此外,根据本实施方式的动作控制单元150可以基于用户话语的受话者来执行动作控制。图15是描述根据本实施方式的基于话语的受话者的识别的动作控制的示图。
[0162] 图15示出了:用户U1通过电话进行对话;并且自主移动对象10当前正在执行自主行动。此时,根据本实施方式的动作控制单元150可以基于确定用户U1的话语的受话者不是自主移动对象10来控制第一响应、第二响应或第三响应中的任何一个的执行,或者控制使得它们都不执行。
[0163] 根据按照本实施方式的动作控制单元150的上述功能,只有在符合用户意图的情况下,才能执行响应动作,并且期望提高用户对自主移动对象10的评估的效果。此外,根据上述功能,可以抑制由不必要的动作控制引起的功耗。
[0164] 注意,识别单元120可以根据用户握着电话、用户的视线没有指向自主移动对象10等这一事实来确定用户话语的受话者不是自主移动对象10。
[0165] 此外,动作控制单元150可以使自主移动对象10执行响应动作,直到上述确定的确定性达到预定水平或更高。例如,在执行第二响应之后确定话语的受话者不是自主移动对象10的情况下,动作控制单元150可以返回自主行动的控制,而不执行第三响应。
[0166] 接下来,将提供在自主移动对象正在执行某个行动时检测用户话语的情况下的示例性动作控制的描述。图16是描述根据本实施方式的到响应动作的过渡控制的示图。图16示出了当自主移动对象10正在玩球时检测用户开始说话的示例性情况。
[0167] 此时,根据本实施方式的动作控制单元150可以逐渐停止自主移动对象10的行动,即追逐球的行动。此外,动作控制单元150执行控制,使得自主移动对象10在行动停止后不产生任何声音。
[0168] 根据动作控制单元150的上述控制,由于行动的突然停止而引起的奇怪感觉不会提供给用户,并且通过在停止之后不操作致动器570,也可以防止由驱动声音引起的语音识别精度的降低。
[0169] 注意,在行动没有及时停止并且语音识别结果的确定性水平由于致动器570的驱动声音的影响而降低的情况下,动作控制单元150使得自主移动对象10执行第三响应,以提示再次话语,如图16的右侧所示,并且可以控制自主移动对象10,以便在完成第三响应之后不产生任何声音。
[0170] 根据动作控制单元150的上述控制,使自主移动对象10执行更自然的动作,同时,还可以提高与再次执行的语音识别处理相关的精度。
[0171] 在上面,根据本实施方式的动作控制已经在上面通过具体示例进行了描述。根据上述动作控制单元150的功能,可以执行接近实际生物的更自然的动作,同时,用户可以直观地掌握自主移动对象10的识别处理的进度。
[0172] 注意,上面已经描述了自主移动对象10控制使用声音的眼球动作、身体动作和情感表达动作中的任何一个或其组合的情况,但是根据本实施方式的动作控制可以根据识别处理和自主移动对象10的特征适当地修改。例如,在识别单元120基于由触摸传感器540收集的传感器信息识别用户等的接触模式的情况下,动作控制单元150可以通过压电元件等的振动使自主移动对象10执行响应动作。
[0173] 此外,根据本实施方式的自主移动对象10可以是虚拟空间中的移动对象(也称为虚拟移动对象)。图17是描述根据本实施方式的虚拟移动对象的控制的示图。
[0174] 图17示出了佩戴信息处理终端30的用户U2的视野FV以及在视野FV上显示的虚拟移动对象VO。信息处理终端30可以是例如头戴式显示器或眼镜型可佩戴装置。此时,动作控制单元150被实现为信息处理终端30或与信息处理终端30通信的信息处理服务器的功能。信息处理终端30或上述信息处理服务器对应于稍后描述的动作控制装置。
[0175] 在这种情况下,动作控制单元150使用诸如增强现实(AR)、虚拟现实(VR)、混合现实(MR)等技术来控制虚拟移动对象VO的显示。
[0176] 在此处,虚拟移动对象VO可以包括对应于像没有语言交流手段的狗一样的生物的视觉信息。根据动作控制单元150的上述控制,即使在控制目标是如上所述的虚拟对象的情况下,也可以实现接近实际生物的自然行为,并且同时,可以向用户呈现与识别处理的进展相关的反馈。
[0177] 此外,即使在虚拟移动对象VO是对应于具有语言交流手段的人物等的视觉信息的情况下,也可以通过以下方式实现更接近现实的动作并且可以增强沉浸感:当检测到用户开始说话时,虚拟移动对象做出点头动作;并且虚拟移动对象在匹配开始时进行思考动作。
[0178] <<3.4.控制流程>>
[0179] 接下来,将详细描述根据本实施方式的动作控制的流程。图18是示出根据本实施方式的动作控制的流程的流程图。
[0180] 参考图18,首先,输入单元110收集传感器信息(S1101)。步骤S1101中传感器信息的收集由图1中描述的各种传感器实现。
[0181] 接下来,识别单元120基于在步骤S112中收集的传感器信息来估计情况(S112)。注意,步骤S1101中的传感器信息的收集和步骤S1102中的情况估计可以持续地连续执行。
[0182] 接下来,识别单元120检测用户开始说话(S1103),并且动作控制单元150控制第一响应的执行(S1104)。
[0183] 接下来,识别单元120检测用户结束说话(S1105),并且动作控制单元150控制第二响应的执行(S1106)。
[0184] 接下来,识别单元120执行匹配处理(S1107)。
[0185] 在此处,在与匹配处理相关的确定性水平高的情况下(S1108:高),动作控制单元150控制指示话语理解的第三响应的执行(S1109),并且还基于匹配结果控制动作的执行(S1110)。
[0186] 另一方面,在与匹配处理相关的确定性水平低的情况下(S1108:低),识别单元120可以确定话语的受话者是否是自主移动对象10(S1111)。
[0187] 在此处,在识别单元120确定话语的受话者不是自主移动对象10的情况下(S1111:否),动作控制单元150结束与响应动作相关的控制。
[0188] 另一方面,在识别单元120确定话语的受话者是自主移动对象10的情况下(S1111:是),动作控制单元150控制提示用户再次发出话语的第三响应的执行(S1112),并且然后使自主移动对象10等待,而不产生任何声音,来再次发出话语(S1113)。
[0189] <4.动作控制装置的示例性硬件配置>
[0190] 接下来,将对根据本公开实施方式的动作控制单元150的功能被实现为与自主移动对象10分开提供的动作控制装置的情况下的示例性硬件配置进行描述。图19是示出根据本公开的实施方式的动作控制装置20的示例性硬件配置的示图。参考图19,动作控制装置20包括例如CPU 871、ROM 872、RAM 873、主机总线874、桥接器875、外部总线876、接口877、输入装置878和输出装置879、存储器880、驱动器881、连接端口882和通信装置883。注意,此处示出的硬件配置是示例,并且可以省略一些组成元件。此外,可以进一步包括除了此处示出的组成元件之外的组成元件。
[0191] (CPU 871)
[0192] CPU 871用作例如算术处理装置或控制装置,并且基于记录在ROM872、RAM 873、存储器880或可移动记录介质901中的各种程序来控制各个组成元件的全部或部分操作。
[0193] (ROM 872和RAM 873)
[0194] ROM 872是装置,其存储:由CPU 871读取的程序;用于计算的数据;诸如此类。RAM 873暂时或永久存储例如:读入CPU 871的程序;在执行程序时适当改变的各种参数;诸如此类。
[0195] (主机总线874、桥接器875、外部总线876和接口877)
[0196] CPU 871、ROM 872和RAM 873经由例如能够执行高速数据传输的主机总线874相互连接。另一方面,主机总线874例如经由桥接器875连接到具有较低的数据传输速度的外部总线876。此外,外部总线876经由接口877连接到各种组成元件。
[0197] (输入装置878)
[0198] 作为输入装置878,例如,使用鼠标、键盘、触摸面板、按钮、开关、操作杆等。此外,作为输入装置878,可以使用能够通过使用红外线或其他无线电波传输控制信号的遥控器(以下称为遥控器)。此外,输入装置878包括诸如麦克风的语音输入装置。
[0199] (输出装置879)
[0200] 输出装置879是能够视觉或听觉地通知用户所获取的信息的装置,并且其示例包括诸如阴极射线管(CRT)、LCD或有机EL的显示装置、诸如扬声器和耳机的音频输出装置、打印机、移动电话、传真机等。此外,根据本公开的输出装置879包括能够输出触觉刺激的各种振动装置。
[0201] (存储器880)
[0202] 存储器880是存储各种数据的装置。作为存储器880,例如,使用磁存储装置(例如,硬盘驱动器(HDD))、半导体存储装置、光存储装置、磁光存储装置等。
[0203] (驱动器881)
[0204] 驱动器881是例如读取记录在诸如磁盘、光盘、磁光盘、半导体存储器等可移动记录介质901上的信息或者将信息写入到可移动记录介质901上的装置。
[0205] (可移动记录介质901)
[0206] 可移动记录介质901的示例包括例如DVD介质、蓝光(注册商标)介质、HD/DVD介质、各种半导体存储介质等。不用说,可移动记录介质901可以是例如其上安装有非接触式IC芯片的IC卡、电子装置等。
[0207] (连接端口882)
[0208] 连接端口882例如是连接外部连接装置902的端口,例如,通用串行总线(USB)端口、IEEE 1394端口、小型计算机系统接口(SCSI)、RS-232C端口或光音频终端。
[0209] (外部连接装置902)
[0210] 外部连接装置902例如是打印机、便携式音乐播放器、数码相机、数码摄影机、IC记录器等。
[0211] (通信装置883)
[0212] 通信装置883是用于连接到网络的通信装置,并且其示例是用于有线或无线LAN、蓝牙(注册商标)或无线USB(WUSB)的通信卡、用于光通信的路由器、用于非对称数字用户线路(ADSL)的路由器、各种通信调制解调器等。
[0213] <5.结论>
[0214] 如上所述,实现根据本公开的实施方式系列的信息处理方法的自主移动对象10具有基于识别目标信息的输入执行响应动作的一个特征,该响应动作是与执行识别处理相关的隐式反馈。根据这种配置,可以用更自然的动作来实现与识别处理的执行相关的反馈。
[0215] 虽然已经参考附图详细描述了本公开的优选实施方式,但是本公开的技术范围不限于这些示例。显然,本公开技术领域的普通技术人员可以容易地构思权利要求中描述的技术思想范围内的各种修改示例或各种改进示例,并且应当理解,这些修改和改进示例也包括在本公开的技术范围内。
[0216] 此外,本说明书中描述的效果仅仅是说明性的或示例性的,而不是限制性的。换言之,除了或代替上述效果,根据本公开的技术可以提供从本说明书的描述中对本领域技术人员显而易见的其他效果。
[0217] 此外,与本说明书中自主移动对象10的处理相关的各个步骤不一定按照流程图中描述的顺序按时间序列进行处理。例如,与自主移动对象10的处理相关的各个步骤可以以与流程图中描述的序列不同的序列来处理,或者可以并行处理。
[0218] 注意,以下配置也包括在本公开的技术范围内。
[0219] (1)一种信息处理装置,包括
[0220] 动作控制单元,被配置为执行基于识别处理而行动的移动对象的动作控制,其中,[0221] 动作控制单元使得移动对象基于识别目标信息的输入执行响应动作,并且[0222] 响应动作包括与识别处理的执行相关的隐式反馈。
[0223] (2)根据上述(1)的信息处理装置,其中,
[0224] 动作控制单元使得移动对象基于检测到识别目标信息的输入开始的事实执行第一响应,并且使得移动对象基于检测到识别目标信息的输入完成的事实执行第二响应,并且
[0225] 第一响应和第二响应是与识别处理的执行相关的隐式反馈。
[0226] (3)根据上述(2)的信息处理装置,其中,
[0227] 动作控制单元使得移动对象基于识别处理完成的事实,执行作为与识别处理的执行相关的反馈的第三响应。
[0228] (4)根据上述(3)的信息处理装置,其中,
[0229] 动作控制单元使得移动对象在执行第三响应之后执行基于识别处理的行动。
[0230] (5)根据上述(3)或(4)的信息处理装置,其中,
[0231] 移动对象具有模仿生物的形式和能力,并且
[0232] 第一响应、第二响应和第三响应包括身体动作、眼球动作、使用声音的情感表达动作中的任何一种。
[0233] (6)根据上述(3)至(5)中任一项的信息处理装置,其中,
[0234] 动作控制单元基于从传感器信息估计的情况,动态地确定与第一响应、第二响应和第三响应中的每一个相关的动作类别。
[0235] (7)根据上述(3)至(6)中任一项的信息处理装置,其中,
[0236] 动作控制单元基于用户的状态动态地确定与第一响应、第二响应和第三响应中的每一个相关的动作类别。
[0237] (8)根据上述(3)至(7)中任一项的信息处理装置,其中,
[0238] 动作控制单元基于与识别处理相关的可靠性动态地确定第三响应的动作。
[0239] (9)根据上述(3)至(8)中任一项的信息处理装置,其中,
[0240] 识别处理是语音识别处理。
[0241] (10)根据上述(9)的信息处理装置,其中,
[0242] 第一响应是眼球动作。
[0243] (11)根据上述(9)或(10)的信息处理装置,其中,
[0244] 移动对象是具有驱动单元的装置。
[0245] (12)根据上述(9)至(11)中任一项的信息处理装置,其中,
[0246] 动作控制单元基于确定用户话语的受话者不是移动对象,不使得移动对象执行第一响应、第二响应和第三响应中的至少一个。
[0247] (13)根据上述(9)至(12)中任一项的信息处理装置,其中,
[0248] 在移动对象的行动期间检测到用户的话语开始的情况下,动作控制单元逐渐停止该行动。
[0249] (14)根据上述(13)的信息处理装置,其中,
[0250] 动作控制单元控制移动对象在停止行动后不产生任何声音。
[0251] (15)根据上述(9)至(14)中任一项的信息处理装置,其中,
[0252] 在与语音识别处理相关的可靠性低的情况下,动作控制单元使得移动对象执行提示用户再次发出话语的第三响应。
[0253] (16)根据上述(15)的信息处理装置,其中,
[0254] 动作控制单元控制移动对象在完成提示再次话语的第三响应之后不产生任何声音。
[0255] (17)根据上述(1)至(6)中任一项的信息处理装置,其中,
[0256] 移动对象是没有语言交流手段的自主移动对象。
[0257] (18)根据上述(1)至(17)中任一项的信息处理装置,其中,
[0258] 信息处理装置是移动对象。
[0259] (19)一种信息处理方法,包括
[0260] 由处理器执行基于识别处理而行动的移动对象的动作控制,其中,[0261] 执行动作控制还包括
[0262] 使得移动对象基于识别目标信息的输入执行响应动作,并且
[0263] 响应动作是与识别处理的执行相关的隐式反馈。
[0264] (20)一种使计算机用作信息处理装置的程序,包括
[0265] 动作控制单元,被配置为执行基于识别处理而行动的移动对象的动作控制,其中,[0266] 动作控制单元使得移动对象基于识别目标信息的输入执行响应动作,并且[0267] 响应动作包括与识别处理的执行相关的隐式反馈。
[0268] 附图标记列表
[0269] 10自主移动对象
[0270] 110输入单元
[0271] 120识别单元
[0272] 130学习单元
[0273] 140行动计划单元
[0274] 150动作控制单元
[0275] 160驱动单元
[0276] 170输出单元
[0277] 510显示器
[0278] 570致动器。
高效检索全球专利

IPRDB是专利检索,专利查询,专利分析-国家发明专利查询检索分析平台,是提供专利分析,专利查询专利检索等数据服务功能的知识产权数据服务商。

我们的产品包含105个国家的1.26亿组数据,专利查询、专利分析

电话:13651749426

侵权分析

IPRDB的侵权分析产品是IPRDB结合多位一线专利维权律师和专利侵权分析师的智慧,开发出来的一款特色产品,也是市面上唯一一款帮助企业研发人员、科研工作者、专利律师、专利分析师快速定位侵权分析的产品,极大的减少了用户重复工作量,提升工作效率,降低无效或侵权分析的准入门槛。

立即试用