具有人机交互功能的仿人头像机器人装置及行为控制方法转让专利

申请号 : CN200910072405.5

文献号 : CN101618280B

文献日 :

基本信息:

PDF:

法律信息:

相似专利:

发明人 : 吴伟国孟庆梅

申请人 : 哈尔滨工业大学

摘要 :

具有人机交互功能的仿人头像机器人装置及行为控制方法,它涉及一种仿人头像机器人及其行为控制方法。解决了现有的仿人头像机器人不能完全实现对人类面部表情的再现、感知功能有限、不具有人工情感模型及人机交互功能的问题。传感器感知系统将感知到的信息输出给主控机进行处理,机器人行为控制系统中的控制系统软件根据人工情感模型得到相应电机的相关控制量,将运动控制指令通过运动控制卡输出PWM脉冲驱动相应的电机运动到指定的位置,实现机器人的人机交互功能及各种情感反应。传感器感知系统感知外界的情感信号,并识别出相应的情感信号,利用人工情感模型实现机器人的行为控制。本发明实现了对人类面部表情的再现,具有嗅觉、触觉、视觉等拟人的多感知功能。

权利要求 :

1.一种具有人机交互功能的仿人头像机器人装置,所述仿人头像机器人装置由仿人头像机器人本体、机器人行为控制系统和传感器感知系统三部分组成;其特征在于:所述仿人头像机器人本体包括眼球运动单元(1)、上下颚运动单元(61)、人工肺装置(71)、面部表情及口形驱动机构(81)、前支板(7)、后支板(6)、立架(51)、面部壳体(17)和面部弹性皮肤(18);眼球运动单元(1)由两个眼球(12)、眼球传动机构、两个眼球伺服电机(14)、两个眼睑(13)、眼睑传动机构、两个眼睑伺服电机(16)和伺服电机(29)构成;上下颚运动单元(61)由上鄂(8)、下颚(9)、电机(27)和转轴(28)构成;人工肺装置(71)由软管(19)、汽缸(20)、活塞(21)、螺母(22)、气体驱动导向轴(23)、气体驱动丝杠(25)、驱动电机(26)和进气管(92)构成;面部表情及仿人口形驱动机构(81)由第一驱动伺服电机(35)、第二驱动伺服电机(34)、第三驱动伺服电机(33)、第四驱动伺服电机(40)、第五驱动伺服电机(41)、第六驱动伺服电机(43)和多组面部皮肤驱动绳轮机构构成;

机器人行为控制系统包括控制系统硬件与控制系统软件,所述控制系统硬件包括主控机(91)和运动控制卡(5);所述控制系统软件即为行为控制方法;

传感器感知系统包括两个小型CCD传感器(3)、语音识别单片机(4)、嗅觉传感器(24);

前支板(7)、后支板(6)平行设置并与立架(51)固接在一起构成仿人 头像机器人的头部骨架,眼球运动单元(1)、上下颚运动单元(61)由上至下安装在立架(51)上;在每个眼球(12)中嵌入一个小型CCD传感器(3)形成机器人的双目视觉,每个眼睑(13)设置在对应眼球(12)的上方,两个眼球伺服电机(14)分别通过眼球传动机构带动两个眼球(12)左右转动,两个眼睑伺服电机(16)分别通过眼睑传动机构带动两个眼睑(13)运动,伺服电机(29)同时驱动两个眼球(12)一起上下动动;上鄂(8)设置在下颚(9)的上方,电机(27)带动转轴(28)驱动下颚(9)运动;嗅觉传感器(24)安装在眼球运动单元(1)和上下颚运动单元(61)之间的立架(51)上,软管(19)的一端与嗅觉传感器(24)连接,软管(19)的另一端与气缸(20)连接,驱动电机(26)与气体驱动丝杠(25)转动连接,螺母(22)安装在气体驱动丝杠(25)上,螺母(22)沿着气体驱动导向轴(23)移动,驱动固连在螺母(22)上的活塞(21)运动,实现机器人的嗅觉功能,进气管(92)的一端与汽缸(20)连接;第一驱动伺服电机(35)、第二驱动伺服电机(34)、第三驱动伺服电机(33)、第四驱动伺服电机(40)、第五驱动伺服电机(41)和第六驱动伺服电机(43)均安装在由前支板(7)、后支板(6)和立架(51)构成的仿人头像机器人头部骨架上,所述六个驱动伺服电机通过面部皮肤驱动绳轮机构与面部弹性皮肤(18)的相应的控制点连接;面部壳体(17)和面部弹性皮肤(18)与人脸的轮廓形状相一致,面部壳体(17)、面部弹性皮肤(18)由内向外安装在眼球运动单元(1)、上下颚运动单元(61)的前端上形成仿人 头像机器人装置的外部轮廓形状;运动控制卡(5)安装在后支板(6)上,语音识别单片机(4)安装在前支板(7)的上端上;传感器感知系统将感知到的信息输出给主控机(91)进行处理,机器人行为控制系统中的控制系统软件根 据人工情感模型得到相应电机的相关控制量,将运动控制指令通过运动控制卡(5)输出PWM脉冲驱动相应的电机运动到指定的位置,从而实现机器人的 人机交互功能及各种情感反应。

2.根据权利要求1所述的具有人机交互功能的仿人头像机器人装置,其特征在于:所述传感器感知系统还包括触觉传感器,所述触觉传感器设置在前额中部位置。

3.根据权利要求1或2所述的具有人机交互功能的仿人头像机器人装置,其特征在于:

所述传感器感知系统还包括两个温度传感器,所述两个温度传感器分别设置在前额的左右两侧。

4.根据权利要求1所述的具有人机交互功能的仿人头像机器人装置,其特征在于:所述小型CCD传感器(3)是利用微软公司在ActiveMovie和Videofor Windows的基础上推出的新一代基于COM技术的流媒体处理开发包DirectShow进行视频捕获;图像采集卡通过PCI放置在主板上,通过小型CCD传感器(3)内带的基于windows软件开发平台建立仿人头像机器人的视觉来完成对外界环境的识别,这里主要指仿人头像机器人对人脸面部表情的识别;所述小型CCD传感器(3)的主要功能为:(1)静态、动态的图像获取功能包括图像采集卡的参数设置、位图图像读入和存储、多路图像采集控制、显示和切换;

(2)涉及的动态、静态图像分析算法和面部表情识别算法。

5.根据权利要求1所述的具有人机交互功能的仿人头像机器人装置,其特征在于:实现面部表情及仿人口形的方法为:

步骤一、在面部弹性皮肤(18)上定义皮肤特征点:a、a-1、b、b-1、c、c-1、d、d-1、e、e-1、g,所述各点即为运动控制点;

步骤二、在每个运动控制点处设置一个滑块,所述滑块与面部弹性皮肤(18)的相应控制点连接在一起,每个滑块与一个与相应的导向槽滑动连接,所述导向槽设置在面部壳体(17)上,所述导向槽的设置方向确定每个运动控制点相应的受力方向;面部皮肤驱动绳轮机构的绳索的一端与滑块连接,面部皮肤驱动绳轮机构的绳索的另一端与相应的驱动伺服电机连接;

步骤三、通过表情控制点的组合和位移变化,实现不同的基本面部表情和机器人口形。

6.权利要求1所述的具有人机交互功能的仿人头像机器人装置的行为控制方法,其特征在于:所述方法按以下步骤实现的:

步骤一、通过传感器感知系统感知外界的情感信号,对感知到的情感信号进行分析、特征提取并识别;

步骤二、将识别后的情感信号传递给人工情感模型;所述人工情感模型主要包括三部分:机器人的情感产生、情感交互和情感表达;情感产生主要包括刺激信号采集、情感定义、情感驱动、情感转换四大模块;在情感驱动中定义两个阈值α,β;α为情感的激活阈值,β为情感的饱和度阈值;情感状态的转换要考虑到外部因素、内部因素和以前情感状态三方面的影响;

在明确人工情感模型的各个状态以及一些完全可以用触发事件来确定各状态转换关系的基础上,用扩展的有限状态机来实现情感之间的状态转换;增加定义状态上的变量属性集合,作为一种扩展有限状态机EFSM;利用EFSM分析清楚情感交互模型后,即可准确地确定人工情感模型中各个函数的变量构成,可以有效地避免变量定义冲突,为下一步的机器人控制行为提供依据;

步骤三、根据人工情感模型计算出相应驱动电机的相关控制量,到机器人的面部表情及仿人口形,进而得到机器人表达其情感的行为。

7.根据权利要求6所述的具有人机交互功能的仿人头像机器人装置的行为控制方法,其特征在于:所述情感信号包括人类基本面部表情和语音信号。

8.根据权利要求7所述的具有人机交互功能的仿人头像机器人装置的行为控制方法,其特征在于:人类基本面部表情识别采用模糊神经网络结构来识别;语音信号识别采用CHMM语音识别模型结构来识别。

9.根据权利要求8所述的具有人机交互功能的仿人头像机器人装置的行为控制方法,其特征在于:采用模糊神经网络结构识别人类基本面部表情的具体过程为:网络输入层节点数为6,即面部表情特征值 输出层节点数为7种基本面部表情:高兴、吃惊、悲伤、生气、厌恶、害怕和正常;期望网络的输出为第i个输出节点的值为1其余输出节点均为零,而实际输出是围绕期望值区间的某一具体数值;根据竞争选择,将输入样本类别判定为网络的实际输出中具有最大值的输出节点对应的类别;如果网络的实际输出节点同时存在多个最大值则做出拒绝判断;基于个体差异和表情的变化,特征点的相对位置不是固定的而是具有一定可变性,以及在图像采集过程中,人与摄像头的距离的变化等因素引起特征值的变化,故采用无量纲值作为面部表情识别的特征值,其中

10.根据权利要求8所述的具有人机交互功能的仿人头像机器人装置的行为控制方法,其特征在于:采用CHMM语音识别模型结构识别语音信号的具体过程为:语音信号通常可看作是从一系列HMM状态产生的观察量,每个观察序列就是一帧MFCC参数;在识别过程中,通过短时平均能量和短时过零率来实现语音信号的端点检测;采用经典的Baum-Welch算法实现HMM参数估计问题,识别过程中采用动态规划算法——Viterbi算法。

说明书 :

具有人机交互功能的仿人头像机器人装置及行为控制方法

技术领域

[0001] 本发明涉及一种仿人头像机器人装置及其行为控制方法,属于机器人应用领域。

背景技术

[0002] 仿人机器人的研究开始于上世纪60年代,经过50几年的发展目前已成为机器人技术领域的主要研究方向之一。它集机械、电子、计算机、材料、传感器、控制技术等多门科学于一体,代表着一个国家的高科技发展水平。“仿人”的意义在于机器人具有类人的感知、决策、行为和交互能力。仿人头像机器人是仿人机器人研究领域中实现人机情感交互的重要方向。情感能够提高机器人的便利性和可信度,同时可以向使用者提供机器人的内部状态、目标和意图等反馈信息。在人机交互中,被设计成具有情感的机器与人建立友好的交互界面,使其具有参与社会事务和开展人际交往的能力,更易被人类所接受;同时机器具有“生命”使其主体的思维(或行为)具有明确的目的性和方向性,从而显著地提高思维(或行为)的效率和速度;在动态、不可预知和具有潜在“危险”的环境中,赋予机器思维上的创造性和行为上的自觉性,提高机器适应环境的能力。
[0003] 目前,一些仿人头像机器人的研制不具有多种感知功能,对基本面部表情的实现也只限于一种表情。经文献检索发现中国专利公告号为CN 201088839专利号为200720189947.7名称为“机器人笑表情肌肉动作机构”,该机构包括头颅架、橡胶表皮,橡胶表皮贴在头颅架上。其特点为机构简单能够实现各种笑的表情。该机构不足之处在于不能实现其他面部表情。中国专利公告号为CN 101020315A专利号为200710038295.1名称为“仿人机器人头部系统”。该系统包括一个六自由度的串联型机构,以DSPF2812为主控节点的可扩展处理器网络。六自由度的串联机构本体由六个舵机驱动,用来模拟双眼、颈部和下巴的运动。可扩展处理器网络由视频处理器、语音处理器、接口模块和DSPF2812主控电路组成,能实现人机交互过程中的运动控制和计算要求。但是该仿人机器人头部系统不具有弹性面部皮肤,因此不能实现对人类面部表情的再现,不具有如嗅觉、触觉、视觉等拟人的多感知功能。同时以上申请的专利中机器人不具有人工情感模型及人机交互功能。

发明内容

[0004] 鉴于上述技术状态,本发明的目的是提供一种具有人机交互功能的仿人头像机器人装置及行为控制方法,以解决现有的仿人头像机器人不能完全实现对人类面部表情的再现、感知功能有限、不具有人工情感模型及人机交互功能的问题。
[0005] 本发明解决上述技术问题所采用的技术方案是:
[0006] 本发明所述具有人机交互功能的仿人头像机器人装置由仿人头像机器人本体、机器人行为控制系统和传感器感知系统三部分组成;所述仿人头像机器人本体包括眼球运动单元、上下颚运动单元、人工肺装置、面部表情及口形驱动机构、前支板、后支板、立架、面部壳体和面部弹性皮肤;眼球运动单元由两个眼球、眼球传动机构、两个眼球伺服电机、两个眼睑、眼睑传动机构、两个眼睑伺服电机和伺服电机构成;上下颚运动单元由上鄂、下颚、电机和转轴构成;人工肺装置由软管、汽缸、活塞、螺母、气体驱动导向轴、气体驱动丝杠、驱动电机和进气管构成;面部表情及仿人口形驱动机构由第一驱动伺服电机、第二驱动伺服电机、第三驱动伺服电机、第四驱动伺服电机、第五驱动伺服电机、第六驱动伺服电机和多组面部皮肤驱动绳轮机构构成;机器人行为控制系统包括控制系统硬件与控制系统软件,所述控制系统硬件包括主控机和运动控制卡;所述控制系统软件即为行为控制方法;传感器感知系统包括两个小型CCD传感器、语音识别单片机、嗅觉传感器;前支板、后支板平行设置并与立架固接在一起构成仿人头像机器人的头部骨架,眼球运动单元、上下颚运动单元由上至下安装在立架上;在每个眼球中嵌入一个小型CCD传感器形成机器人的双目视觉,每个眼睑设置在对应眼球的上方,两个眼球伺服电机分别通过眼球传动机构带动两个眼球左右转动,两个眼睑伺服电机分别通过眼睑传动机构带动两个眼睑运动,伺服电机同时驱动两个眼球一起上下动动;上鄂设置在下颚的上方,电机带动转轴驱动下颚运动;嗅觉传感器安装在眼球运动单元和上下颚运动单元之间的立架上,软管的一端与嗅觉传感器连接,软管的另一端与气缸连接,电机与气体驱动丝杠转动连接,螺母安装在气体驱动丝杠上,螺母沿着气体驱动导向轴移动,驱动固连在螺母上的活塞运动,实现机器人的嗅觉功能,进气管的一端与汽缸连接;第一驱动伺服电机、第二驱动伺服电机、第三驱动伺服电机、第四驱动伺服电机、第五驱动伺服电机和第六驱动伺服电机均安装在由前支板、后支板和立架构成的仿人头像机器人头部骨架上,所述六个驱动伺服电机通过面部皮肤驱动绳轮机构与面部弹性皮肤的相应的控制点连接;面部壳体和面部弹性皮肤与人脸的轮廓形状相一致,面部壳体、面部弹性皮肤由内向外安装在眼球运动单元、上下颚运动单元的前端上形成仿人头像机器人装置的外部轮廓形状;运动控制卡安装在后支板上,语音识别单片机安装在前支板的上端上;传感器感知系统将感知到的信息输出给主控机进行处理,机器人行为控制系统中的控制系统软件根据人工情感模型得到相应电机的相关控制量,将运动控制指令通过运动控制卡(电机控制器)输出PWM脉冲驱动相应的电机运动到指定的位置,从而实现机器人的人机交互功能及各种情感反应。
[0007] 上述具有人机交互功能的仿人头像机器人装置的行为控制方法按以下步骤实现的:
[0008] 步骤一、通过传感器感知系统(传感器CCD和MIC)感知外界的情感信号,对感知到的情感信号进行分析、特征提取并识别;
[0009] 步骤二、将识别后的情感信号传递给人工情感模型;所述人工情感模型主要包括三部分:机器人的情感产生、情感交互和情感表达;情感产生主要包括刺激信号采集、情感定义、情感驱动、情感转换四大模块;在情感驱动中定义两个阈值α,β;α为情感的激活阈值,β为情感的饱和度阈值;情感状态的转换要考虑到外部因素、内部因素和以前情感状态三方面的影响;
[0010] 在明确人工情感模型的各个状态以及一些完全可以用触发事件来确定各状态转换关系的基础上,用扩展的有限状态机来实现情感之间的状态转换;增加定义状态上的变量属性集合,作为一种扩展有限状态机EFSM;利用EFSM分析清楚情感交互模型后,即可准确地确定人工情感模型中各个函数的变量构成,可以有效地避免变量定义冲突,为下一步的机器人控制行为提供依据;
[0011] 步骤三、根据人工情感模型计算出相应驱动电机的相关控制量(相应转角),到机器人的面部表情及仿人口形,进而得到机器人表达其情感的行为。
[0012] 本发明具有以下有益技术效果:本发明实现了对人类面部表情的再现,而且还具有如嗅觉、触觉、视觉等拟人的多感知功能。本发明通过弹性面部皮肤能够实现基本面部表情和机器人的动态口形。采用基于情感模型的行为控制方法,实现机器人的行为控制,通过机器人装置中传感器感知外界的情感刺激,经过人工情感模型计算识别,控制系统实现机器人的各种行为反应,使机器人具有人机交互功能。本发明最大的特点是仿人头像机器人装置实现了与成人头部体积1∶1比例的设计,结构紧凑。

附图说明

[0013] 图1a是本发明所述机器人的立体图,图1b是本发明所述机器人的立体图(为便于表达,没有画出面部壳体和面部弹性皮肤等);图2a是本发明所述机器人的上下颚运动单元立体图,图2b是本发明所述机器人的上下颚运动单元立体图(主视立体图);图3是本发明的机器人眼球运动单元的立体图;图4a是机器人的面部皮肤上定义皮肤特征点的具体位置示意图,图4b是本发明的机器人面部表情和口形的形成原理图示意图;图5是本发明的机器人人机交互原理示意图;图6是本发明的机器人的行为控制硬件构成的方框图;图7a是本发明的机器人的行为控制软件的具体流程图,图7b-1是机器人表达“很高兴认识你”时的语音信号图,图是7b-2是机器人表达“很高兴认识你”时下颚驱动电机的转角图;
图8a~8c是本发明的机器人面部表情识别模糊神经网络方法示意图;图9是本发明的机器人语音识别方法示意图;图10是本发明的机器人人工情感模型的结构示意图;图11是本发明的机器人基于有限状态机的情感交互模型示意图;图12a是本发明的机器人能够表达的部分基本口形组图,图12b是机器人表达“很高兴认识你”时各个时间点的表情组图;
图12c是本发明的机器人的人机交互实验照片组图。

具体实施方式

[0014] 具体实施方式一:如图1a、图1b、图2a、图2b、图3、图4a、图4b和图6所示,本实施方式所述的具有人机交互功能的仿人头像机器人装置由仿人头像机器人本体、机器人行为控制系统和传感器感知系统三部分组成;所述仿人头像机器人本体包括眼球运动单元1、上下颚运动单元61、人工肺装置71、面部表情及口形驱动机构81、前支板7、后支板6、立架51、面部壳体17和面部弹性皮肤18;眼球运动单元1由两个眼球12、眼球传动机构、两个眼球伺服电机14、两个眼睑13、眼睑传动机构、两个眼睑伺服电机16和伺服电机29构成;上下颚运动单元61由上鄂8、下颚9、电机27和转轴28构成;人工肺装置71由软管19、汽缸
20、活塞21、螺母22、气体驱动导向轴23、气体驱动丝杠25、驱动电机26和进气管92构成;
面部表情及仿人口形驱动机构81由第一驱动伺服电机35、第二驱动伺服电机34、第三驱动伺服电机33、第四驱动伺服电机40、第五驱动伺服电机41、第六驱动伺服电机43和多组面部皮肤驱动绳轮机构构成;
[0015] 机器人行为控制系统包括控制系统硬件与控制系统软件,所述控制系统硬件包括主控机91和运动控制卡5;所述控制系统软件即为行为控制方法;
[0016] 传感器感知系统包括两个小型CCD传感器3、语音识别单片机4、嗅觉传感器24;
[0017] 前支板7、后支板6平行设置并与立架51固接在一起构成仿人头像机器人的头部骨架,眼球运动单元1、上下颚运动单元61由上至下安装在立架51上;在每个眼球12中嵌入一个小型CCD传感器3形成机器人的双目视觉,每个眼睑13设置在对应眼球12的上方,两个眼球伺服电机14分别通过眼球传动机构带动两个眼球12左右转动,两个眼睑伺服电机16分别通过眼睑传动机构带动两个眼睑13运动,伺服电机29同时驱动两个眼球12一起上下动动;上鄂8设置在下颚9的上方,电机27带动转轴28驱动下颚9运动;嗅觉传感器24安装在眼球运动单元1和上下颚运动单元61之间的立架51上,软管19的一端与嗅觉传感器24连接,软管19的另一端与气缸20连接,电机26与气体驱动丝杠25转动连接,螺母22安装在气体驱动丝杠25上,螺母22沿着气体驱动导向轴23移动,驱动固连在螺母22上的活塞21运动,实现机器人的嗅觉功能,进气管92的一端与汽缸20连接;第一驱动伺服电机35、第二驱动伺服电机34、第三驱动伺服电机33、第四驱动伺服电机40、第五驱动伺服电机41和第六驱动伺服电机43均安装在由前支板7、后支板6和立架51构成的仿人头像机器人头部骨架上,所述六个驱动伺服电机通过面部皮肤驱动绳轮机构与面部弹性皮肤
18的相应的控制点连接;面部壳体17和面部弹性皮肤18与人脸的轮廓形状相一致,面部壳体17、面部弹性皮肤18由内向外安装在眼球运动单元1、上下颚运动单元61的前端上形成仿人头像机器人装置的外部轮廓形状;运动控制卡5安装在后支板6上,语音识别单片机
4安装在前支板7的上端上;传感器感知系统将感知到的信息输出给主控机91进行处理,机器人行为控制系统中的控制系统软件根据人工情感模型得到相应电机的相关控制量,将运动控制指令通过运动控制卡5(电机控制器)输出PWM脉冲驱动相应的电机运动到指定的位置,从而实现机器人的人机交互功能及各种情感反应。
[0018] 本实施方式的仿人头像机器人装置的长为162mm、宽为156mm、高为184mm,重量为2.8kg,共有14个自由度。通过眼球运动单元1、上下颚运动单元61实现机器人的仿人面部器官运动;通过电机27带动转轴28驱动下颚9实现机器人的嘴部的运动。人工肺装置通过电机26带动气体驱动丝杠25转动,螺母22沿着气体驱动导向轴23移动,从而驱动固连在螺母22上的活塞21运动,实现机器人的嗅觉功能。能够识别出酒精、烟、氨气等气味,人工肺装置安放可在仿人机器人胸部的适当位置。图3为本发明的机器人的眼球运动驱动单元1,眼球运动具有2个自由度,眼睑运动具有1个自由度。在眼球12分别嵌入小型CCD传感器3,构成机器人的双目视觉。其中眼球的运动速度最快可达500deg/s,眼睑的运动速度最快为900deg/s。在仿人头像机器人装置中考虑到机构的具体空间需要,机器人的行为控制采用体积小、输出力矩较大,易于位置控制的眼球伺服电机14、眼睑伺服电机16、伺服电机29,采用同步带传动机构作为电机的传动机构,同时考虑到电机驱动轴的支撑问题,设计轴承支座15增强机构的刚度。机器人的眼球运动机构是左右对称的。其中眼球伺服电机14通过相应的第一绳轮31和第二绳轮11带动眼球12左右转动。伺服电机16通过相应的第三绳轮30、第四绳轮33驱动相应的眼睑13运动。伺服电机29驱动两上眼球12一起上下运动。
[0019] 考虑到伺服控制卡与主控机的通讯问题及合理分配和有效利用运动控制卡的硬件资源,实现仿人头像机器人系统的硬件集成两方面问题,运动控制卡5选用SSC-32运动控制卡,SSC-32运动控制卡可以控制多达32个伺服电机协调动作。运动控制硬件即SSC-32板卡5本身,该舵机控制器采用RS232串口与PC机进行通信,通过PC机操作上位机软件给控制器传递控制指令信号,就可以从控制器输出一定占空比的PWM信号,实现多路伺服电机单独控制或同时控制。控制卡的控制指令精简、控制精度为0.09°/μs,可以进行舵机的位置控制以及速度控制。
[0020] 语音识别单片机4是SPCE061A单片机。仿人头像机器人采用主控机与SPCE061A单片机4相结合作为机器人的听觉系统。SPCE061A单片机4是凌阳公司推出的一款16位微处理器,内嵌32k字闪存flash,处理速度高,能够很方便地完成语音识别和语音信号的处理。系统通讯部分电路主要包括32位I/O通讯电路和通用异步串行接口(UART)通讯电路,本系统通过通用异步串行接口(UART)电路实现与主控机之间的通讯,实现单片机与主控机间的数据传输。语音识别时用到的语音提示借助于凌阳公司提供的API语音函数来实现。识别时的模板匹配算法采用Viterbi算法。它是一种前向搜索算法,其可以是在给定相应的观察序列时,找出从模型中找出的最佳状态序列,即选择输出概率最大的模版作为输出结果。模板训练的计算量很大,是借助于主控机平台完成的,语音信号样本通过SPCE061A系统来采集,通过RS232的通信模块将语音信号传送到主控机上保存,它保证了训练用的语音特征与识别时的一致性,从而减少硬件系统不一致而带来的误差。
[0021] 嗅觉传感器24采用FIS系列气体传感器。
[0022] 具体实施方式二:本实施方式所述传感器感知系统还包括触觉传感器,所述触觉传感器设置在前额中部位置。其它组成及连接关系与具体实施方式一相同。
[0023] 具体实施方式三:本实施方式所述传感器感知系统还包括两个温度传感器,所述两个温度传感器分别设置在前额的左右两侧。其它组成及连接关系与具体实施方式一或二相同。
[0024] 具体实施方式四:本实施方式所述小型CCD传感器3是利用微软公司在ActiveMovie和Video for Windows的基础上推出的新一代基于COM技术的流媒体处理开发包DirectShow进行视频捕获;图像采集卡通过PCI放置在主板上,通过小型CCD传感器3内带的基于windows软件开发平台建立仿人头像机器人的视觉来完成对外界环境的识别,这里主要指仿人头像机器人对人脸面部表情的识别;所述小型CCD传感器3的主要功能为:
[0025] (1)静态、动态的图像获取功能包括图像采集卡的参数设置、位图图像读入和存储、多路图像采集控制、显示和切换;
[0026] (2)涉及的动态、静态图像分析算法和面部表情识别算法。其它与具体实施方式一相同。
[0027] 具体实施方式五:如图1a、图1b、图4a、图4b、图12a和图12b所示,本实施方式实现面部表情及仿人口形的方法为:
[0028] 步骤一、在面部弹性皮肤18上定义皮肤特征点:a、a-1、b、b-1、c、c-1、d、d-1、e、e-1、g,所述各点即为运动控制点;
[0029] 步骤二、在每个运动控制点处设置一个滑块,所述滑块与面部弹性皮肤18的相应控制点连接在一起,每个滑块与一个与相应的导向槽滑动连接,所述导向槽设置在面部壳体17上,所述导向槽的设置方向确定每个运动控制点相应的受力方向;面部皮肤驱动绳轮机构的绳索的一端与滑块连接,面部皮肤驱动绳轮机构的绳索的另一端与相应的驱动伺服电机连接;
[0030] 步骤三、通过表情控制点的组合和位移变化,实现不同的基本面部表情和机器人口形。
[0031] 为了实现表情控制,也可在在相应的制控点设置带有导向槽的皮肤运动导向弯板10。为实现机器人的面部表情和口形,在面部皮肤18上定义皮肤特征点(a,a-1,b,b-1,c,c-1,d,d-1,e,e-1,g)。图中圆点代表在机器人皮肤上设定的控制点,箭头表明控制点运动的方向。在机器人面部表情设计中,通过控制这些控制点的组合和运动的位移和方向来实现基本的面部表情和口形,模拟人类肌肉的双向运动。在实际机构中,面部皮肤驱动绳组与控制点相连,通过表情控制点的组合和位移变化,实现不同的基本面部表情。表1表达了各控制点与面部皮肤驱动绳组及驱动伺服电机的分配。为了有效利用空间,各控制点的运动是左右对称的(第四驱动伺服电机40和第五驱动伺服电机41左中对称设置;38与38-1对称设置;39与39-1对称设置)。
[0032]皮肤控制点 驱动伺服电机 面部皮肤驱动绳轮
a,a-1 35 2-1,2-2
b,b-1 34 37-1,37-2
c,c-1, 33 36-1,36-2
d,d-1 40 38,39
e,e-1 41 38-1,39-1
g 43 42
[0033] 具体实施方式六:如图1a、图1b、图5、图6和图7a、图7b-1、图7b-2,图10、图11、图12a、图12b和图12c所示,本实施方式所述具有人机交互功能的仿人头像机器人装置的行为控制方法按以下步骤实现的:
[0034] 步骤一、通过传感器感知系统(传感器CCD和MIC)感知外界的情感信号,对感知到的情感信号进行分析、特征提取并识别;所述情感信号包括人类基本面部表情和语音信号;人类基本面部表情识别采用模糊神经网络结构来识别;语音信号识别采用CHMM语音识别模型结构来识别;
[0035] 步骤二、将识别后的情感信号传递给人工情感模型;所述人工情感模型主要包括三部分:机器人的情感产生、情感交互和情感表达;情感产生主要包括刺激信号采集、情感定义、情感驱动、情感转换四大模块;在情感驱动中定义两个阈值α,β;α为情感的激活阈值,β为情感的饱和度阈值;情感状态的转换要考虑到外部因素、内部因素和以前情感状态三方面的影响;情感产生中通过传感器来实现人类的感知功能,用来感受外界事件。由于视觉和听觉能够感知外界环境的大部分信息,因此在仿人头像机器人中通过视觉传感器和听觉传感器来实现人类的感知功能。情感表达包括面部表情表达和语音表达。
[0036] 情感交互基于有限状态机理论建立,在明确情感模型的各个状态以及一些完全可以用触发事件来确定各状态转换关系的基础上,用有限状态机来实现情感之间的状态转换。建立情感交互的目的是为控制仿人头像机器人的行为,使其根据情感状态做出相应的行为反应。因此,情感状态机建立后就应该清晰准确地确定其所要使用的主要函数及变量。针对要求,对有限状态机的基本概念进行扩展,增加定义状态上的变量属性集合,作为一种扩展有限状态机(EFSM)。利用EFSM分析清楚情感交互模型后,即可准确地确定情感模型中各个函数的变量构成,可以有效地避免变量定义冲突,为下一步的机器人行为控制提供依据。图8中E1代表个体的初始情感状态,条件代表输入状态,根据当前的情感状态和输入状态,情感载体的情感状态发生改变,并做出相应的行为。行为中的声音和表情表示状态上的变量集合V;
[0037] 步骤三、根据人工情感模型计算出相应驱动电机的相关控制量(相应转角),到机器人的面部表情及仿人口形,进而得到机器人表达其情感的行为。
[0038] 具体实施方式七:、如图8a、8b和8c所示,本实施方式采用模糊神经网络结构识别人类基本面部表情的具体过程为:网络输入层节点数为6,即面部表情特征值{θ1,θ2,θ3,θ4,L1,L2};输出层节点数为7种基本面部表情(高兴、吃惊、悲伤、生气、厌恶、害怕和正常);期望网络的输出为第i个输出节点的值为1其余输出节点均为零,而实际输出是围绕期望值区间的某一具体数值;根据竞争选择,将输入样本类别判定为网络的实际输出中具有最大值的输出节点对应的类别;如果网络的实际输出节点同时存在多个最大值则做出拒绝判断;基于个体差异和表情的变化,特征点的相对位置不是固定的而是具有一定可变性,以及在图像采集过程中,人与摄像头的距离的变化等因素引起特征值的变化,故采用无量纲值作为面部表情识别的特征值,其中 其它与具体实施方式六相同。
[0039] 具体实施方式八:、如图9所示,本实施方式所述采用CHMM语音识别模型结构识别语音信号的具体过程为:语音信号通常可看作是从一系列HMM状态产生的观察量,每个观察序列就是一帧MFCC参数;在识别过程中,通过短时平均能量和短时过零率来实现语音信号的端点检测;采用经典的Baum-Welch算法实现HMM参数估计问题,识别过程中采用动态规划算法——Viterbi算法。其它与具体实施方式六相同。
[0040] 本发明方法的原理:通过传感器CCD和MIC感知外界的情感信号,并识别出相应的情感信号。根据情感模型中的扩展有限状态机中的变量集合V中元素如面部表情控制点及基本口形,得到机器人表达其情感的行为。本实施机器人能够表达的部分基本口形如图12a所示,图中机器人的各个口形为相应的汉语拼音的发音。根据人工情感模型理论,外界刺激信号影响机器人的行为,实验中外界刺激信号包括语音信号和视觉信号。根据不同的外界刺激信号,机器人与人进行不同的情感交互,这里情感交互主要指语言和机器人面部表情的交互。机器人在情感模型的驱动下作出相应的反应——表情和语音回答。该控制方法通过情感、驱动、行为三部分相互交互来实现机器人的“类人”的行为。在该体系中“驱动”决定“做什么”,“情感”决定“怎么做”。通过传感器CCD和MIC感知外界的情感信号,根据情感模型中的扩展有限状态机中的变量集合V中元素如面部表情控制点及基本口形,得到机器人表达其情感的行为。图7a为仿人头像机器人装置行为控制系统软件流程图。机器人通过传感器将采集到的面部表情信息和语音信息进行融合之后,控制软件根据人工情感模型得到驱动电机的相关控制量,控制机器人的行为表达。图7b-1、图7b-2为机器人表达“很高兴认识你”时,下颚驱动电机的转角。在图中0-11.8秒为人类对机器人的问候“你好”。本发明装置通过语音识别单片机识别出外界的语音信号,作出相应的触发应答。在进行应答时,根据应答的语句得出各孤立字的应答时间及其对应的口形,从而得到驱动电机的相应转角。