人机对话模型训练方法、人机对话方法及系统转让专利

申请号 : CN202010195133.4

文献号 : CN111324736B

文献日 :

基本信息:

PDF:

法律信息:

相似专利:

发明人 : 朱钦佩

申请人 : 思必驰科技股份有限公司

摘要 :

本发明公开一种人机对话模型训练方法,所述人机对话模型包括编码器和解码器,所述方法包括:预先构建训练样本集,所述训练样本集至少基于有效问题‑答案对子集和无效问题‑答案对子集构成;采用所述训练样本集对所述编码器进行预训练得到初始编码器;采用所述训练样本集对所述初始编码器和所述解码器进行联合训练。本发明通过将无效问题融入到训练样本集中,并且基于该训练样本集对编码器进行预训练,使得训练得到的初始编码器学习到了需要进行特殊回复无效问题的特征,进一步基于训练样本集对初始编码器和解码器进行联合训练,从而得到了能够针对需要进行特殊回复的无效问句生成合适答复内容的人机对话模型。

权利要求 :

1.一种人机对话模型训练方法,所述人机对话模型包括编码器和解码器,所述方法包括:预先构建训练样本集,所述训练样本集至少基于有效问题‑答案对子集和无效问题‑答案对子集构成;

采用所述训练样本集对所述编码器进行预训练得到初始编码器;

采用所述训练样本集对所述初始编码器和所述解码器进行联合训练,其中,所述预先构建训练样本集包括:为所述有效问题‑答案对子集中的有效问题配置有效问句编码;

将所述无效问题‑答案对子集中的无效问题划分为多种类型,并且相应的配置多个无效问句编码;

根据预设词典对所述有效问题‑答案对子集中的有效问题和相应答案进行编码;

根据预设词典对所述无效问题‑答案对子集中的无效问题和相应答案进行编码,以及其中,所述采用所述训练样本集对所述编码器进行预训练得到初始编码器包括:将所述训练样本集中的训练样本输入至所述编码器;

至少将所述编码器的隐藏层的输出作为第一分类层的输入进行分类,并基于第一交叉熵损失函数训练得到初始编码器。

2.根据权利要求1所述的方法,其中,所述无效问题‑答案对子集中的答案采用多种预定字符串表示,所述多种预定字符串的种类与所述无效问句编码的数量相当;

所述预设词典中包括多个功能码和无效问句标识,所述多个功能码和所述无效问句标识各自配置有设定编号。

3.根据权利要求2所述的方法,其中,所述多个功能码包括开始功能码、结束功能码、对齐功能码和替换功能码;

所述根据预设词典对所述有效问题‑答案对子集中的有效问题和相应答案进行编码包括:采用所述多个功能码对所述有效问题‑答案对子集中的有效问题和相应答案进行对齐预处理;

采用所述预设词典对预处理之后的有效问题和相应答案进行编码;

所述根据预设词典对所述无效问题‑答案对子集中的无效问题和相应答案进行编码包括:采用所述多个功能码对所述无效问题‑答案对子集中的无效问题和相应答案进行对齐预处理;

采用所述预设词典对预处理之后的无效问题和相应答案进行编码。

4.根据权利要求3所述的方法,其中,所述至少将所述编码器的隐藏层的输出作为第一分类层的输入进行分类,并基于交叉熵损失函数训练得到初始编码器包括:将所述开始功能码和所述结束功能码所对应的隐藏层输出进行拼接;

将拼接结果输入至第一分类层得到第一分类结果;

基于所述第一分类结果以第一交叉熵损失函数为目标来训练得到所述初始编码器。

5.根据权利要求4所述的方法,其中,所述采用所述训练样本集对所述初始编码器和所述解码器进行联合训练包括:将所述训练样本集中的训练样本输入至所述初始编码器;

将所述解码器的输出输入至第二分类层得到第二分类结果;

确定对应于所述第二分类结果第二交叉熵损失函数;

以所述第一交叉熵损失函数和所述第二交叉熵损失函数为目标函数进行联合训练。

6.一种人机对话方法,包括:

接收用户输入语句;

基于采用权利要求1‑5中任一项所述的方法训练得到的人机对话模型生成对应于所述用户输入语句的回复语句。

7.一种人机对话系统,包括采用权利要求1‑5中任一项所述的方法训练得到的人机对话模型。

8.一种电子设备,其包括:至少一个处理器,以及与所述至少一个处理器通信连接的存储器,其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求6所述方法的步骤。

9.一种存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时实现权利要求6所述方法的步骤。

说明书 :

人机对话模型训练方法、人机对话方法及系统

技术领域

[0001] 本发明涉及人机对话技术领域,尤其涉及一种人机对话模型训练方法、人机对话方法及系统。

背景技术

[0002] 当前,人机对话技术已经开始广泛地应用到人们的生活中,比如车载语音,外呼系统,智能音箱等等。但是,现在的人机闲聊技术还达不到像人一样“对答如流”,问答系统如何精细的处理“没有准备的问题”是影响用户体验的最大难题之一。例如,语音对话中同音词导致的问题“功课的公式哪个宫”,噪音导致的问题“八八八八八八一”,被要求做力所不及的事情“给我打开窗帘”等等。
[0003] 基于匹配技术的问答系统面对上述问题,一般采用简单粗暴的方式,即匹配不到对应的问题,一律采用盲区回复,例如“这个问题我不知道”。基于匹配的问答系统最大的优势是准确性高,能很好的回复“准备好”的问题,缺点是覆盖面小,总是回复“我不知道”会影响用户的直接体验。
[0004] 还有一种问答系统是基于生成式神经网络的问答系统,通过训练好的神经网络模型和用户输入,“计算”出回复内容,输出给用户。这种方式的好处是覆盖面广,付出较低的成本,就可以回复用户的各种问题。缺点是某些问题回复不准确,尤其是在语义上难以理解的问题,系统回复往往“断章取义”,影响用户体验,例如下表1所示:
[0005] 表1
[0006] 用户输入 系统回复功课的公式哪个宫 小主人,要好好做功课啊
八八八八八八一 八一建军节
给我打开窗帘 小主人不要打我啊

发明内容

[0007] 本发明实施例提供一种人机对话模型训练方法、人机对话方法及系统,用于至少解决上述技术问题之一。
[0008] 第一方面,本发明实施例提供一种人机对话模型训练方法,所述人机对话模型包括编码器和解码器,所述方法包括:
[0009] 预先构建训练样本集,所述训练样本集至少基于有效问题‑答案对子集和无效问题‑答案对子集构成;
[0010] 采用所述训练样本集对所述编码器进行预训练得到初始编码器;
[0011] 采用所述训练样本集对所述初始编码器和所述解码器进行联合训练。
[0012] 第二方面,本发明实施例还提供一种人机对话方法,包括:
[0013] 接收用户输入语句;
[0014] 基于采用本发明任一实施例所述的人机对话模型训练方法训练得到的人机对话模型生成对应于所述用户输入语句的回复语句。
[0015] 第三方面,本发明实施例还提供一种人机对话系统,包括本发明任一实施例所述的人机对话模型训练方法训练得到的人机对话模型。
[0016] 第四方面,本发明实施例提供一种存储介质,所述存储介质中存储有一个或多个包括执行指令的程序,所述执行指令能够被电子设备(包括但不限于计算机,服务器,或者网络设备等)读取并执行,以用于执行本发明上述任一项人机对话方法。
[0017] 第五方面,提供一种电子设备,其包括:至少一个处理器,以及与所述至少一个处理器通信连接的存储器,其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行本发明上述任一项人机对话方法。
[0018] 第六方面,本发明实施例还提供一种计算机程序产品,所述计算机程序产品包括存储在存储介质上的计算机程序,所述计算机程序包括程序指令,当所述程序指令被计算机执行时,使所述计算机执行上述任一项人机对话方法。
[0019] 本发明实施例的有益效果在于:通过将无效问题融入到训练样本集中,并且基于该训练样本集对编码器进行预训练,使得训练得到的初始编码器学习到了需要进行特殊回复无效问题的特征,进一步基于训练样本集对初始编码器和解码器进行联合训练,从而得到了能够针对需要进行特殊回复的无效问句生成合适答复内容的人机对话模型。

附图说明

[0020] 为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
[0021] 图1为本发明的人机对话模型训练方法的一实施例的流程图;
[0022] 图2为本发明的人机对话模型训练方法的另一实施例的流程图;
[0023] 图3为本发明的人机对话模型训练方法的又一实施例的流程图;
[0024] 图4为本发明的电子设备的一实施例的结构示意图。

具体实施方式

[0025] 为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
[0026] 需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。
[0027] 本发明可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、元件、数据结构等等。也可以在分布式计算环境中实践本发明,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
[0028] 在本发明中,“模块”、“装置”、“系统”等指应用于计算机的相关实体,如硬件、硬件和软件的组合、软件或执行中的软件等。详细地说,例如,元件可以、但不限于是运行于处理器的过程、处理器、对象、可执行元件、执行线程、程序和/或计算机。还有,运行于服务器上的应用程序或脚本程序、服务器都可以是元件。一个或多个元件可在执行的过程和/或线程中,并且元件可以在一台计算机上本地化和/或分布在两台或多台计算机之间,并可以由各种计算机可读介质运行。元件还可以根据具有一个或多个数据包的信号,例如,来自一个与本地系统、分布式系统中另一元件交互的,和/或在因特网的网络通过信号与其它系统交互的数据的信号通过本地和/或远程过程来进行通信。
[0029] 最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”,不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
[0030] 在人机闲聊对话过程中,机器人无条件接收用户提问,并做出回复,但是用户经常说出一些“疑难”问句,比如“我家有一把O不胜的”。这些“疑难”问句,往往导致机器人做出错误回答、“盲区”回答,或者多余回答等,大大影响了用户使用体验。
[0031] 本发明针对生成式神经网络问答系统,提出了一套“特殊”问句优化方法,使问答机器人能够自然地应对这些“疑难”问句。本发明公开了一种人机对话模型训练方法、人机对话方法及系统。人机对话系统可以实现为一种基于生成式神经网络闲聊问答系统,该系统包括本发明实施例的人机对话模型,并执行本发明实施例的人机对话方法。
[0032] 如图1所示,本发明的实施例提供一种人机对话模型训练方法,所述人机对话模型包括编码器和解码器,所述方法包括:
[0033] S10、预先构建训练样本集,所述训练样本集至少基于有效问题‑答案对子集和无效问题‑答案对子集构成;
[0034] 示例性地,可以根据业务需要以及业务领域收集可能会出现的无效问题‑答案对用于构建无效问题‑答案对子集。
[0035] S20、采用所述训练样本集对所述编码器进行预训练得到初始编码器;
[0036] 示例性地,将所述训练样本集中的训练样本输入至编码器中,并采用交叉熵损失函数来优化编码器的参数,以学习到无效问题的特征,进而得到初始编码器。
[0037] 示例性地,将所述训练样本集中的训练样本输入至所述编码器;至少将所述编码器的隐藏层的输出作为第一分类层的输入进行分类,并基于第一交叉熵损失函数训练得到初始编码器。
[0038] S30、采用所述训练样本集对所述初始编码器和所述解码器进行联合训练。示例性地,将所述训练样本集中的训练样本输入至所述编码器;将所述解码器的输出输入至第二分类层得到第二分类结果;确定对应于所述第二分类结果第二交叉熵损失函数;以所述第一交叉熵损失函数和所述第二交叉熵损失函数为目标函数进行联合训练。
[0039] 本发明实施例通过将无效问题融入到训练样本集中,并且基于该训练样本集对编码器进行预训练,使得训练得到的初始编码器学习到了需要进行特殊回复无效问题的特征,进一步基于训练样本集对初始编码器和解码器进行联合训练,从而得到了能够针对需要进行特殊回复的无效问句生成合适答复内容的人机对话模型。
[0040] 如图2所示,为本发明的人机对话模型训练方法的另一实施例的流程图,在该实施例中,所述预先构建训练样本集包括:
[0041] S11、为所述有效问题‑答案对子集中的有效问题配置有效问句编码。
[0042] S12、将所述无效问题‑答案对子集中的无效问题划分为多种类型,并且相应的配置多个无效问句编码。
[0043] 示例性地,所述无效问题‑答案对子集中的答案采用多种预定字符串,所述多种预定字符串的种类与所述无效问句编码的数量相当。
[0044] S13、根据预设词典对所述有效问题‑答案对子集中的有效问题和相应答案进行编码。
[0045] S14、根据预设词典对所述无效问题‑答案对子集中的无效问题和相应答案进行编码。
[0046] 示例性地,所述预设词典中包括多个功能码和无效问句标识,所述多个功能码和所述无效问句标识各自配置有设定编号。
[0047] 在一些实施例中,所述多个功能码包括开始功能码、结束功能码、对齐功能码和替换功能码;
[0048] 所述根据预设词典对所述有效问题‑答案对子集中的有效问题和相应答案进行编码包括:采用所述多个功能码对所述有效问题‑答案对子集中的有效问题和相应答案进行对齐预处理;采用所述预设词典对预处理之后的有效问题和相应答案进行编码;
[0049] 所述根据预设词典对所述无效问题‑答案对子集中的无效问题和相应答案进行编码包括:采用所述多个功能码对所述无效问题‑答案对子集中的无效问题和相应答案进行对齐预处理;采用所述预设词典对预处理之后的无效问题和相应答案进行编码。
[0050] 如图3所示,为本发明的人机对话模型训练方法的另一实施例的流程图,在该实施例中所述至少将所述编码器的隐藏层的输出作为第一分类层的输入进行分类,并基于交叉熵损失函数训练得到初始编码器包括:
[0051] S21、将所述开始功能码和所述结束功能码所对应的隐藏层输出进行拼接;
[0052] S22、将拼接结果输入至第一分类层得到第一分类结果;
[0053] S23、基于所述第一分类结果以第一交叉熵损失函数为目标来训练得到所述初始编码器。
[0054] 在一些实施例中,本发明还提供一种人机对话方法,包括:接收用户输入语句;基于本发明任一实施例所述的人机对话模型训练方法训练得到的人机对话模型生成对应于所述用户输入语句的回复语句。
[0055] 在一些实施例中,本发明还提供一种人机对话系统,包括本发明任一实施例所述的人机对话模型训练方法训练得到的人机对话模型。
[0056] 本发明在生成式神经网络问答系统的基础上,通过改进神经网络和训练流程,使得神经网络可以识别问题类型,并对不同类型问题做出相应的回复策略。生成式神经网络目前在翻译领域应用广泛,采用的算法架构一般为编码‑解码(Encode‑Decode)架构,例如,Transformer和Seq2Seq算法。
[0057] 本发明在编码端顶部加入分类器,让编码网络学习需要特殊回复的语句特征;另外,在解码端,强制给特殊类别的问句设置特殊的解码目标(例如,[invalid1],[invalid2]等)。最终训练得到能够识别“特殊”问句的问答系统,并对这些“特殊”问句给予不同的回复策略,使得问答系统更加“智能”。具体实现步骤如下。
[0058] 1、训练集准备
[0059] 1.1、正常问题‑回复
[0060] 使用以前训练问答系统的问答对数据集即可,数据举例如下表2:
[0061] 表2
[0062]Q A class
你今天开心吗 开心啊 0
你挑食吗? 我不挑食 0
... ... ...
[0063] 上述表2中,Q表示输入的问题,A表示系统回复,class表示对问题的分类。
[0064] 1.2、无效问题‑回复
[0065] 根据业务需要收集需要做出特殊回答的问题,例如:人无法理解其意思的问句,业务内不关心的领域等等。这类问题的回复内容,使用可区分的特殊符号表示即可,数据举例如下表3:
[0066] 表3
[0067]
[0068]
[0069] 上述表3中,Q表示输入的问题,A表示系统回复,class表示对问题的分类。上面的例子中使用[invalid]这个特殊符号,表示系统的回复内容,在词库中,也把这个符号作为一个整体提供对应编号。
[0070] 1.3、词库构建
[0071] 训练词库也即“字典”,是用来表示问答系统可支持的词语范围,特殊符号包含[PAD]、[BOS]、[EOS]、[UNK],以及[invalid],举例如下表4:
[0072] 表4
[0073]词语 编号 描述
[PAD] 0 用于数据长度补齐,实现数据对齐
[BOS] 1 每个句子开头
[EOS] 2 每个句子结尾
[UNK] 3 出现不在词库中的词语时,用它来替换
[invalid] 4 无效问句的标识
你 5 正常词语
... ... ...
[0074] 2、预训练Encode
[0075] 2.1、数据预处理
[0076] 将表2和表3中的数据合并,并随机打乱,但依然保持每条数据的Q‑A‑class的对应关系,整体合并后的数据集为D。设置模型数据包大小(Batch_Size)为B(下表5中以B=4为例),同一个数据包(Batch)所有的Q的长度相同以及所有的A的长度相同,长度不足用[PAD]补齐。使用1.3中的词库对数据集D中的Q和A进行编号,预处理之后的数据集D的最终形式举例如下表5:
[0077] 表5
[0078]
[0079]
[0080] 2.2、Encode输入
[0081] Encode的输入为表5中的Q_id。某些模型框架可能要求训练数据中所有输入的序列长度必须一致,那么直接在Q_id的基础上加[PAD]即可。
[0082] 2.3、Encode输出
[0083] 将[BOS]和[EOS]位置上的Encode隐藏层输出拼接在一起记为Cat‑logits,然后输入一个分类层(比如Softmax),分类个数与class数量一致。记output1=Softmax(Cat‑logits)。
[0084] 示例性地,Encode隐藏层输出就是Encode的输出,例如Encode的输入是[1,11,12,13,2,0],输出是[[1的特征向量],[11的特征向量],[12的特征向量],[13的特征向量],[2的特征向量],[0的特征向量]]。
[0085] [BOS]位置上的隐藏层输出就是[1的特征向量],[EOS]位置上的隐藏层输出就是[2的特征向量]。拼接就是[1的特征向量],[2的特征向量]合并成一个长向量,比如[1的特征向量]=[0.1,0.2,03,0.4],[2的特征向量]=[0.5,0.6,0.7,0.8],拼接后为[0.1,0.2,03,0.4,0.5,0.6,0.7,0.8]。
[0086] 2.4、Encode预训练
[0087] 将2.3中output1与class输入交叉熵损失函数,即
[0088] Loss1=cross_entropy(output1,class)
[0089] 然后迭代训练,只更新Encode参数。迭代到最大预训练步数后停止预训练。
[0090] 将预训练得到的Encode参数作为后续整体模型训练的初始值。
[0091] 3、训练生成模型
[0092] 3.1、模型输入
[0093] 与2.2一致。
[0094] 3.2、模型输出
[0095] Decode输出记为D‑logits,输入一个分类层(比如Softmax),分类个数与1.3中词库大小一致,记ouput2=Softmax(D‑logits)。另外在训练过程中,outputs1也同时输出。
[0096] 3.3、模型训练
[0097] 将ouput2与A_id输入交叉熵损失函数,即
[0098] Loss2=cross_entropy(output2,A_id)
[0099] 整个模型的总的损失函数为
[0100] Loss=Loss1+Loss2
[0101] 整个模型以Loss为目标函数进行训练。
[0102] 4、模型预测
[0103] 模型训练完成后,对正常语句的输出几乎没有影响,但增加了对特殊语句的应变能力。根据业务需要,可以对[invaild1][invalid2]...进行二次映射,使得系统回复更加符合自然语言对话。举例如下表6:
[0104] 表6
[0105]
[0106]
[0107] 示例性地,二次映射指的是,如果神经网络回复[invalid1],那么人工设置[invalid1]对应的若干回复(就是二次映射),比如,[invalid1]随机选择一种回复给用户[“对不起,这个问题我没有听清”,“抱歉,请换个说法”...];[invalid2]随机选择一种回复给用户[“这个我还不会”,”小主人,你动动手指就完成啦,不要太依赖我啦。”...]。
[0108] 本发明对生成式神经网络的改进和训练流程调整,使得神经网络学习到需要特殊处理的问题的特征,从而获得相应的应变能力。
[0109] 需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作合并,但是本领域技术人员应该知悉,本发明并不受所描述的动作顺序的限制,因为依据本发明,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本发明所必须的。在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
[0110] 在一些实施例中,本发明实施例提供一种非易失性计算机可读存储介质,所述存储介质中存储有一个或多个包括执行指令的程序,所述执行指令能够被电子设备(包括但不限于计算机,服务器,或者网络设备等)读取并执行,以用于执行本发明上述任一项人机对话方法。
[0111] 在一些实施例中,本发明实施例还提供一种计算机程序产品,所述计算机程序产品包括存储在非易失性计算机可读存储介质上的计算机程序,所述计算机程序包括程序指令,当所述程序指令被计算机执行时,使所述计算机执行上述任一项人机对话方法。
[0112] 在一些实施例中,本发明实施例还提供一种电子设备,其包括:至少一个处理器,以及与所述至少一个处理器通信连接的存储器,其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行人机对话方法。
[0113] 在一些实施例中,本发明实施例还提供一种存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现人机对话方法。
[0114] 图4是本申请另一实施例提供的执行人机对话方法的电子设备的硬件结构示意图,如图4所示,该设备包括:
[0115] 一个或多个处理器410以及存储器420,图4中以一个处理器410为例。
[0116] 执行人机对话方法的设备还可以包括:输入装置430和输出装置440。
[0117] 处理器410、存储器420、输入装置430和输出装置440可以通过总线或者其他方式连接,图4中以通过总线连接为例。
[0118] 存储器420作为一种非易失性计算机可读存储介质,可用于存储非易失性软件程序、非易失性计算机可执行程序以及模块,如本申请实施例中的人机对话方法对应的程序指令/模块。处理器410通过运行存储在存储器420中的非易失性软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例人机对话方法。
[0119] 存储器420可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据人机对话装置的使用所创建的数据等。此外,存储器420可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实施例中,存储器420可选包括相对于处理器410远程设置的存储器,这些远程存储器可以通过网络连接至人机对话装置。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
[0120] 输入装置430可接收输入的数字或字符信息,以及产生与人机对话装置的用户设置以及功能控制有关的信号。输出装置440可包括显示屏等显示设备。
[0121] 所述一个或者多个模块存储在所述存储器420中,当被所述一个或者多个处理器410执行时,执行上述任意方法实施例中的人机对话方法。
[0122] 上述产品可执行本申请实施例所提供的方法,具备执行方法相应的功能模块和有益效果。未在本实施例中详尽描述的技术细节,可参见本申请实施例所提供的方法。
[0123] 本申请实施例的电子设备以多种形式存在,包括但不限于:
[0124] (1)移动通信设备:这类设备的特点是具备移动通信功能,并且以提供话音、数据通信为主要目标。这类终端包括:智能手机(例如iPhone)、多媒体手机、功能性手机,以及低端手机等。
[0125] (2)超移动个人计算机设备:这类设备属于个人计算机的范畴,有计算和处理功能,一般也具备移动上网特性。这类终端包括:PDA、MID和UMPC设备等,例如iPad。
[0126] (3)便携式娱乐设备:这类设备可以显示和播放多媒体内容。该类设备包括:音频、视频播放器(例如iPod),掌上游戏机,电子书,以及智能玩具和便携式车载导航设备。
[0127] (4)服务器:提供计算服务的设备,服务器的构成包括处理器、硬盘、内存、系统总线等,服务器和通用的计算机架构类似,但是由于需要提供高可靠的服务,因此在处理能力、稳定性、可靠性、安全性、可扩展性、可管理性等方面要求较高。
[0128] (5)其他具有数据交互功能的电子装置。
[0129] 以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
[0130] 通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对相关技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
[0131] 最后应说明的是:以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。