一种基于深度学习的端到端目标引导型对话方法转让专利

申请号 : CN201810967833.3

文献号 : CN110858215A

文献日 :

基本信息:

PDF:

法律信息:

相似专利:

发明人 : 叶志豪廖朝辉蔡瑞初崔洪刚张袁震宇

申请人 : 广东工业大学

摘要 :

本发明涉及自然语言处理技术领域,具体涉及一种基于深度学习的端到端目标引导型对话方法,包括如下步骤:S1:获取上一轮用户对话和当前对话历史,根据上一轮用户对话和当前对话历史初始化序列到序列模型;S2:确定当前知识库实体的行号;S3:确定当前知识库实体的列号;S4:通过注意力机制的得到最佳匹配实体;S5:迭代执行步骤S2-S4直至最终输出下一轮对话。本发明克服了现有的端到端的对话对话效率低下,影响用户的个性化体验的技术缺陷,通过自然语言对话的精准度,提供良好的用户服务。

权利要求 :

1.一种基于深度学习的端到端目标引导型对话方法,其特征在于,所述方法包括如下步骤:S1:获取上一轮用户对话和当前对话历史,根据上一轮用户对话和当前对话历史初始化序列到序列模型;

S2:确定当前知识库实体的行号;

S3:确定当前知识库实体的列号;

S4:通过注意力机制的得到最佳匹配实体;

S5:迭代执行步骤S2-S4直至最终输出下一轮对话。

2.根据权利要求1所述的基于深度学习的端到端目标引导型对话方法,其特征在于,所述序列到序列模型包括编码器和解码器。

3.根据权利要求2所述的基于深度学习的端到端目标引导性对话方法,其特征在于,所述编码器在给定对话历史和用户上一轮对话之后,编码器对输出内容进行编码抽象,得到上个上下文向量,并将该上下文向量传送至解码器。

4.根据权利要求2所述的基于深度学习的端到端目标引导型对话方法,其特征在于,所述解码器接收编码器传送的上下文向量,并从词库中生成相对应的下一个词。

5.根据权利要求2所述的基于深度学习的端到端目标引导型对话方法,其特征在于,所述S2具体步骤为:S2.1:编码器对上一轮用户对话及当前对话历史进行编码,得到隐含向量和解码器当前隐含向量,并计算相似度向量;

S2.2:采用softmax对S2.1得到的相似度向量计算得到注意力权重;

S2.3:得到编码器当前的上下文向量,采用注意力权重与隐含向量相乘得到;

S2.4:建立一个多层神经网络并对其进行训练;

S2.5:根据训练得到的多层神经网络进行行的分类。

6.根据权利要求1所述的基于深度学习的端到端目标引导型对话方法,其特征在于,所述S3具体步骤为:S3.1:根据每一列的知识实体向量和解码器的当前隐含向量计算相似度向量;

S3.2:对S3.1得到的相似度向量,根据softmax计算注意力权重得分;

S3.3:根据注意力权重得分与每一列的知识实力向量相乘得到知识实体的列的分类。

7.根据权利要求1所述的基于深度学习的端到端目标引导型对话方法,其特征在于,所述注意力机制通过计算解码状态与知识实体之的相关程度,得到隐层向量的权重。

说明书 :

一种基于深度学习的端到端目标引导型对话方法

技术领域

[0001] 本发明涉及自然语言处理技术领域,具体涉及一种基于深度学习的端到端目标引导型对话方法。

背景技术

[0002] 随着深度学习的近几年的发展,端到端的目标引导型对话系统的效果慢慢提高,在我们工作中也是一个端到端的对话系统模型,在端到端的模型中,输入用户的对话直接可以输出系统的回复,而不用经过不同模块之间的显示的转换。
[0003] 而现有特定领域的多轮对话任务,主要用的是序列到序列的模型,根据序列到序列的模型生成的对话的准确度低,不能给用户准确可靠的回答。对于特定领域的多轮对话任务,一个重要的衡量指标就是根据用于给出答复时,系统能不能根据当前用户的询问以及当前数据知识的内容,回复带有知识实体的准确的回答。因而现有的多轮对话端到端系统的知识查询没有很好的效果,对话效率低下,影响了用户的个性化体验。

发明内容

[0004] 本发明克服了上述现有的端到端对话问答模式的对话效率地低下、精准度低技术缺陷,提供了一种基于深度学习的端到端目标引导型对话方法及系统,提出了对知识库表先定行后定列的查询机制。
[0005] 为解决上述技术问题,本发明的技术方案如下:
[0006] 一种基于深度学习的端到端目标引导型对话方法,包括如下步骤:
[0007] S1:获取上一轮用户对话和当前对话历史,根据上一轮用户对话和当前对话历史初始化序列到序列模型;
[0008] S2:确定当前知识库实体的行号;
[0009] S3:确定当前知识库实体的列号;
[0010] S4:通过注意力机制的得到最佳匹配实体;
[0011] S5:迭代执行步骤S2-S4直至最终输出下一轮对话。
[0012] 序列到序列模型包括编码器和解码器,编码器在给定对话历史和用户上一轮对话之后,编码器对输出内容进行编码抽象,得到上个上下文向量,并将该上下文向量传送至解码器;解码器接收编码器传送的上下文向量,并从词库中生成相对应的下一个词。
[0013] 其中,S2具体步骤为:
[0014] S2.1:编码器对上一轮用户对话及当前对话历史进行编码,得到隐含向量和解码器当前隐含向量,并计算相似度向量;
[0015] S2.2:采用softmax对S2.1得到的相似度向量计算得到注意力权重;
[0016] S2.3:得到编码器当前的上下文向量,采用注意力权重与隐含向量相乘得到;
[0017] S2.4:建立一个多层神经网络并对其进行训练;
[0018] S2.5:根据训练得到的多层神经网络进行行的分类。
[0019] 其中,S3具体步骤为:
[0020] S3.1:根据每一列的知识实体向量和解码器的当前隐含向量计算相似度向量;
[0021] S3.2:对S3.1得到的相似度向量,根据softmax计算注意力权重得分;
[0022] S3.3:根据注意力权重得分与每一列的知识实力向量相乘得到知识实体的列的分类。
[0023] 注意力机制通过计算解码状态与知识实体之的相关程度,得到隐层向量的权重。
[0024] 与现有技术相比,本发明的技术方案的有益效果为:提高对话效率、对话精准度,提升用户的个性化体验。

附图说明

[0025] 图1为本发明的方法原理流程图。

具体实施方式

[0026] 附图仅用于示例性说明,不能理解为对本专利的限制;
[0027] 为了更好说明本实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;
[0028] 对于本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
[0029] 下面结合附图和实施例对本发明的技术方案做进一步的说明。
[0030] 实施例1:
[0031] 参见图1,一种基于深度学习的端到端目标引导型对话方法,包括如下步骤:
[0032] S1:获取上一轮用户对话和当前对话历史,根据上一轮用户对话和当前对话历史初始化序列到序列模型;
[0033] S2:确定当前知识库实体的行号;
[0034] S3:确定当前知识库实体的列号;
[0035] S4:通过注意力机制的得到最佳匹配实体;
[0036] S5:迭代执行步骤S2-S4直至最终输出下一轮对话。
[0037] 序列到序列模型包括编码器和解码器,编码器在给定对话历史和用户上一轮对话之后,编码器对输出内容进行编码抽象,得到上个上下文向量,并将该上下文向量传送至解码器;解码器接收编码器传送的上下文向量,并从词库中生成相对应的下一个词。
[0038] 对于编码器,
[0039] ht=f(ht-1,xt),t=1,...,Tx
[0040]
[0041] 其中,其中x表示输入,t表示时间步,h表示每一个时间步的编码状态,c表示上下文向量;
[0042] 对于解码器,
[0043] h0=tanh(V’c)
[0044] ht=f(ht-1,yt-1,c),t=1,...,Tx
[0045] p(yt|yt-1,yt-2,...,y1,c)=g(ht,yt-1,c)
[0046] 其中,其中y表示当前生成词表示输入,t表示时间步,h表示每一个时间步的解码状态,c表示编码器上下文向量。
[0047] 其中,S2具体步骤为:
[0048] S2.1:编码器对上一轮用户对话及当前对话历史进行编码,得到隐含向量和解码器当前隐含向量,并计算相似度向量;
[0049] S2.2:采用softmax对S2.1得到的相似度向量计算得到注意力权重;
[0050] S2.3:得到编码器当前的上下文向量,采用注意力权重与隐含向量相乘得到;
[0051] S2.4:建立一个多层神经网络并对其进行训练;
[0052] S2.5:根据训练得到的多层神经网络进行行的分类。
[0053] 其中,S3具体步骤为:
[0054] S3.1:根据每一列的知识实体向量和解码器的当前隐含向量计算相似度向量;
[0055] S3.2:对S3.1得到的相似度向量,根据softmax计算注意力权重得分;
[0056] S3.3:根据注意力权重得分与每一列的知识实力向量相乘得到知识实体的列的分类。
[0057] 对于S4中注意力机制通过计算解码状态与知识实体之的相关程度,得到隐层向量的权重。
[0058]
[0059]
[0060] eij就表示第i个target与第j个隐层向量hj之间的相关性。
[0061] 附图中描述位置关系的用语仅用于示例性说明,不能理解为对本专利的限制;
[0062] 显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。