一种结合属性信息的实体多分类方法转让专利

申请号 : CN201910041484.7

文献号 : CN109919175B

文献日 :

基本信息:

PDF:

法律信息:

相似专利:

发明人 : 鲁伟明陆海蛟吴飞庄越挺

申请人 : 浙江大学

摘要 :

本发明公开了一种结合属性信息的实体多分类方法。实体分类任务的目的是对一个实体结合其上下文信息赋予合适的类别标签。在实体多分类任务中,实体的类别标签仅有一个,通过分类模型预测类别标签概率,将概率最大的标签作为实体的类别。本发明基于传统的实体分类方法,结合知识库实体的属性信息,利用深度学习方法分别对实体、属性以及上下文进行特征表示,其中实体表示包括词汇和字符级别两种特征,上下文特征表示引入了实体感知的注意力机制。此外,通过实体和属性特征的联合训练,避免预测阶段需要引入属性信息。最后,综合利用实体和上下文特征实现实体多分类。本方法通过引入属性信息作为额外特征,提高的实体多分类的效果。

权利要求 :

1.一种结合属性信息的实体多分类方法,其特征在于,包括以下步骤:(1)使用循环神经网络表示实体字符级别特征,使用平均编码器表示实体词汇级别初步特征;

(2)使用双向LSTM表示上下文初步特征,并结合上下文初步特征和实体词汇级别初步特征得到实体词汇级别的更新特征和最终特征,然后结合实体字符级别特征和实体词汇级别最终特征得到实体最终特征;

(3)使用实体感知的注意力机制得到上下文最终特征;

(4)使用Max-pooling方式表示实体的属性特征,并联合实体词汇级别的更新特征构建实体-属性的cosine相似度损失函数;

(5)融合步骤(2)得到的实体最终特征和步骤(3)得到的上下文最终特征实现实体多分类,并构建交叉熵损失函数,最后联合步骤(4)得到的实体-属性损失函数进行优化训练。

2.根据权利要求1所述的结合属性信息的实体多分类方法,其特征在于,所述步骤(1)包括以下子步骤:

1.1)对语料中所有字符c建立字符表Vc,使用随机初始化表示字符对应的向量,字符向量维度为dc,字符向量的映射函数uc表示为

1.2)使用循环神经网络RNN表示实体字符级别特征;设实体的字符序列表示echar=[c1,c2,…,cm],则字符级别特征为:hi=f(Wcuc(ci)+Uchi-1)

ec=tanh(hm)

其中:ci、uc(ci)和hi分别表示i时刻的输入字符、字符的向量表示和隐层状态向量,m为实体的字符序列长度,Wc、Uc为RNN的权重矩阵,并将RNN最后一次输出的向量作为最终实体字符级别特征

1.3)设语料中所有词汇组成的词表为Vw,词向量维度为dw,词向量的映射函数u表示为设实体的词序列表示emention=[e1,e2,…,en],则词汇级别初步特征利用平均编码器表示如下:

其中:u(ei)表示第i个词汇的向量表示,n为实体的词汇序列长度;实体词汇级别初步特征

3.根据权利要求1所述的结合属性信息的实体多分类方法,其特征在于,所述步骤(2)包括以下子步骤:

2.1)使用双向LSTM表示上下文初步特征,其中LSTM可以表示为:it=σ(Wi[ht-1;xt]+bi)

ft=σ(Wf[ht-1;xt]+bf)

ot=σ(Wo[ht-1;xt]+bo)

ht=ot⊙tanh(ct)

其中:xt表示t时刻输入向量,ht-1,ht分别是上一时刻和当前时刻的隐层状态向量,ct-1,ct分别是上一时刻和当前时刻的cell状态向量, 是当前时刻cell的更新状态向量,Wr,br是 的参数,Wi,bi是输入门it的参数,Wf,bf是遗忘门ft的参数,Wo,bo是输出门ot的参数;σ表示sigmoid函数,⊙表示对应元素之间逐对相乘,[ht-1;xt]表示ht-1和xt进行向量拼接;

2.2)对于长度为C的左上下文contextleft=[lC,lC-1,…,l2,l1],应用双向LSTM得到编码序列为 其中每个输出由正向和反向序列LSTM隐层状态向量组成

2.3)对于长度为C的右上下文contextright=[r1,r2,…,rC],应用双向LSTM得到编码序列为 其中每个输出由正向和反向序列LSTM隐层状态向量组成

2.4)结合上下文初步特征和实体词汇级别初步特征,实体词汇级别更新特征 和最终特征 分别表示为:T

其中: 和 分别是左右上下文信息经过双向LSTM网络的最后一个输出状态,We、v 均为训练的参数;

2.5)结合实体字符级别特征ec和实体词汇级别最终特征 实体最终特征e表示为

4.根据权利要求1所述的结合属性信息的实体多分类方法,其特征在于,所述步骤(3)中,应用实体感知的注意力机制,将实体信息作为上下文权重计算的输入之一,最终对所有的输出进行加权表示,得到上下文最终特征,具体为:

3.1)经双向LSTM得到左上下文编码序列 应用实体感知的注意模型,可表示为:

其中:是左上下文编码序列第i个特征表示, 和 是参数矩阵;

3.2)经双向LSTM得到右上下文编码序列 应用实体感知的注意力模型可表示为:

其中: 是右上下文编码序列第i个特征表示, 和 是参数矩阵;

3.3)结合左上下文最终特征cleft和右上下文最终特征cright,上下文最终特征c表示为c=[cleft;cright]。

5.根据权利要求1所述的结合属性信息的实体多分类方法,其特征在于,所述步骤(4)包括以下子步骤:

4.1)属性分词:实体的属性是知识库中实体属性键值对列表中的键名,因此实体属性列表表示为A=(a1,a2,…,ar),其中每个属性通过中文分词后可以得到多个细粒度词汇,则第i个属性的词汇序列可表示为 序列长度是ni;

4.2)对每个属性使用平均编码器得到属性的向量表示:其中:u(aij)为第i个属性的第j个词汇的向量表示;

4.3)使用max-pooling方式对所有属性的向量表示进行处理,即对所有输入向量同一维度取最大值,得到实体的属性特征a:a=maxpooling([a1,a2,…,ar])

4.4)联合实体词汇级别更新特征 和实体的属性特征a,构建实体-属性的cosine相似度损失函数Ja(θ),表示如下:通过联合训练实体和属性特征表示,可以消除预测阶段需要引入实体的属性信息。

6.根据权利要求1所述的结合属性信息的实体多分类方法,其特征在于,所述步骤(5)包括以下子步骤:

5.1)拼接实体最终特征e和上下文最终特征c得到实体多分类模型最终特征x=[e;c],通过全连接网络后并应用softmax分类器预测每个类别的概率值,最终得到实体的类别概率分布向量其中:Wy是全连接层的参数,用于学习分类特征;

5.2)使用交叉熵作为实体多分类的损失函数Jce(θ):对于有N个类别的多分类问题,t表示真实标签,满足 t是一个0-1表示的二元向量,其中正确类别对应的维度值为1,其余维度0;下标i表示维度序号;

5.3)通过实体-属性的cosine相似度损失函数Ja(θ)和交叉熵损失函数Jce(θ),得到联合的损失函数J(θ)为其中:λa是属性信息训练的损失函数权重;

使用梯度下降法对损失函数J(θ)进行优化训练。

说明书 :

一种结合属性信息的实体多分类方法

技术领域

[0001] 本发明涉及实体多分类技术,尤其涉及一种结合属性信息的实体多分类方法。

背景技术

[0002] 实体分类任务的目的是对一个实体结合其上下文信息赋予合适的类别标签。在实体多分类任务中,实体的类别标签仅有一个,通过分类模型预测类别标签概率,将概率最大的标签作为实体的类别。而实体的类别信息能够增强文本中实体的背景信息,有助于许多自然语言处理任务,如问答和阅读理解、知识库构建、实体链接和关系抽取等。
[0003] 传统的实体多分类方法使用手工特征,依赖于专家知识而有一定局限。此外多数实体多分类方法判断实体的类别时仅考虑上下文信息,却忽视了有些句子信息并不充分。本发明提出了结合属性信息表示实体的深度学习模型,以便充分利用知识库中实体属性信息提供的丰富背景知识。同时考虑测试数据中实体属性信息可能缺失,本发明提出的模型通过联合训练属性和实体表示,从而避免预测阶段需要属性信息。此外,模型中还应用了字符级别信息表示实体的形态学和词形特征,并使用实体感知的注意力机制表示上下文特征。

发明内容

[0004] 本发明利用实体的文本信息以及知识库中属性列表信息,克服了现有方法忽视知识库信息以及实体上下文信息不充分的缺陷,提高实体多分类的效果,提供一种结合属性信息的实体多分类方法。
[0005] 本发明解决其技术问题采用的技术方案如下:一种结合属性信息的实体多分类方法,包括以下步骤:
[0006] (1)使用循环神经网络表示实体字符级别特征,使用平均编码器表示实体词汇级别初步特征;
[0007] (2)使用双向LSTM表示上下文初步特征,并结合上下文初步特征和实体词汇级别初步特征得到实体词汇级别的更新特征和最终特征,然后结合实体字符级别特征和实体词汇级别最终特征得到实体最终特征;
[0008] (3)使用实体感知的注意力机制得到上下文最终特征;
[0009] (4)使用Max-pooling方式表示实体的属性特征,并联合实体词汇级别的更新特征构建实体-属性的cosine相似度损失函数;
[0010] (5)融合步骤(2)得到的实体最终特征和步骤(3)得到的上下文最终特征实现实体多分类,并构建交叉熵损失函数,最后联合步骤(4)得到的实体-属性损失函数进行优化训练。
[0011] 进一步地,所述步骤(1)包括:
[0012] 1.1)对语料中所有字符c建立字符表Vc,使用随机初始化表示字符对应的向量,字符向量维度为dc,字符向量的映射函数uc表示为
[0013] 1.2)使用循环神经网络(Recurrent Neural Network,RNN)表示实体字符级别特征。设实体的字符序列表示echar=[c1,c2,…,cm],则字符级别特征为:
[0014] hi=f(Wcuc(ci)+Uchi-1)
[0015] ec=tanh(hm)
[0016] 其中:ci、uc(ci)和hi分别表示i时刻的输入字符、字符的向量表示和隐层状态向量,m为实体的字符序列长度,Wc、Uc为RNN的权重矩阵,并将RNN最后一次输出的向量作为最终实体字符级别特征
[0017] 1.3)设语料中所有词汇(包括属性的词汇)组成的词表为Vw,词向量维度为dw,词向量的映射函数u表示为 设实体的词序列表示emention=[e1,e2,…,en],则词汇级别初步特征利用平均编码器表示如下:
[0018]
[0019] 其中:u(ei)表示第i个词汇的向量表示,n为实体的词汇序列长度。实体词汇级别初步特征
[0020] 进一步地,所述步骤(2)包括:
[0021] 2.1)使用双向LSTM(Long Short-Term Memory,长短时记忆网络)表示上下文初步特征,其中LSTM可以表示为:
[0022] it=σ(Wi[ht-1;xt]+bi)
[0023] ft=σ(Wf[ht-1;xt]+bf)
[0024] ot=σ(Wo[ht-1;xt]+bo)
[0025]
[0026]
[0027] ht=ot⊙tanh(ct)
[0028] 其中:xt表示t时刻输入向量,ht-1,ht分别是上一时刻和当前时刻的隐层状态向量,ct-1,ct分别是上一时刻和当前时刻的cell状态向量,是当前时刻cell的更新状态向量,Wr,br是 的参数,Wi,bi是输入门it的参数,Wf,bf是遗忘门ft的参数,Wo,bo是输出门ot的参数。σ表示sigmoid函数,⊙表示对应元素之间逐对相乘,[ht-1;xt]表示ht-1和xt进行向量拼接。
[0029] 2.2)对于长度为C的左上下文contextleft=[lC,lC1,…,l2,l1],应用双向LSTM得到编码序列为 其中每个输出由正向和反向序列LSTM隐层状态向量组成
[0030] 2.3)对于长度为C的右上下文contextright=[r1,r2,…,rC],应用双向LSTM得到编码序列为 其中每个输出由正向和反向序列LSTM隐层状态向量组成
[0031] 2.4)结合上下文初步特征和实体词汇级别初步特征,实体词汇级别更新特征 和最终特征 分别表示为:
[0032]
[0033]
[0034] 其中: 和 分别是左右上下文信息经过双向LSTM网络的最后一个输出状态,We、vT均为训练的参数。
[0035] 2.5)结合实体字符级别特征ec和实体词汇级别最终特征 实体最终特征e表示为[0036] 进一步地,所述步骤(3)中,应用实体感知的注意力机制,将实体信息作为上下文权重计算的输入之一,最终对所有的输出进行加权表示,得到上下文最终特征,具体为:
[0037] 3.1)经双向LSTM得到左上下文编码序列 应用实体感知的注意模型,可表示为:
[0038]
[0039]
[0040]
[0041] 其中: 是左上下文编码序列第i个特征表示, 和 是参数矩阵。
[0042] 3.2)经双向LSTM得到右上下文编码序列 应用实体感知的注意力模型可表示为:
[0043]
[0044]
[0045]
[0046] 其中: 是右上下文编码序列第i个特征表示, 和 是参数矩阵。
[0047] 3.3)结合左上下文最终特征cleft和右上下文最终特征cright,上下文最终特征c表示为c=cleft;cright]。
[0048] 进一步地,所述步骤(4)包括:
[0049] 4.1)属性分词:实体的属性是知识库中实体属性键值对列表中的键名,因此实体属性列表表示为A(a1,a2,…,ar),其中每个属性通过中文分词后可以得到多个细粒度词汇,则第i个属性的词汇序列可表示为 序列长度是ni。
[0050] 4.2)对每个属性使用平均编码器得到属性的向量表示:
[0051]
[0052] 其中:u(aij)为第i个属性的第j个词汇的向量表示。
[0053] 4.3)使用max-pooling方式对所有属性的向量表示进行处理,即对所有输入向量同一维度取最大值,得到实体的属性特征a:
[0054] a=maxpooling([a1,a2,…,ar])
[0055] 4.4)联合实体词汇级别更新特征 和实体的属性特征a,构建实体-属性的cosine相似度损失函数Ja(θ),表示如下:
[0056]
[0057] 通过联合训练实体和属性特征表示,可以消除预测阶段需要引入实体的属性信息。
[0058] 进一步地,所述步骤(5)包括:
[0059] 5.1)拼接实体最终特征e和上下文最终特征c得到实体多分类模型最终特征x=e;c],通过全连接网络后并应用softmax分类器预测每个类别的概率值,最终得到实体的类别概率分布向量
[0060]
[0061] 其中:Wy是全连接层的参数,用于学习分类特征。
[0062] 5.2)使用交叉熵作为实体多分类的损失函数Jce(θ):
[0063]
[0064] 对于有N个类别的多分类问题,t表示真实标签,满足 t是一个0-1表示的二元向量,其中正确类别对应的维度值为1,其余维度0;下标i表示维度序号。
[0065] 5.3)通过实体-属性的cosine相似度损失函数Ja(θ)和交叉熵损失函数Jce(θ),得到联合的损失函数J(θ)为
[0066]
[0067] 其中:λa是属性信息训练的损失函数权重;
[0068] 使用梯度下降法对损失函数J(θ)进行优化训练。
[0069] 本发明所提出的方法与现有的实体多分类方法相比,具有以下优势:
[0070] 1.使用属性信息增强实体表示,并通过实体和属性特征联合训练避免了预测阶段需要属性信息。
[0071] 2.摒弃手工特征,仅利用神经网络构建实体多分类模型,并应用实体字符级别特征和实体感知的注意力机制表示上下文特征。

附图说明

[0072] 图1是本发明提出的结合属性信息的实体多分类模型的示意图;
[0073] 图2是实体多分类模型中实体编码器的示意图;
[0074] 图3是实体多分类模型中属性编码器的示意图;
[0075] 图4是实体编码器和属性编码器中使用的平均编码器示意图;
[0076] 图5是实体多分类中实体字符序列的RNN编码器示意图。

具体实施方式

[0077] 如图1中模型框架所示,结合图2至图5,本发明提出的结合属性信息的实体多分类方法,包括以下步骤:
[0078] (1)使用循环神经网络表示实体字符级别特征,使用平均编码器表示实体词汇级别初步特征,具体步骤如下:
[0079] 1.1)对语料中所有字符c建立字符表Vc,使用随机初始化表示字符对应的向量,字符向量维度为dc,字符向量的映射函数uc表示为
[0080] 1.2)使用循环神经网络(Recurrent Neural Network,RNN)表示实体字符级别特征。设实体的字符序列表示echar=[c1,c2,…,cm],则字符级别特征为:
[0081] hi=f(Wcuc(ci)+Uchi-1)
[0082] ec=tanh(hm)
[0083] 其中:ci、uc(ci)和hi分别表示i时刻的输入字符、字符的向量表示和隐层状态向量,m为实体的字符序列长度,Wc、Uc为RNN的权重矩阵,并将RNN最后一次输出的向量作为最终实体字符级别特征
[0084] 1.3)设语料中所有词汇(包括属性的词汇)组成的词表为Vw,词向量维度为dw,词向量的映射函数u表示为 设实体的词序列表示emention=[e1,e2,…,en],则词汇级别初步特征利用平均编码器表示如下:
[0085]
[0086] 其中:u(ei)表示第i个词汇的向量表示,n为实体的词汇序列长度。实体词汇级别初步特征
[0087] (2)使用双向LSTM表示上下文初步特征,并结合上下文初步特征和实体词汇级别初步特征得到实体词汇级别的更新特征和最终特征,然后结合实体字符级别特征和实体词汇级别最终特征得到实体最终特征,具体步骤如下:
[0088] 2.1)使用双向LSTM表示上下文初步特征,其中LSTM可以表示为:
[0089] it=σ(Wi[ht-1;xt]+bi)
[0090] ft=σ(Wf[ht-1;xt]+bf)
[0091] ot=σ(Wo[ht-1;xt]+bo)
[0092]
[0093]
[0094] ht=ot⊙tanh(ct)
[0095] 其中:xt表示t时刻输入向量,ht-1,ht分别是上一时刻和当前时刻的隐层状态向量,ct-1,ct分别是上一时刻和当前时刻的cell状态向量,是当前时刻cell的更新状态向量,Wr,br是 的参数,Wi,bi是输入门it的参数,Wf,bf是遗忘门ft的参数,Wo,bo是输出门ot的参数。σ表示sigmoid函数,⊙表示对应元素之间逐对相乘,[ht-1;xt]表示ht-1和xt进行向量拼接。
[0096] 2.2)对于长度为C的左上下文contextleft=[lC,lC1,…,l2,l1],应用双向LSTM得到编码序列为 其中每个输出由正向和反向序列LSTM隐层状态向量组成
[0097] 2.3)对于长度为C的右上下文contextright=[r1,r2,…,rC],应用双向LSTM得到编码序列为 其中每个输出由正向和反向序列LSTM隐层状态向量组成
[0098] 2.4)结合上下文初步特征和实体词汇级别初步特征,实体词汇级别更新特征 和最终特征 分别表示为:
[0099]
[0100]
[0101] 其中 和 分别是左右上下文信息经过双向LSTM网络的最后一个输出状态,We、vT均为训练的参数。
[0102] 2.5)结合实体字符级别特征ec和实体词汇级别最终特征 实体最终特征e表示为:
[0103]
[0104] (3)使用实体感知的注意力机制得到上下文最终特征,具体步骤如下:
[0105] 应用实体感知的注意力机制,将实体信息作为上下文权重计算的输入之一,最终对所有的输出进行加权表示,得到上下文最终特征,具体为:
[0106] 3.1)经双向LSTM得到左上下文编码序列 应用实体感知的注意模型,可表示为:
[0107]
[0108]
[0109]
[0110] 其中: 是左上下文编码序列第i个特征表示, 和 是参数矩阵。
[0111] 3.2)经双向LSTM得到右上下文编码序列 应用实体感知的注意力模型可表示为:
[0112]
[0113]
[0114]
[0115] 其中: 是右上下文编码序列第i个特征表示, 和 是参数矩阵。
[0116] 3.3)结合左上下文最终特征cleft和右上下文最终特征cright,上下文最终特征c表示为:
[0117] c=cleft;cright]
[0118] (4)使用Max-pooling方式表示实体的属性特征,并联合实体词汇级别的更新特征构建实体-属性的cosine相似度损失函数,具体步骤如下:
[0119] 4.1)属性分词:实体的属性是知识库中实体属性键值对列表中的键名,因此实体属性列表表示为A(a1,a2,…,ar),其中每个属性通过中文分词后可以得到多个细粒度词汇,则第i个属性的词汇序列可表示为 序列长度是ni。
[0120] 4.2)对每个属性使用平均编码器得到属性的向量表示:
[0121]
[0122] 其中:u(aij)为第i个属性的第j个词汇的向量表示。
[0123] 4.3)使用max-pooling方式对所有属性的向量表示进行处理,即对所有输入向量同一维度取最大值,得到实体的属性特征a:
[0124] a=maxpooling([a1,a2,…,ar])
[0125] 4.4)联合实体词汇级别更新特征 和实体的属性特征a,构建实体-属性的cosine相似度损失函数Ja(θ),表示如下:
[0126]
[0127] 通过联合训练实体和属性特征表示,可以消除预测阶段需要引入实体的属性信息。
[0128] (5)融合步骤(2)得到的实体最终特征和步骤(3)得到的上下文最终特征实现实体多分类,并构建交叉熵损失函数,最后联合步骤(4)得到的实体-属性损失函数进行优化训练,具体步骤如下:
[0129] 5.1)拼接实体最终特征e和上下文最终特征c得到实体多分类模型最终特征x=e;c],通过全连接网络后并应用softmax分类器预测每个类别的概率值,最终得到实体的类别概率分布向量
[0130]
[0131] 其中:Wy是全连接层的参数,用于学习分类特征;
[0132] 5.2)使用交叉熵作为实体多分类的损失函数Jce(θ):
[0133]
[0134] 对于有N个类别的多分类问题,t表示真实标签,满足 t是一个0-1表示的二元向量,其中正确类别对应的维度值为1,其余维度0;下标i表示维度序号。
[0135] 5.3)通过实体-属性的cosine相似度损失函数Ja(θ)和交叉熵损失函数Jce(θ),得到联合的损失函数J(θ)为
[0136]
[0137] 其中:λa是属性信息训练的损失函数权重。
[0138] 使用梯度下降法对损失函数J(θ)进行优化训练。
[0139] 实施例
[0140] 下面结合本技术的方法详细说明该实例实施的具体步骤,如下:
[0141] (1)本实例采用的数据集构建自英文维基百科以及Wikidata数据。利用Wikidata获得属性名,经过清洗获得约24万实体及其属性信息列表。此外建立包括25个标签的实体类别体系,通过远程监督的方法将Wikidata中类别信息为实体标注,并选择维基百科中包含实体的文本作为上下文。最后将数据划分为训练集和测试集,其中训练集数据大小是430389,测试集数据大小是37900。
[0142] (2)选择Tensorflow框架根据上述步骤构建深度学习分类模型,并使用300维的Glove作为词向量,100维的随机初始向量作为字符向量,Adam方法优化训练步骤5.3)中联合损失函数。
[0143] (3)模型的输入包括实体词、实体的字符序列、实体的句子上下文,此外在训练阶段还需要输入实体的属性列表,通过神经网络分别得到实体和上下文特征表示,经过全连接以及softmax分类后将概率值最大的标签作为实体的预测类别。
[0144] (4)模型使用宏平均(包括macro precision,recall,F1)以及正确率(accuracy)依存进行效果评估。
[0145] (5)相关的对比实验包括:
[0146] a.基础模型:本发明提出的模型去除字符级别特征以及属性信息,同时上下文特征表示中未使用实体作为注意力机制的输入;
[0147] b.基础模型+字符级别特征:在基础模型上增加实体的字符级别特征,并将实体的词汇级别特征作为实体感知注意力模型的输入;
[0148] c.基础模型+属性信息特征:在基础模型之上增加属性信息进行联合训练;
[0149] d.完整模型:即本发明提出的模型,包括实体属性信息联合训练以及字符级别特征、实体感知的注意力机制。
[0150] (6)实验结果
[0151] 各个模型的实验结果如下表所示:
[0152]
[0153] 对比上述模型的实体多分类效果,本发明提出的结合属性特征的模型相比基础模型有较大的提升效果,此外实体的字符级别特征对实体多分类也有促进效果。因此,结合属性信息的实体多分类模型能够有效利用知识库中实体属性信息,进而补充上下文信息,对于实体分类任务有良好的使用价值和应用前景。
[0154] 上述具体实施方式用来解释说明本发明,而不是对本发明进行限制,在本发明的精神和权利要求的保护范围内,对本发明作出的任何修改和改变,都落入本发明的保护范围。