一种基于多粒度命名实体识别方法转让专利

申请号 : CN202310897384.0

文献号 : CN116629267B

文献日 :

基本信息:

PDF:

法律信息:

相似专利:

发明人 : 张自平谷满昌

申请人 : 云筑信息科技(成都)有限公司

摘要 :

本发明公开了一种基于多粒度命名实体识别方法,包括获取标准物料库的数据集;计算数据集各数据的字符嵌入向量、词嵌入向量和短语嵌入向量;基于注意力机制,获取词关键信息和短语关键信息;将词关键信息和短语关键信息融合到字符信息中,得到新的字符信息和新的字符嵌入向量;基于双向LSTM模型,提取新的字符嵌入向量的隐藏层状态;构建多粒度命名实体识别模型,将隐藏层状态输入所述模型训练;采用训练好的模型处理待识别数据。本发明结合多粒度的语义信息进行训练,学习到字符级、词级别、短语级别的信息特征,丰富了句子的语义,具有优秀准确的运行性能;同时利用双向LSTM模型对多粒度信息进一步处理,提高了中文实体识别的效果。

权利要求 :

1.一种基于多粒度命名实体识别方法,其特征在于,包括以下步骤:步骤1、获取标准物料库的数据集;

步骤2、对数据集中的各数据进行多粒度编码,得到包含字符信息的字符嵌入向量、包含词信息的词嵌入向量和包含短语信息的短语嵌入向量;

步骤3、基于注意力机制,由字符嵌入向量和词嵌入向量得到词关键信息,再由字符嵌入向量和短语嵌入向量得到短语关键信息;将词关键信息和短语关键信息融合再合并到字符信息中,得到新的字符信息和包含新的字符信息的新的字符嵌入向量;

步骤4、基于双向LSTM模型,提取新的字符嵌入向量的隐藏层状态;

步骤5、构建多粒度命名实体识别模型,将隐藏层状态输入多粒度命名实体识别模型进行训练;

步骤6、采用训练好的多粒度命名实体识别模型对待识别数据进行处理,得到多粒度命名实体识别结果;

所述步骤2包括:步骤21、使用字符编码器,生成所述数据的输入句子的字符嵌入向量, ,s代表输入句子、n代表输入句子的字符长度,ci代表输入句子的第i个字符,eci代表第i个字符的字符向量, ;步骤22、使用分词器,生成所述数据的输入句子的各分词向量wi, ;使用词编码器,对分词向量wi中的字符求其平均字符并作为分词向量wi的词向量ewt, ,eck代表第k个字符的向量表示,i代表词开始位置索引,j代表词结束位置索引;将数据的输入句子中每个分词中各字符替换为对应的词向量,得到词嵌入向量 , ;步骤23、将所述数据的输入句子拆分成不同长度的短语词项gt,对任意短语项gt计算其对应的短语向量 , ,eck代表第k个字符的向量表示,i代表词开始位置索引,j代表词结束位置索引;将数据的输入句子中每个短语词项中各字符替换为对应的短语向量,得到短语嵌入向量 , ;

在所述步骤23中, 利用n‑gram算法将输入句子拆分成不同长度的短语词项;

所述步骤3包括:步骤31、将字符嵌入向量 作为注意力机制的查询向量,得到字符嵌入向量 在第p个位置上词信息的注意力分布 和短语信息的注意力分布 ,代表字符嵌入向量, 代表第p个位置上的词向量, 代表第k个位置上的词向量, 代表第p个位置上的短语向量, 代表代表第k个位置上的短语向量, ;将每个位置的注意力分布 和短语信息的注意力分布 加权,分别得到词关键信息 和短语关键信息 , ,, 代表第p个位置上的字符向量, 代表第p个位置上的短语向w

量;步骤32、将字符嵌入向量 中第i个字符的字符向量eci嵌入对应的词关键信息u i与短g语关键信息u i,得到新的字符信息 ,基于新的字符信息 得到新的字符嵌入向量 ,, 。

2.根据权利要求1所述的一种基于多粒度命名实体识别方法,其特征在于,在所述步骤

21中,采用BERT‑wwm模型作为字符编码器。

3.根据权利要求1所述的一种基于多粒度命名实体识别方法,其特征在于,在所述步骤

22中,采用基于字符的预训练模型并结合基于上下文语义动态生成的词嵌入作为词编码器。

4.根据权利要求1所述的一种基于多粒度命名实体识别方法,其特征在于,所述步骤4包括:将新的字符嵌入向量 输入到Bi‑LSTM模块,得到隐藏层状态 。

5.根据权利要求4所述的一种基于多粒度命名实体识别方法,其特征在于,所述步骤5包括:步骤51、构建多粒度命名实体识别模型;步骤52、将隐藏层状态 输入多粒度命名实体识别模型,采用条件随机场算法,迭代得到转移得分,计算最大得分路径;步骤53、更新并保存训练后模型的参数。

说明书 :

一种基于多粒度命名实体识别方法

技术领域

[0001] 本发明属于计算机技术领域,具体涉及一种基于多粒度命名实体识别方法。

背景技术

[0002] 命名实体识别(Named Entity Recognition,NER)是自然语言处理(Natural Language Processing,NLP)的一个子领域,它从纯文本中识别和分类实体,如产品、品牌、位置和其他类型。NER是信息提取、信息检索和文本摘要中的一项基本任务,它有助于以结构化的方式组织相关信息。
[0003] 大规模的预训练语言模型,如BERT和RoBERTa,已经成为各种自然语言处理(NLP)任务的基本支柱。由于这些模型的优异性能,许多工作将其应用到命名实体识别(NER)中。然而,由于中英文之间存在着一些差异,例如分词的方式,导致NER模型不能轻易地从英语转换到中文。现在已经有大量针对中文进行优化的大规模预训练模型,例如:BERT‑wwm为中文BERT引入了全词掩蔽策略,它用中文遮住了整个单词,而不是遮住单个汉字。
[0004] 目前仍然有两个问题阻碍了中文的NER模型性能。首先是多粒度词信息未得到充分利用,由于中文的基本构成是字和词,它们可以组合成短语,字符、单词和不同大小的短语组成了多粒度的单词信息。传统中文的NER模型中,常用字信息和词信息,而短语信息往往被忽略,短语的长度不是固定的,可能比单词和短语携带更丰富的语义信息;其次是词信息可能导致分词错误和噪声,以“南京市长江大桥”为例,正确的分词是“南京市/长江大桥”,然而,将短语分词为“南京/市长/江大桥”是错误的,分词会导致错误的传播。
[0005] 因此,本发明提供了一种基于多粒度命名实体识别方法,以至少解决上述部分技术问题。

发明内容

[0006] 本发明要解决的技术问题是:提供一种基于多粒度命名实体识别方法,以至少解决上述部分技术问题。
[0007] 为实现上述目的,本发明采用的技术方案如下:
[0008] 一种基于多粒度命名实体识别方法,包括以下步骤:
[0009] 步骤1、获取标准物料库的数据集;
[0010] 步骤2、对数据集中的各数据进行多粒度编码,得到包含字符信息的字符嵌入向量、包含词信息的词嵌入向量和包含短语信息的短语嵌入向量;
[0011] 步骤3、基于注意力机制,由字符嵌入向量和词嵌入向量得到词关键信息,再由字符嵌入向量和短语嵌入向量得到短语关键信息;将词关键信息和短语关键信息融合再合并到字符信息中,得到新的字符信息和包含新的字符信息的新的字符嵌入向量;
[0012] 步骤4、基于双向LSTM模型,提取新的字符嵌入向量的隐藏层状态;
[0013] 步骤5、构建多粒度命名实体识别模型,将隐藏层状态输入多粒度命名实体识别模型进行训练;
[0014] 步骤6、采用训练好的多粒度命名实体识别模型对待识别数据进行处理,得到多粒度命名实体识别结果。
[0015] 进一步地,所述步骤2包括:步骤21、使用字符编码器,生成所述数据的输入句子的字符嵌入向量 , ,s代表输入句子、n代表输入句子的字符长度,ci代表输入句子的第i个字符,eci代表第i个字符的字符向量, ;步骤22、使用分词器,生成所述数据的输入句子的各分词向量wi, ;使用词编码器,对分词向量wi中的字符求其平均字符并作为分词向量wi的词向量ewt, ,eck代
表第k个字符的向量表示,i代表词开始位置索引,j代表词结束位置索引;将数据的输入句子中 每个分 词中各 字符 替换为 对应的 词向 量 ,得 到词 嵌入向 量 ,;步骤23、将所述数据的输入句子拆分成不同长度的短
语词项gt,对任意短语项gt计算其对应的短语向量 , ,eck代表第k
个字符的向量表示,i代表词开始位置索引,j代表词结束位置索引;将数据的输入句子中每个短语 词项中各字符替换为对应的短语向量 ,得到短语嵌入向量 ,

[0016] 进一步地,在所述步骤21中,采用BERT‑wwm模型作为字符编码器。
[0017] 进一步地,在所述步骤22中,采用基于字符的预训练模型并结合基于上下文语义动态生成的词嵌入作为词编码器。
[0018] 进一步地,在所述步骤23中,利用n‑gram算法将输入句子拆分成不同长度的短语词项。
[0019] 进一步地,所述步骤3包括:步骤31、将字符嵌入向量 作为注意力机制的查询向量,得到字符嵌入向量 在第p个位置上词信息的注意力分布 和短语信息的注意力分布 , 代表字符嵌入向量, 代表第p个位置上的词向量, 代表第k个位置上的词向量, 代表第p个位置上的短语向量,代表代表第k个位置上的短语向量, ;将每个位置的注意力分布 和短语
信息的注意力分布 加权,分别得到词关键信息 和短语关键信息 ,
, , 代表第p个位置上的字符向量, 代表
第p个位置上的短语向量;步骤32、将字符嵌入向量 中第i个字符的字符向量eci嵌入对w g
应的词关键信息u i与短语关键信息u i,得到新的字符信息 ,基于新的字符信息 得到新的字符嵌入向量 , , 。
[0020] 进一步地,所述步骤4包括:将新的字符嵌入向量 输入到Bi‑LSTM模块,得到隐藏层状态 。
[0021] 进一步地,所述步骤5包括:步骤51、构建多粒度命名实体识别模型;步骤52、将隐藏层状态 输入多粒度命名实体识别模型,采用条件随机场算法,迭代得到转移得分,计算最大得分路径;步骤53、更新并保存训练后模型的参数。
[0022] 与现有技术相比,本发明具有以下有益效果:
[0023]  本发明结合多粒度的语义信息进行训练,能够学习到字符级、词级别、短语级别的信息特征,丰富了句子的语义,具有优秀、准确的运行性能;同时利用双向LSTM模型对多粒度信息进一步处理, 提高了中文实体识别的效果。

附图说明

[0024] 图1为本发明的方法流程图。实施方式
[0025] 为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图,对本发明进一步详细说明。显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
[0026] 如图1所示,一种基于多粒度命名实体识别方法,包括以下步骤:
[0027] 步骤1、获取标准物料库的数据集;
[0028] 步骤2、对数据集中的各数据进行多粒度编码,得到包含字符信息的字符嵌入向量、包含词信息的词嵌入向量和包含短语信息的短语嵌入向量;
[0029] 步骤3、基于注意力机制,由字符嵌入向量和词嵌入向量得到词关键信息,再由字符嵌入向量和短语嵌入向量得到短语关键信息;将词关键信息和短语关键信息融合再合并到字符信息中,得到新的字符信息和包含新的字符信息的新的字符嵌入向量;
[0030] 步骤4、基于双向LSTM模型,提取新的字符嵌入向量的隐藏层状态;
[0031] 步骤5、构建多粒度命名实体识别模型,将隐藏层状态输入所述模型进行训练;
[0032] 步骤6、采用训练好的多粒度命名实体识别模型对待识别数据进行处理,得到多粒度命名实体识别结果。
[0033] 首先,本发明需要获取标准物料库的数据集,数据集每行代表一个待识别的最小存货单位(Stock Keeping Unit,SKU),即包含物料商品的标题和描述的输入句子。例如:“萍钢螺纹钢 12m 规格:Φ12 牌号:HRB400E;山西建邦螺纹钢 9m 规格:Φ25 牌号:
HRB400E;莱钢永锋螺纹钢规格:Φ25牌号:HRB400E”。
[0034] 字符是中文NER重要的信息,由于字符信息具有明确的语义和固定的长度,因此字符编码具有重要作用。本发明将字符信息、词信息和短语信息进行融合,丰富了句子的语义。本发明使用字符编码器,生成所述数据的输入句子的字符嵌入向量 ,,s代表输入句子、n代表输入句子的字符长度,ci代表输入句子的第
i个字符,eci代表第i个字符的字符向量,i∈(1,2,...,n)。作为优选,采用BERT‑wwm模型作为字符编码器。
[0035] 由于预训练的词嵌入(word2vec, Glove等)的数量是有限的,它们不能完全覆盖标记化的词。此外,字符的嵌入空间与单词的嵌入空间不同,会影响了模型的性能。本发明使用分词器,将输入句子分词(如:Jieba分词,LTP分词等)为(w1,w2,...,wi,...,wn),wi为所述数据的输入句子的各分词向量。为了保持词嵌入形状与字符嵌入形状一致,本发明采用词编码器,对分词向量wi中的字符求其平均字符并作为分词向量wi的词向量ewt,,eck代表第k个字符的向量表示,i代表词开始位置索引,j代表词结束位置索引,所述平均字符基于上下文语义动态生成;将数据的输入句子中每个分词中各字符替换为对应的词向量,得到词嵌入向量 , 。作为
优选,采用基于字符的预训练模型并结合基于上下文语义动态生成的词嵌入作为词编码器。
[0036] 由于分词器可能会在词编码中产生分词错误,从而降低模型的性能。为此,本发明引入短语编码来缓解所述问题的影响,多粒度词信息来缓解上述问题的影响,随着短语信息的加入,该模型可以在遇到字符时学习到更多的词信息。本发明将所述数据的输入句子拆分成不同长度的短语词项gt,对任意短语项gt计算其对应的短语向量 ,,eck代表第k个字符的向量表示,i代表词开始位置索引,j代表词结
束位置索引;将数据的输入句子中每个短语词项中各字符替换为对应的短语向量,得到短语嵌入向量 , 。作为优选,利用n‑gram算法将输入句子
拆分成不同长度的短语词项gt。
[0037] 本发明还基于注意力机制,利用字符信息引导词信息和短语信息,再将词信息和短语信息整合回字符信息,得到新的字符信息,也称为多粒度词信息。本发明使用了使用了两个独立的注意网络,一个用于组合字符信息和词信息,另一个用于组合字符信息和短语信息,具体为将字符嵌入向量 作为注意力机制的查询向量,得到字符嵌入向量 在第p个 位置 上词 信息的 注 意力 分布 和短语 信息 的注 意 力分布 ,代表字符嵌入向量, 代表第p个位
置上的词向量, 代表第k个位置上的词向量, 代表第p个位置上的短语向量, 代表代表第k个位置上的短语向量, ,然后根据注意力分布可以去有选择性地提取关键信息,对输入信息进行加权求和,将每个位置的注意力分布 和短语信息的注意力分布 加权,分别得到词关键信息 和短语关键信息 ,分别得到词关键信息 和短语关键信息 , , , 代表第p个位置上的字符向
量, 代表第p个位置上的短语向量;然后,进一步将上述经过注意力机制后得到的词关键信息 和短语关键信息 结合起来,并且将融合后的多粒度信息合并到字符信息中,得到S
新的字符信息,具体为将字符嵌入向量E 中第i个字符的字符向量eci嵌入对应的词关键信w g
息ui与短语关键信息u i,得到新的字符信息 ,再基于新的字符信息 ,得到新的字符嵌入向量 , , 。
[0038] 本发明还通过由一层双向Bi‑LSTM组成的模块来提取深度语义信息,可以有效地解决序列数据的建模问题。Bi‑LSTM模型可以同时考虑一个单词前面和后面的上下文信息,从而更好地理解单词的语义,更好地捕捉序列中的长期依赖关系。具体为:将新的字符嵌入向量 输入到Bi‑LSTM模块,得到隐藏层状态 。
[0039] 在得到隐藏层状态 后,构建多粒度命名实体识别模型;将隐藏层状态 输入多粒度命名实体识别模型,采用条件随机场算法(CRF),迭代得
到转移得分,计算最大得分路径;更新并保存训练后模型的参数。在命名实体识别NER任务中,Bi‑LSTM善于处理长距离的文本信息,但无法处理相邻标签之间的依赖关系。而条件随机场算法(CRF)能通过邻近标签的关系获得一个最优的预测序列,弥补Bi‑LSTM的缺点。对于任一个序列 ,对应的真实标签序列为 , 表示所
有可能的标注序列,采用维特比(Viterbi)算法得到 的预测序列产生概率,即最大得分路径 ,计算公式为: ,其中 是从标
签 到标签 状态的转移得分,其中,CRF条件随机场中的转移得分 是通过
计算两个相邻标签之间的特征函数f得分的总和得到的;最后,更新并保存训练后模型的参数。
[0040] 本发明采用两个中文的NER基准数据集,包括人民日报数据集和MSRA语料数据集,同时使用本申请人的内部云筑产品品牌数据集进行模型实际效果的验证。前两个基准数据集在中文NER中被广泛使用和认可,它们可以保证实验结果的公平性和可比性。
[0041] 本发明采用召回率R、精确率P 和F1值来评判模型的性能,各评价指标的计算方法如下:
[0042]
[0043]
[0044]
[0045] 式中, a是识别正确的实体数, A是总实体个数, B是识别出的实体数。
[0046] 具体试验结果如下表1至表3所示:
[0047]  表1人民日报语料测试结果(单位: %)
[0048]
[0049] 0032.表2 MSRA语料测试结果(单位: %)
[0050]
[0051] 表3云筑产品品牌语料测试结果(单位: %)
[0052]
[0053] 试验表明,本发明提出的模型方法优于其他模型,并在中文NER基准数据集上实现了最先进方法的性能,能够学习到字符级,词级别、短语级别的信息特征,进一步提高了中文实体识别的效果。
[0054] 最后应说明的是:以上各实施例仅仅为本发明的较优实施例用以说明本发明的技术方案,而非对其限制,当然更不是限制本发明的专利范围;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围;也就是说,但凡在本发明的主体设计思想和精神上作出的毫无实质意义的改动或润色,其所解决的技术问题仍然与本发明一致的,均应当包含在本发明的保护范围之内;另外,将本发明的技术方案直接或间接的运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。