一种面向民航监管事项检查记录处理的文本分类方法转让专利

申请号 : CN202311034914.5

文献号 : CN116756624B

文献日 :

基本信息:

PDF:

法律信息:

相似专利:

发明人 : 许雅玺史珂王欣郑涛干镞锐

申请人 : 中国民用航空飞行学院

摘要 :

本发明涉及文本分类技术领域,涉及一种面向民航监管事项检查记录处理的文本分类方法,首先,通过RoFormer‑Sim解决了样本类别不平衡的问题。其次,在嵌入层中使用RoBERTa获得字向量。然后,使用TextRCNN的结构通过特征提取来提取文本中包含的信息。同时,在池化层中使用了空洞卷积来防止重要信息的丢失,并使用概率稀疏自注意力ProbSparse Self‑Attention来获得不同字嵌入向量的权重。本发明在民航监管事项检查记录数据集上的分类F1值达到96.31%。与其他经典的深度学习算法的对比实验结果表(56)对比文件冯媛媛 等.基于BiLSTM+Self-Attention的多性格微博情感分类《.西华大学学报(自然科学版)》.2022,第41卷(第01期),67-76.杨春霞 等.融合RoBERTa-GCN-Attention的隐喻识别与情感分类模型《.小型微型计算机系统》.2023,1-9.张劭韡 等.融合注意力机制的RoBERTa-BiLSTM-CRF语音对话文本命名实体识别《.数字技术与应用》.2023,第41卷(第05期),4-6+51.Shulin Hu 等.Domain Knowledge GraphQuestion Answering Based on SemanticAnalysis and Data Augmentation《.AppliedSciences》.2023,第13卷(第15期),1-23.A. T. Haryono 等.Transformer-GatedRecurrent Unit Method for PredictingStock Price Based on News Sentiments andTechnical Indicators《.IEEE Access》.2023,第11卷77132-77146.Z. Guo 等.Research on Short TextClassification Based on RoBERTa-TextRCNN.《2021 International Conference onComputer Information Science andArtificial Intelligence (CISAI)》.2022,845-849.F. Wang 等.Sentiment analysis ofmovie reviews based on pretraining anddual branch coding《.2021 InternationalConference on Computer InformationScience and Artificial Intelligence(CISAI)》.2022,721-725.韩建胜 等.基于双向时间深度卷积网络的中文文本情感分类《.计算机应用与软件》.2019,(第12期),225-231.

权利要求 :

1.一种面向民航监管事项检查记录处理的文本分类方法,其特征在于:包括以下步骤:

1)输入民航监管事项检查记录数据;

2)通过开源预训练模型RoFormer‑Sim实现数据增强;

3)使用RoBERTa预训练模型获得字向量;

4)使用TextRCNN通过特征提取来提取文本中包含的信息;TextRCNN包括BiLSTM特征提取层和池化层,在池化层使用空洞卷积来减少信息损失;字之间的关系通过概率稀疏自注意力ProbSparse Self‑Attention依次学习,对字嵌入向量进行加权和求和,得到句子向量;将空洞卷积的结果与句子向量的结果进行融合拼接;

通过RoBERTa预训练模型将句子转化为向量矩阵,并通过BiLSTM提取隐藏状态特征;将字向量与隐藏状态连接,分别通过空洞卷积池化和ProbSparse Self‑Attention获得池化后的特征和句子向量特征;

5)将融合拼接结果通过softmax输出以获得分类结果。

2.根据权利要求1所述的一种面向民航监管事项检查记录处理的文本分类方法,其特征在于:RoBERTa预训练模型中,输入序列的每个字由三部分组成,即标记嵌入、分段嵌入和位置嵌入;标记嵌入、分段嵌入和位置嵌入分别表示字的标记值、句子信息和位置信息;

输入分字后的序列{x1,x2,…,xn},Tok表示字矢量编码,Pos表示位置编码向量,通过将Tok和Pos编码向量相加,相加的字是具有位置特征的字向量;最终将分字序列映射为字向量W={w1,w2,…,wn}。

3.根据权利要求2所述的一种面向民航监管事项检查记录处理的文本分类方法,其特征在于:BiLSTM特征提取层中,通过前向LSTM提取获得前向隐藏状态L={L1,L2,…Ln};通过前向LSTM提取获得反向隐藏状态R={R1,R2,…Rn};通过BiLSTM层获得的上下文特征为H={L;R};将BiLSTM层的输出结果与字向量W的上下文融合,得到具有上下文特征的新的字嵌入向量Y={y1,y2,…,yn}。

4.根据权利要求3所述的一种面向民航监管事项检查记录处理的文本分类方法,其特征在于:空洞卷积为级联的空洞卷积结构,设置了三个空洞率分别为1、2和5的卷积核,执行多次卷积并提取结果;将空洞卷积提取的特征根据通道维度进行级联拼接起来,将浅层特征和深层特征融合,如下式所示:dc1=f(DC2(f(DC1(f(C(c))))))

dc2=f(DC2(f(DC1(f(C(dc1))))))

dc3=f(DC2(f(DC1(f(C(dc2))))))

dc=concat(dc1,dc2,dc3)

f()表示ReLU激活函数增加模型输出的非线性;C()表示卷积核空洞率为1,DC1()表示卷积核空洞率为2,DC2()表示卷积核空洞率为5,dc1、dc2、dc3表示对输入的数据进行特征提取和变换后得到的结果,dc为整个文本的浅层特征和深层特征的组成,concat(.)表示concat函数,用于连接。

5.根据权利要求4所述的一种面向民航监管事项检查记录处理的文本分类方法,其特征在于:ProbSparse Self‑Attention中,首先对键向量矩阵K进行采样得到K_sample矩阵;

对qi∈Q和K_sample一起计算M得分值;

T

qi为查询向量矩阵Q中的第i行的查询向量;kj表示K_sample矩阵中的每个位置j的k向量进行转置;d表示采样后的K_sample矩阵的行向量的维度;Lk为键向量矩阵K的行数;

提取出M得分值最大的前u个Top‑u查询向量query,构成新的查询向量矩阵Q,通过计算查询向量矩阵 与键向量矩阵K的点积,然后用softmax函数将点积值归一化,乘以值矩阵V得出注意力值,如下式所示:Attention(.)表示Attention函数,用于计算注意力值。

6.根据权利要求5所述的一种面向民航监管事项检查记录处理的文本分类方法,其特征在于:步骤5)中,将融合拼接结果输入到softmax函数计算得到概率分布,从而确定分类结果。

说明书 :

一种面向民航监管事项检查记录处理的文本分类方法

技术领域

[0001] 本发明涉及文本分类技术领域,具体地说,涉及一种面向民航监管事项检查记录处理的文本分类方法。

背景技术

[0002] 在民航业不断蓬勃发展的背景下,高效的监管是保障航空安全、促进民航行业发展的重中之重。民航局正在大力推进智慧监管系统建设,创新监管方式,在智慧化架构中完成监管任务,促进监管效能的全面提升。传统的监管模式已经无法满足民航局对安全监管的要求,需要结合新技术来实现智慧监管。智慧监管通过收集多源异构数据,运用机器学习、数据挖掘技术,从数据中提取信息和知识,实现数据驱动的风险预警和安全态势判断。
[0003] 民航监管事项检查记录是监管执法检查中针对监管事项所发现的问题而记录的文本信息,是典型的短文本,长度在10‑70字之间,70字以上只占了不到20%。对该文本进行分类是民航监管数据分析的基础任务。随着监管记录数据的增长,传统人工分类效率低下,无法满足监管业务需求。运用自然语言处理的文本分类技术,对民航监管事项检查记录文本进行自动分类,实现数据驱动的风险预警和隐患排查,对推动民航监管的智慧化、精准化,提升行业监管水平具有重要意义。
[0004] 文本分类是文本挖掘的一个重要分支,是自然语言处理领域中的一个经典问题,已广泛应用于新闻分类、垃圾邮件过滤等。目前流行的文本分类方法主要分为两类,一类是基于统计机器学习,另一类是基于深度学习。基于统计机器学习的文本分类方法实现了一定的自动化,提高了文本分类的效率。然而,在基于统计学习的方法中,文本的表示能力有限,容易忽视文本的上下文、语义和结构。深度学习可以弥补传统机器学习的不足。结合上下文的语序或引入外部知识可以解决这个问题。基于深度学习的分类方法可以提高文本分类的准确性,但训练成本也更高。
[0005] 在机器学习领域,不同类别的样本在数据集中的数量差异很大,这被称为类别不平衡问题。目前有一些经典的方法可以解决此问题,如欠采样技术、过采样技术和阈值偏移。欠采样技术可能会导致信息丢失。过采样技术可能会在数据集中过度拟合。此外,还有一些基于深度学习的方法,如生成对抗性网络和上下文增强,但是可能会消耗更多的时间和计算资源。

发明内容

[0006] 本发明的内容是提供一种面向民航监管事项检查记录处理的文本分类方法,其在民航监管事项检查记录数据的短文本分类表现良好。
[0007] 根据本发明的一种面向民航监管事项检查记录处理的文本分类方法,其包括以下步骤:
[0008] 1)输入民航监管事项检查记录数据;
[0009] 2)通过开源预训练模型RoFormer‑Sim实现数据增强;
[0010] 3)使用RoBERTa预训练模型获得字向量;
[0011] 4)使用TextRCNN通过特征提取来提取文本中包含的信息;TextRCNN包括BiLSTM特征提取层和池化层,在池化层使用空洞卷积来减少信息损失;字之间的关系通过概率稀疏自注意力(ProbSparse Self‑Attention)依次学习,对字嵌入向量进行加权和求和,得到句子向量;将空洞卷积的结果与句子向量的结果进行融合拼接;
[0012] 5)将融合拼接结果通过softmax输出以获得分类结果。
[0013] 作为优选,RoBERTa预训练模型中,输入序列的每个字由三部分组成,即标记嵌入、分段嵌入和位置嵌入;标记嵌入、分段嵌入和位置嵌入分别表示字的标记值、句子信息和位置信息;
[0014] 输入分字后的序列{x1,x2,…,xn},Tok表示字矢量编码,Pos表示位置编码向量,通过将Tok和Pos编码向量相加,相加的字是具有位置特征的字向量;最终将分字序列映射为字向量W={w1,w2,…,wn}。
[0015] 作为优选,BiLSTM特征提取层中,通过前向LSTM提取获得前向隐藏状态L={L1,L2,…Ln};通过前向LSTM提取获得反向隐藏状态R={R1,R2,…Rn};通过BiLSTM层获得的上下文特征为H={L;R};将BiLSTM层的输出结果与字向量W的上下文融合,得到具有上下文特征的新的字嵌入向量Y={y1,y2,…,yn}。
[0016] 作为优选,空洞卷积为级联的空洞卷积结构,设置了三个空洞率分别为1、2和5的卷积核,执行多次卷积并提取结果;将空洞卷积提取的特征根据通道维度进行级联拼接起来,将浅层特征和深层特征融合,如下式所示:
[0017] dc1=f(DC2(f(DC1(f(C(c))))))
[0018] dc2=f(DC2(f(DC1(f(C(dc1))))))
[0019] dc3=f(DC2(f(DC1(f(C(dc2))))))
[0020] dc=concat(dc1,dc2,dc3)
[0021] f()表示ReLU激活函数增加模型输出的非线性;C()表示卷积核空洞率为1,DC1()表示卷积核空洞率为2,DC2()表示卷积核空洞率为5,dc1、dc2、dc3表示对输入的数据进行特征提取和变换后得到的结果,dc为整个文本的浅层特征和深层特征的组成,concat(.)表示concat函数,用于连接。
[0022] 作为优选,ProbSparse Self‑Attention中,首先对键向量矩阵K进行采样得到K_sample矩阵;对qi∈Q和K_sample一起计算M得分值;
[0023]
[0024] qi为查询向量矩阵Q中的第i行的查询向量;kjT表示K_sample矩阵中的每个位置j的k向量进行转置;d表示采样后的K_sample矩阵的行向量的维度;Lk为键向量矩阵K的行数;
[0025] 提取出M得分值最大的前u个Top‑u的查询向量query,构成新的查询向量矩阵通过计算查询向量矩阵 与键向量矩阵K的点积,然后用softmax函数将点积值归一化,乘以值矩阵V得出注意力值。;
[0026]
[0027] Attention(.)表示Attention函数,用于计算注意力值。
[0028] 作为优选,步骤5)中,将融合拼接结果输入到softmax函数计算得到概率分布,从而确定分类结果。
[0029] 本发明的有益效果如下:
[0030] 1)采用RoFormer‑Sim预训练模型对本发明所用数据集进行数据增强。以较小的时间和资源扩充数据。解决文本数据集的数据类别不平衡问题,减少标注工作量,在一定程度上提高效率。
[0031] 2)基于TextRCNN的结构,本发明结合了BiLSTM特征提取层和TextCNN的池化层。将BiLSTM提取的上下文特征和RoBERTa的字向量进行拼接,得到新的字嵌入向量表示。基于TextRCNN的结构提取的特征具有句子序列的全局特征和上下文结构的局部特征。
[0032] 3)在池化层使用空洞卷积池化,解决常用的最大池化层的容易丢失特征的问题。并且采用级联结构,能够使浅层特征和深层特征充分融合。
[0033] 4)在特征提取后应用Informer的ProbSparse Self‑Attention,稀疏性Self‑Attention得分形成长尾分布,提取出少数对分类影响更大的query,不仅节约了资源,分类效果进一步得到了提升。

附图说明

[0034] 图1为实施例中一种面向民航监管事项检查记录处理的文本分类方法的示意图;
[0035] 图2为实施例中BiLSTM特征提取层的示意图;
[0036] 图3为实施例中空洞卷积池化结构示意图。

具体实施方式

[0037] 为进一步了解本发明的内容,结合附图和实施例对本发明作详细描述。应当理解的是,实施例仅仅是对本发明进行解释而并非限定。
[0038] 实施例
[0039] 如图1所示,本实施例提出了一种面向民航监管事项检查记录处理的文本分类方法(模型),其包括以下步骤:
[0040] 1)输入民航监管事项检查记录数据;
[0041] 2)通过开源预训练模型RoFormer‑Sim实现数据增强;
[0042] 3)使用RoBERTa预训练模型获得字向量;
[0043] 4)使用TextRCNN通过特征提取来提取文本中包含的信息;TextRCNN包括BiLSTM特征提取层和池化层,在池化层使用空洞卷积来减少信息损失;字之间的关系通过概率稀疏自注意力(ProbSparse Self‑Attention)依次学习,对字嵌入向量进行加权和求和,得到句子向量;将空洞卷积的结果与句子向量的结果进行融合拼接;
[0044] 5)将融合拼接结果通过softmax输出以获得分类结果。
[0045] 开源预训练模型RoFormer‑Sim
[0046] 开源预训练模型RoFormer‑Sim可以参照文献:苏剑林.SimBERTv2来了!融合检索和生成的RoFormer‑Sim模型[EB/OL](2021‑6‑11)。本实施例通过开源预训练模型RoFormer‑Sim实现数据增强,解决数据集类别不平衡的问题,生成与原文相似的句子,然后扩展数据量并平衡每个类别中的样本数量。
[0047] RoBERTa预训练模型
[0048] 本实施例将RoBERTa预训练模型用于字向量嵌入。RoBERTa的模型基于BERT模型做了一些进行了改进。BERT使用固定掩码,该掩码在数据预处理和生成后不会更改。这会导致相对较差的灵活性。然而,RoBERTa使用的动态掩码在每个输入中都有一个新的掩码。RoBERTa在预训练中使用了更多的训练数据和更深的网络结构,这提高了模型的性能。当使用RoBERTa预训练模型来训练字符向量时,可以获得更丰富的语义信息。此外,RoBERTa和BERT在模型结构中都由多个双向Transformer编码器组成。在训练字向量时,RoBERTa分词与BERT相似,它本质上将每个汉字分割开来。RoBERTa模型中输入序列的每个字由三部分组成,即标记嵌入、分段嵌入和位置嵌入。标记嵌入、分段嵌入和位置嵌入分别表示字的标记值、句子信息和位置信息。
[0049] 输入分字后的序列{x1,x2,…,xn},Tok表示字矢量编码,Pos表示位置编码向量,通过将Tok和Pos编码向量相加,相加的字是具有位置特征的字向量;最终将分字序列映射为字向量W={w1,w2,…,wn}。
[0050] BiLSTM特征提取层
[0051] 目前,在文本挖掘的深度学习领域,RNN和CNN的组合模型已成为主流。传统TextCNN的特征提取层使用卷积层,可以很好地挖掘句子的局部特征。然而,它可能会忽略全局特征,如句子的语序。TextRCNN模型结合了RNN和CNN的结构。不仅保留了文本的语序特征,而且提取了文本的局部重要特征。字嵌入层将当前字与上下文相结合,以便于更好地理解上下文的含义。LSTM是一个时间序列模型。LSTM的核心是使用隐藏状态来保存信息。与单向的区别在于,BiLSTM可以保留来自未来的信息,并融合向前运行和向后运行的LSTM,使用两个隐藏状态的组合。它可以随时保存过去和未来的信息。通过前向LSTM提取获得前向隐藏状态L={L1,L2,…Ln};通过前向LSTM提取获得反向隐藏状态R={R1,R2,…Rn};通过BiLSTM层获得的上下文特征为H={L;R};将BiLSTM层的输出结果与字向量W的上下文融合,得到具有上下文特征的新的字嵌入向量Y={y1,y2,…,yn},如图2所示。
[0052] 空洞卷积池化
[0053] 空洞卷积最早应用于图像领域的实例分割任务。可以增大卷积核的感受野,它减少了模型参数的数量,在不减小感受野的情况下减少特征的丢失。
[0054] 当特征输入到池化层时,无论是使用最大池化还是平均池化进行降维采样,都可能导致模型丢失一些重要信息。本实施例使用空洞卷积结构作为池化层。如果采用并行结构,使用多个空洞卷积检查字来提取特征,可能会导致信息的一定冗余和重复,从而影响最终的分类结果。本实施例提出了一种级联的空洞卷积结构,并设置了三个空洞率分别为1、2和5的卷积核。执行多次卷积并提取结果。将空洞卷积提取的特征根据通道维度进行级联拼接起来,将浅层特征和深层特征融合,使浅层特征和深层特征都能被模型充分利用。池化层结构图如图3所示,公式如下所示:
[0055] dc1=f(DC2(f(DC1(f(C(c))))))
[0056] dc2=f(DC2(f(DC1(f(C(dc1))))))
[0057] dc3=f(DC2(f(DC1(f(C(dc2))))))
[0058] dc=concat(dc1,dc2,dc3)
[0059] f()表示ReLU激活函数增加模型输出的非线性,克服梯度消失问题的同时加快模型的训练速度;C()表示卷积核空洞率为1,在图3中简化为C。DC1()表示卷积核空洞率为2,DC2()表示卷积核空洞率为5,dc1、dc2、dc3表示对输入的数据进行特征提取和变换后得到的结果,dc为整个文本的浅层特征和深层特征的组成。dc1表示对字嵌入向量Y经过多次卷积和激活函数,得到第一层的特征表示结果。dc1作为第一层的输出结果,被用作第二层的输入。dc2表示对dc1进行多次卷积和激活函数,得到第二层的特征表示结果。dc2作为第二层的输出结果,被用作第三层的输入。dc3表示对dc2进行多次卷积和激活函数,得到第三层的特征表示结果。这种叠加的特征提取过程可以使模型逐渐提取出更高级别的特征表示,concat(.)表示concat函数,用于连接。
[0060] 概率稀疏自注意力(ProbSparse Self‑Attention)
[0061] 字向量的字可以直接得到句子向量,例如将字向量直接相加、直接相加后取平均或使用TF‑IDF的加权平均等。然而,这些方法都过于粗糙。为了更好地表示文本,需要一个更合适的方法来计算字的权重。本实施例使用ProbSparseSelf‑Attention计算字的权重,并对句子中的所有字进行加权求和,以获得句子向量。
[0062] 传统的Self‑Attention目前已经被广泛应用于自然语言处理的许多领域,取得了良好的效果。Self‑Attention中的q、k和v分别是由查询向量、键向量和值向量组成的矩阵。Self‑Attention的输入是序列字向量,它经过线性变换以获得查询(Q),x经过第二线性变换以获取键向量(K),x经历第三线性变换以得到值(V)。通过q、k和v计算字的权重。
[0063]
[0064] dk表示键向量的维度,Attention(.)表示Attention函数,用于计算注意力值。。
[0065] 传统的自注意力的主要缺点是需要相对较大的内存和二次点积计算的成本。本实施例参考了长序列时间序列预测的Informer模型的ProbSparse Self‑Attention。Informer模型是一个改进的Transformer模型。借鉴KL散度的思想,对每个字进行量化,并选择top‑u个query作为主要查询。
[0066] 稀疏性self‑attention得分形成长尾分布,即少数点积对主要注意力有贡献,其他点积对相比较后可以忽略。在长尾分布下,只需要随机抽样u=LQ ln LK点积对来计算M(qi,K_sample),用零填充其他对。
[0067] ProbSparse Self‑Attention首先对键向量矩阵K进行采样得到K_sample矩阵,通过采样键向量矩阵K得到u个位置的k向量,组成键向量K_sample矩阵;对qi∈Q和K_sample一起计算M值;
[0068]
[0069] qi为查询向量矩阵Q中的第i行的查询向量;kjT表示K_sample矩阵中的每个位置j的k向量进行转置;d表示采样后的K_sample矩阵的行向量的维度;Lk为键向量矩阵K的行数;
[0070] 提取出M得分值最大的前u个Top‑u查询向量query,构成新的查询向量矩阵 通过计算查询向量矩阵 与键向量矩阵K的点积,然后用softmax函数将点积值归一化,乘以值矩阵V得出注意力值,如下式所示:
[0071]
[0072] 全连接层和输出层
[0073] 对分别通过空洞卷积网络和ProbSparse Self‑Attention提取的特征结果进行融合拼接,输入到softmax函数计算得到概率分布,从而确定分类结果。
[0074] 实验与结果分析
[0075] 实验环境
[0076] 该实验基于Python 3.8+PyTorch 1.10深度学习框架。CPU使用Intel(R)Core i9‑10900K。GPU使用NVIDIA GeForce RTX 3090。内存为96G。
[0077] 数据集
[0078] 本实施例选取民航监管事项检查记录数据集进行实验,该数据集是针对民航监管执法检查中发现的问题而记录的信息。总共有5720个,其中大部分长度在10到70之间。本实施例首先使用Roformer‑Sim方法来扩充现有的数据集,以便使每个类别的数量尽可能平衡。最终,得到了1414个与人有关的问题,2096个与设备、设施和环境有关的问题、3982个与机构程序有关的问题和867个与机构责任有关的问题。本实施例将数据集随机打乱,并以8:1:1的比例将其划分为训练集、验证集和测试集。相关信息如表1、表2所示。
[0079] 表1数据增强后数据集相关信息
[0080]
[0081] 表2部分民航监管事项的检查结果
[0082]
[0083] 参数设置
[0084] 在文本数据增强方面,在Reformer‑Sim参数中,预训练模型设置为“chinese_roformer‑Sim‑char‑ft_L‑12_H‑768_A‑12”。参数“Create_Num”设置为3。为每个语句生成相似的句子,并获得最高相似度的前3个。
[0085] 在文本表示方面,选择RoBERTa_Chinese_Base预训练模型,RoBERTa_Chinese_Base是一个使用CLUECorpus Small数据集训练的中文预训练模型。通过多次实验获得的模型的其他最佳参数如表3所示。
[0086] 表3训练参数设置
[0087]
[0088]
[0089] 评价指标
[0090] 在文本分类模型的评估中使用F1‑measure。F1‑measure是精度和召回率的调和平均值,能够综合反映神经网络训练后的性能。其计算方法如下所示:
[0091]
[0092]
[0093]
[0094] P表示模型的精度,R表示模型的召回率,F1表示F1‑measure。TP表示在预测样本集中预测类别为真,真实情况样本类别也为真的样本数量;FN表示真实情况样本类别为真,但预测样本类别为假的样本数量;FP表示真实情况样本为假,但预测样本类别为真的样本数量。
[0095] 对比实验
[0096] 为了验证本文提出的模型的分类性能,在民航监管事项检查记录数据集上,将其与其他8个神经网络模型进行了比较,用F1‑measure作为结果对比的评价指标。实验设置如下所示,实验结果如表4所示。
[0097] 1)TextCNN:通过RoBERTa预训练模型将句子转化为向量矩阵。使用不同大小的卷积核来执行特征提取。在通过最大池化层之后,进行分类。
[0098] 2)LSTM:通过RoBERTa预训练模型将句子转化为向量矩阵。使用字的平均隐藏状态作为分类特征。
[0099] 3)BiLSTM:通过RoBERTa预训练模型将句子转化为向量矩阵。使用字在两个方向上的隐藏状态的平均值作为分类特征。
[0100] 4)BiLSTM‑Attention:通过RoBERTa预训练模型将句子转化为向量矩阵。使用注意力机制计算每个字的权重,然后对其进行分类。
[0101] 5)TextRCNN:通过RoBERTa预训练模型将句子转化为向量矩阵。通过BiLSTM提取隐藏状态特征,将字向量与隐藏状态拼接起来,并通过最大池化层对其进行分类。
[0102] 6)FastText:构造n元特征,并计算每个特征的词频。使用softmax函数将特征转换为概率分布。
[0103] 7)DPCNN:在CNN的基础上,通过不断加深网络,提取长距离文本依赖关系。
[0104] 8)Transformer:完全基于注意力的序列传导模型,用多头自注意力取代编码器‑解码器架构中最常用的递归层。
[0105] 9)Ours:通过RoBERTa预训练模型将句子转化为向量矩阵,并通过BiLSTM提取隐藏状态特征。将字向量与隐藏状态连接,得到新的字嵌入向量,再分别通过空洞卷积池化和ProbSparse Self‑Attention获得池化后的特征和句子向量特征。对拼接的特征进行分类。
[0106] 表4不同文本分类模型实验结果对比
[0107]Model F1
TextCNN 0.9346
LSTM 0.9120
BiLSTM 0.9330
BiLSTM‑Attention 0.9457
TextRCNN 0.9515
FastText 0.9300
DPCNN 0.9330
Transformer 0.9434
Ours 0.9631
[0108] 本实施例提出的模型在民航监管事项检查记录数据集上取得了良好的效果。与TextCNN、LSTM、BiLSTM、BiLSTM‑Attention、TextRCNN、FastText、DPCNN和Transformer模型相比,我们模型的F1值分别增加了2.85%、3.01%、5.11%、1.74%、1.16%、3.31%、3.01%和1.97%。CNN和BiLSTM的分类性能相似。TextRCNN结合了两个模型,并融合了全局特征和局部特征,从而在分类方面比单个模型CNN或LSTM具有更好的性能。BiLSTM Attention在LSTM之后使用了Attention机制,集中于对分类结果有影响较大的字,因此分类的结果比单个LSTM要好。DPCNN可以通过添加网络层来增加长文本之间的依赖关系,但由于该数据集是一个短文本数据集,因此在该数据集中的改进效果不是很显著。此外,直接使用Transformer框架进行文本分类也可以获得较好的结果。本文使用的方法是基于TextRCNN而不是单一模型,结合了BiLSTM的特征提取层和TextCNN的池化层。它改进了池化层中空洞卷积池化的使用,并使用Informer结构中的ProbSparse Self‑Attention来充分地提取特征,取得了良好的效果。
[0109] 为了验证本实施例使用的词向量模型的分类性能,在民航监管事项检查记录数据集上将其与其他4个词向量模型进行了比较,结果如表5所示。
[0110] 表5不同词向量模型实验结果对比
[0111] Model F1Word2Vec+Ours 0.9020
BERT+Ours 0.9526
ENIRE+Ours 0.9583
RoBERTa+Ours 0.9595
RoBERTa+BiLSTM+Ours 0.9631
[0112] 由于Word2Vec词向量是静态词向量,无法区分语境不同、同一个词含义不同的问题,故当词向量选用Word2Vec效果时,效果较差。而基于预训练模型的BERT、ENIRE和RoBERTa效果较好,都能达到0.95以上的效果。基于BERT的预训练模型可以根据文本的上下文来区分同一词的不同含义,从而提高分类性能,解决Word2Vec传统词向量中的多义问题。因此,评价指标有了显著提高。RoBERTa在训练过程中相比BERT使用了更大的数据集和更多的参数,并采用了动态掩蔽机制,具有更强的灵活性,进一步提高了模型的特征提取能力。
与ERNIE和BERT相比,实验结果有了一定的改进。而本实施例所用字向量融合了BiLSTM提取的上下文和RoBERTa的字向量,蕴含的语义更加丰富,实验效果相比其他字向量有一定的提升。
[0113] 消融实验
[0114] 为了验证所提出的方法在各个方面的改进,如下进行了5次消融实验。实验设置如下,实验结果如表6所示。
[0115] 1)BERT+TextRCNN+Max‑Pooling+self‑attention:通过BERT预训练模型将句子表示为向量矩阵。池化特征和句子向量特征分别通过Max‑Pooling和Self‑Attention获得。
[0116] 2)RoBERTa+TextRCNN+Max‑Pooling+self‑attention:通过RoBERTa预训练模型将句子表示为向量矩阵。池化特征和句子向量特征分别通过Max‑Pooling和Self‑Attention获得。
[0117] 3)RoBERTa+TextRCNN+DC+Self‑Attention:将字向量与隐藏状态拼接,分别通过空洞卷积池和Self‑Attention获得池化特征和句子向量特征。
[0118] 4)RoBERTa+TextRCNN+Max‑Pooling+ProbSparse Self‑Attention:将字向量与隐藏状态拼接,并分别通过Max‑Pooling和ProbSparse Self‑Attention获得池特征和句子向量特征。
[0119] 5)Ours:通过RoBERTa预训练模型将句子转化为向量矩阵,并通过BiLSTM提取隐藏状态特征。将字向量与隐藏状态连接,分别通过空洞卷积池化和ProbSparse  Self‑Attention获得池化后的特征和句子向量特征。对拼接的特征进行分类。
[0120] 表6消融实验结果对比
[0121]
[0122] 在民航监管事项的检查结果数据集上进行消融实验,与其他模型相比,本实施例提出的模型分别提高了1.51%、1.21%、0.69%,1%。当池化层使用常用的Max‑pooling时,大多数时候都可以获得良好的效果,但很容易失去一些重要的特征,而级联结构的空洞卷积池化能够更好地保留特征,充分利用浅层特征和深层特征。将普通的Self‑Attention改为ProbSparse Self‑Attention,不仅节省了时间和资源,而且在一定程度上提高了分类模型的效果。
[0123] 结论
[0124] 本实施例提出了一种基于空洞卷积和ProbSparse Self‑Attention的文本分类方法(模型)。通过RoBERTa对文本进行动态表示,解决了不同语境下的语义差异问题。将BiLSTM提取的结果上下文特征与字向量连接,使得新的字向量蕴含更丰富的语义信息。在池化层中使用空洞卷积来减少特征丢失。使用ProbSparse Self‑Attention可减少操作所需的内存和时间。实验结果表明,本实施例中提出的模型在民航监管事项检查记录数据集上取得了良好的分类性能。
[0125] 以上示意性的对本发明及其实施方式进行了描述,该描述没有限制性,附图中所示的也只是本发明的实施方式之一,实际的结构并不局限于此。所以,如果本领域的普通技术人员受其启示,在不脱离本发明创造宗旨的情况下,不经创造性的设计出与该技术方案相似的结构方式及实施例,均应属于本发明的保护范围。