一种分词方法、多模式分词模型和系统转让专利
申请号 : CN202011397544.8
文献号 : CN112199952B
文献日 : 2021-03-23
发明人 : 黄伟鹏 , 成幸毅 , 陈昆龙 , 王太峰 , 褚崴
申请人 : 支付宝(杭州)信息技术有限公司
摘要 :
权利要求 :
1.一种分词方法,所述方法包括:获取待处理文本;
利用多模式分词模型对所述待处理文本进行以下处理,以确定对所述待处理文本的分词结果:
通过特征提取层处理所述待处理文本,获得对应于所述待处理文本的特征序列;
基于所述待处理文本所属的领域类型,通过对应所述领域类型的至少一个映射层处理所述特征序列,获得至少一个映射特征;
通过预测层基于所述至少一个映射特征确定对所述待处理文本的所述分词结果;
其中,所述基于所述待处理文本所属的领域类型,通过对应所述领域类型的至少一个映射层处理所述特征序列,获得至少一个映射特征,包括:确定所述待处理文本所属的领域类型为通用领域还是某一专有领域;
当所述待处理文本所属的领域类型为通用领域时,利用共享映射层对所述特征序列进行处理,获得通用映射特征;
当所述待处理文本所属的领域类型为某一专有领域时,利用共享映射层对所述特征序列进行处理,获得通用映射特征,以及利用所述某一专有领域对应的专有映射层对所述特征序列进行处理,获得专有映射特征;
其中,所述共享映射层通过多个专有领域的语料库训练获得,专有映射层通过其对应的专有领域的语料库训练获得。
2.根据权利要求1所述的方法,其中,基于所述待处理文本的领域类型标识确定所述待处理文本所属的领域类型为通用领域还是某一专有领域。
3.根据权利要求1所述的方法,其中,所述专有领域基于分词粒度划分或者基于业务领域划分。
4.根据权利要求1所述的方法,其中,当所述待处理文本所属的领域类型为某一专有领域时,所述通过预测层基于所述至少一个映射特征确定对所述待处理文本的所述分词结果,包括:
将所述待处理文本对应的所述通用映射特征与所述专有映射特征相加,得到融合特征;
基于所述融合特征确定所述分词结果。
5.根据权利要求1所述的方法,所述特征提取层包括BERT网络。
6.根据权利要求1所述的方法,所述多模式分词模型经过以下模型加速方法中的至少一种处理:
存储精度降级、编译优化以及模型蒸馏。
7.根据权利要求6所述的方法,所述特征提取层包括包含3层Transformer的BERT网络。
8.一种分词系统,所述系统包括:获取模块,用于获取待处理文本;
处理模块,用于利用多模式分词模型对所述待处理文本进行以下处理,以确定对所述待处理文本的分词结果:
通过特征提取层处理所述待处理文本,获得对应于所述待处理文本的特征序列;
基于所述待处理文本所属的领域类型,通过对应所述领域类型的至少一个映射层处理所述特征序列,获得至少一个映射特征;
通过预测层基于所述至少一个映射特征确定对所述待处理文本的所述分词结果;
其中,为了基于所述待处理文本所属的领域类型,通过对应所述领域类型的至少一个映射层处理所述特征序列,获得至少一个映射特征,所述处理模块还用于:确定所述待处理文本所属的领域类型为通用领域还是某一专有领域;
当所述待处理文本所属的领域类型为通用领域时,利用共享映射层对所述特征序列进行处理,获得通用映射特征;
当所述待处理文本所属的领域类型为某一专有领域时,利用共享映射层对所述特征序列进行处理,获得通用映射特征,以及利用所述某一专有领域对应的专有映射层对所述特征序列进行处理,获得专有映射特征;
其中,所述共享映射层通过多个专有领域的语料库训练获得,专有映射层通过其对应的专有领域的语料库训练获得。
9.一种多模式分词模型系统,包括特征提取层、领域适应层和预测层;
所述特征提取层用于处理待处理文本,获得对应于所述待处理文本的特征序列;
所述领域适应层包括两个以上映射层,所述领域适应层用于基于所述待处理文本所属的领域类型,通过对应所述领域类型的至少一个映射层处理所述特征序列,获得至少一个映射特征;所述领域适应层包括共享映射层与至少一个专有映射层,其中,所述共享映射层通过多个专有领域的语料库训练获得,所述专有映射层通过其对应的专有领域的语料库训练获得;
当所述待处理文本所属的领域类型为通用领域时,所述共享映射层用于对所述特征序列进行处理,获得通用映射特征;
当所述待处理文本所属的领域类型为某一专有领域时,所述共享映射层用于对所述特征序列进行处理,获得通用映射特征,所述某一专有领域对应的专有映射层用于对所述特征序列进行处理,获得专有映射特征;
所述预测层用于基于所述至少一个映射特征确定对所述待处理文本的分词结果。
10.根据权利要求9所述的模型系统,所述特征提取层包括BERT网络。
11.根据权利要求9所述的模型系统是经过以下至少一种模型加速方法处理过的:存储精度降级、编译优化以及模型蒸馏。
12.根据权利要求11所述的模型系统,所述特征提取层包括包含3层Transformer的BERT网络。
13.一种多模式分词模型系统的训练方法,包括使用两个以上专有领域对应的语料库对如权利要求10 12任一项所述的多模式分词模型系统进行训练。
~
14.根据权利要求13所述的方法,其中,包括对于任一专有领域对应的语料库的样本语料:
通过特征提取层处理语料样本,获得对应于所述语料样本的样本特征序列;
基于所述语料样本所属的专有领域,通过领域适应层中对应于所述专有领域的专有映射层处理所述样本特征序列,获得样本专有映射特征,以及利用领域适应层中的共享映射层处理所述样本特征序列,获得通用映射特征;
通过预测层基于所述专有映射特征以及所述通用映射特征确定对所述语料样本的分词预测结果;
调整特征提取层、领域适应层以及预测层中至少一个的参数,以减小所述分词预测结果与所述语料样本的实际分词结果的差异。
15.根据权利要求13所述的方法,其中,还包括:构造学生模型,所述学生模型的网络层数小于所述模型系统;以及,对于任一专有领域对应的语料库的样本语料:通过所述学生模型处理所述样本语料,得到第一分词预测结果;
通过所述模型系统处理所述样本语料,得到第二分词预测结果;
调整所述学生模型的参数,以减小所述第一分词预测结果与所述样本语料的实际分词结果的差异,以及减小所述第一分词预测结果和所述第二分词预测结果之间的差异。
16.根据权利要求15所述的方法,所述模型系统的特征提取层包括BERT网络,所述学生模型包括特征提取层、领域适应层以及预测层,其中学生模型的特征提取层包括包含3层Transformer的BERT网络。
17.一种分词装置,包括至少一个存储介质和至少一个处理器,所述至少一个存储介质用于存储计算机指令;所述至少一个处理器用于执行所述计算机指令以实现如权利要求1~
7任一项所述的方法。
说明书 :
一种分词方法、多模式分词模型和系统
技术领域
背景技术
本身的处理是至关重要的。
发明内容
果:通过特征提取层处理所述待处理文本,获得对应于所述待处理文本的特征序列;基于所
述待处理文本所属的领域类型,通过对应所述领域类型的至少一个映射层处理所述特征序
列,获得至少一个映射特征;通过预测层基于所述至少一个映射特征确定对所述待处理文
本的所述分词结果。
确定对所述待处理文本的分词结果:通过特征提取层处理所述待处理文本,获得对应于所
述待处理文本的特征序列;基于所述待处理文本所属的领域类型,通过对应所述领域类型
的至少一个映射层处理所述特征序列,获得至少一个映射特征;通过预测层基于所述至少
一个映射特征确定对所述待处理文本的所述分词结果。
的特征序列;所述领域适应层包括两个以上映射层,所述领域适应层用于基于所述待处理
文本所属的领域类型,通过对应所述领域类型的至少一个映射层处理所述特征序列,获得
至少一个映射特征;所述预测层用于基于所述至少一个映射特征确定对所述待处理文本的
分词结果。
所述计算机指令以实现所述分词方法。
附图说明
中:
具体实施方式
施例,对于本领域的普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附
图将本说明书应用于其它类似情景。除非从语言环境中显而易见或另做说明,图中相同标
号代表相同结构或操作。
则可通过其他表达来替换所述词语。
示包括已明确标识的步骤和元素,而这些步骤和元素不构成一个排它性的罗列,方法或者
设备也可能包含其它的步骤或元素。
处理各个步骤。同时,也可以将其他操作添加到这些过程中,或从这些过程移除某一步或数
步操作。
可以将对话文本中的关键信息进行提取,比如对催收对话文本中包含的还款时间、用户归
属地、舆情相关、催收施压手段、对话人关系、共债等信息进行抽取,来对催收对话文本进行
分析,获取对话参与方的意图,进而优化催收策略来提高催收的回款率。在自然语言处理
中,一般会首先对文本进行分词,再在分词结果的基础上进行下游流程的处理,以实现信息
抽取、情感分析、自动文本摘要等目的。分词是指对给定输入文本进行划分,以获得较小的
语义单元,如字或词。其中,文本可以是自然语言中的句子、短语或词组等。分词的好坏在较
大程度上影响着下游自然语言处理的效果。
为“X/YZ/获得/世界/冠军”,两种切分方式都是正确的,现有的方法往往针对每种切分方式
单独训练一个模型,各模型之间的参数并不能通用。这就意味着,需要针对不同的分词标准
训练不同的分词模型。随着模型数量的增加,部署成本也跟着增加。
附图的描述阐述本说明书披露的技术方案。
对医疗领域的语料句子进行分词。相较于一种分词标准或一个领域部署一个分词模型的方
式,采用多模式分词模型可以有效地减少部署的模型数量,降低模型部署的成本。在一些实
施例中,可以基于预训练语言模型构建多模式分词模型。
以是中文文本,或其他任意语言的文本。
x1、x2、x3、……、xn,特征提取层可以对其进行处理,转化为包括向量表示h1、h2、h3、……、
hn的特征序列。
transformer层122。Embedding层可以用于将待处理文本中的字分别转化为对应的嵌入向
量(或称为Embedding 向量),例如,将上述例子中的x1、x2、x3、……、xn,转化为e1、e2、
e3、……、en。各个字的嵌入向量组成向量序列。Transformer层可以将Embedding层转化得
到的向量序列转化为特征序列,例如,将e1、e2、e3、……、en,转化为h1、h2、h3、……、hn。
Transformer层可以提取到字之间的上下文信息,仅作为示例,hi(i取1、2、…或n)不仅包含
ei的信息,还会包含其上下文信息。
领域和通用领域,专有领域可以基于待处理文本所属的业务领域进行划分。例如,专有领域
可以包括金融领域、医疗领域、机械领域、生物领域等。在一些实施例中,专有领域的划分还
可以基于分词粒度划分进行,例如,粗粒度标准和细粒度标准,粗粒度标准为一个专有领
域,细粒度标准为一个专有领域。仍以“XYZ获得世界冠军”为例,“XYZ/获得/世界冠军”的切
分方式为粗粒度标准,“X/YZ/获得/世界/冠军”的切分方式为细粒度标准。通用领域可以是
指待处理文本没有明确属于的专有领域类型。
映射层dn。共享映射层可以用于获取文本句子的通用知识,通用知识包括通用切分标准,该
切分标准可以理解为适用于对各个专有领域的句子进行切分。专有映射层可以用于获取文
本句子在专有领域的专有知识,专有知识包括属于该专有领域语料或文本的专有切分标
准,该标准一般更加用于对该专有领域内的文本进行切分。
域的语料库、医疗领域的语料库等,又或者专有领域的语料库可以包括粗粒度切分语料库、
细粒度切分语料库等。可以理解,这里的粗、细是相当概念,在本说明书示例的教导下,还可
以使用三种以上粒度的的语料库进行训练。
CRF层的输入为映射层转化到的至少一个映射特征,CRF层可以基于输入的映射特征计算出
文本中每一个分词的标签,并输出最终的分词结果。仅作为示例,分词结果可以包含多个分
词,以及每个分词的标签B、M、E、S,其中,B代表begin,M代表middle,E代表end,S代表
single,表示一个单独的字符。模型会对输入文本的每个字符进行预测。预测层输出的分词
结果可以是带有标签的文本序列,例如,“XYZ/B 获得/M 世界冠军/E”。
上,加速处理同时可以对模型规模进行精简,以降低其部署或存储成本。模型加速方法可以
包括存储精度降级、编译优化、模型蒸馏等。作为示例,存储精度降级可以将采用4字节
(fp32)进行编码存储的数据,转化为采用2字节(fp16)进行编码存储的数据。和fp32相比,
fp16占用的内存更少,可以设置更大的batch_size,batch_size为模型预测或训练时一次
输入到模型中的样本的数量,进而通过在模型内部并行对多个样本进行来处理速度。在一
些实施例中,存储精度降级也被称为量化。
(Full Precision)压缩为16bit(Half Precision)。在进行压缩时,可以选择性地对模型参
数进行压缩,例如,对于精度要求较低的部分进行压缩,精度要求较高的部分保留不进行压
缩,以此,可以在尽可能的减少精度损失的情况下,对模型进行加速。
行融合,以减少内存回写等开销,实现模型加速。例如,Tensorflow中的操作包括计算1+1+1
+1,在其计算过程中包括了3次加法运算,每次都会写入数据到内存中,而将其进行融合后,
其计算方式可以变成1*4,只需写入一次数据。
元)的BERT网络时,可以通过模型蒸馏的方式进行处理,得到包括3层Transformer(即经过
模型蒸馏后,Transformer层包括3层神经元)的BERT网络。3层Transformer的BERT网络相较
于12层Transformer的BERT网络,其计算时的开销更小,计算速度更快,同时模型蒸馏的方
式也可以较好的保留模型在预测时的精度。关于模型蒸馏的更多细节,可以参见图4及其相
关说明,此处不再赘述。
模型加速,也可以使用编译优化和模型蒸馏进行模型加速,还可以同时使用存储精度降级、
编译优化和模型蒸馏进行模型加速,本实施例对此不作限定。
储在存储装置(如处理设备的自带存储单元或外接存储设备)中,所述程序或指令在被执行
时,可以实现流程200。流程200可以包括以下操作。
骤204到步骤208可以由处理模块520执行。
得到对应于待处理文本的特征序列。特征序列可以用于表示待处理文本所包含的一种或多
种信息(例如,文本信息、语义信息、上下文信息等)。特征提取层可以在获取到对应于所述
待处理文本的每个最小单元(例如,字符)的向量后进行拼接或叠加或注意力机制等更复杂
的处理得到特征序列。由于特征序列的获取是基于所述待处理文本本身所包含的内容确定
的,因此特征序列可以反映待处理文本的文本信息。文本信息在一定程度上可以反映待处
理文本的语义。
络还可以是经过模型加速处理后的包含6层Transformer的BERT网络。关于BERT网络的更多
描述,可以参见图1的相关部分。
域类型的更多描述,可以参见图1的相关部分,此处不再赘述。
如,可以是数字0、1、2、……,标识0或空可以表示为通用领域,标识1表示为某金融领域,标
识2表示医疗领域等。又例如,标识1可以表示粗粒度,标识2表示细粒度。再例如,可以直接
用领域类型的名称作为标识,比如,通用领域、金融领域、医疗领域等。本实施例对领域类型
标识的形式不作限定。
理文本的特征序列所要进入的映射层。例如,通用领域标识则用共享映射层对待处理文本
的特征序列进行处理,得到通用映射特征;专有领域标识则同时使用共享映射层和该专有
领域对应的专有映射层对特征序列进行处理,得到一个通用映射特征和一个专有映射特
征。
还是某一专有领域。
进行转化,得到所述通用映射特征。
特征序列进行处理,获得专有映射特征。也就是说,输入的待处理文本为通用领域类型时,
领域适应层会输出一个通用映射特征,当输入的待处理文本为某一专有领域类型时,领域
适应层会输出一个通用映射特征和一个专有映射特征。
式分词模型进行训练时,可以根据使用的语料库的领域类型,调整模型在训练时特征序列
在领域适应层所经过的专有映射层(例如,是经过专有映射层1还是经过专有映射层2),以
及在经过专有映射层的同时经过共享映射层。对于通用领域的语料库,则使得在训练时,该
特征序列只经过共享映射层。在一些实施例中,也可以省去使用通用的语料库进行模型训
练。
时,对于专有领域的文本不仅通过其专有领域的切分标准进行分词,还会考虑通用领域的
切分标准,两者结合可以使得最终的预测结果可以更加准确。而对于某些陌生的文本,例
如,并不知道该文本属于哪一个专有领域时,可以将其对应的领域类型划分到通用领域类
型中,进而使用共享映射层学习到的多个领域的通用切分标准进行分词预测,可以有效地
提高对于陌生文本的预测结果。
领域时会由专有映射层输出专有映射特征和由共享映射层输出通用映射特征。针对此,预
测层可以对映射特征做不同的处理,在只有通用映射特征时,预测层可以直接根据通用映
射特征进行预测,得到分词结果;当待处理文本所属的领域类型为某一专有领域时,领域适
应层会输出一个通用映射特征和一个专有映射特征,此时,预测层可以将所述待处理文本
对应的通用映射特征与专有映射特征相加,得到融合特征,并基于所述融合特征确定预测
的分词结果并输出。相加是指的两个向量之间进行相加,相加后的向量维度不变。在一些实
施例中,预测层也可以将通用映射特征与专有映射特征进行拼接,得到融合特征。
理文本属于通用领域时,则使用领域适应层的共享映射层进行处理;待处理文本属于某一
专有领域时,则同时使用共享映射层和专有映射层进行处理,使得既可以考虑到所有领域
的语料库的切分方式,也可以考虑到通用领域中的切分标准,两者结合可以使得最终的预
测结果可以更加准确。同时,部署一个多模式分词模型就能实现对多个专有领域的文本进
行分词处理,减少了模型的部署成本。除此之外,还使用了多种模型加速方式对模型进行加
速处理,有效地提高了模型在进行分词预测时的处理速度。
程序或指令的形式存储在存储装置(如处理设备的自带存储单元或外接存储设备)中,所述
程序或指令在被执行时,可以实现流程300。如图3所示,流程300可以包括以下操作。
练。示例性地,对于任一专有领域对应的语料库的语料,都可以通过如步骤302到步骤308所
示的操作进行模型训练。
式获得。
内容可参见图1和图2的相关部分描述,此处不再赘述。
中的共享映射层处理所述样本特征序列,获得通用映射特征。
领域的语料样本的特征序列,都会经过共享映射层进行处理,也就是说,共享映射层可以学
习到用于训练的所有专有领域的语料样本之间的分词共性。
节,可以参见图1的预测层的相关描述部分,此处不再赘述。
数,以使得最终的分词预测结果更接近所述语料样本的实际分词结果。
定语料样本的情况下输出对应的实际分词结果的概率最大。
为找出最大化似然函数的 值。
储在存储装置(如处理设备的自带存储单元或外接存储设备)中,所述程序或指令在被执行
时,可以实现流程400。如图4所示,流程400可以包括。
调整小模型的参数,使得小模型的预测结果逼近大模型的预测结果。这里的大模型一般指
代模型蒸馏中的老师模型,小模型一般指代模型蒸馏中的学生模型。
层数小于模型系统的网络层数的所述学生模型。
模型的特征提取层所包括的BERT网络中的Transformer层数简化为3层。以此,学生模型的
特征提取层在对文本进行处理时,Embedding层转化得到的向量只会经过3层Transformer,
相较于通过12层Transformer,其计算量更少,计算速度更快,从而提高学生模型在应用时
的处理速度。
明,此处不再赘述。
异。
预测结果更接近所述语料样本的实际分词结果。可以理解,模型系统的网络结构更加复杂,
在进行预测时所计算的结果更接近实际结果,因此,通过调整学生模型的参数,使得学生模
型的第一分词预测结果更加接近模型系统的预测结果,也就可以使得第一分词结果更加逼
近样本语料的实际分词结果。
逼近所述模型系统的效果。示例性地,可以通过以下损失函数对学生模型的参数进行调整。
表示样本语料总数,I表示一个样本语料中总字数; 等于J个语料样本中的总字数,
表示学生模型对第j个语料样本中的第i个字预测的第一分词预测结果(如对该字打上的分
词标识S、B、M或E), 表示模型系统对第j个语料样本中的第i个字预测的第二分词预
测结果。
分词预测结果与语料样本的实际分词结果之间的差异同时最小化。仅作为示例,在有一些
实施例中,进行模型蒸馏时所使用的损失函数可以用以下公式(5)表示。
较优值为0.15, 为上述公式(4)。在模型蒸馏时,可以调整学生模型的参数以
使得损失函数 最小化。
范围。
实验数据。
模型、Chen等人在2017年提出的模型等),在10个公开数据集(第一行第二列,如公开数据集
PKU、MSR等)上的实验结果(如第二行第二列中的反应模型精度的数值)表明,本说明书实施
例所提出的多模式分词模型加速后的处理结果上,当采用12层Transformer(即原始BERT)
时,所提出的模型在10个数据集上取得了当前最佳效果,当蒸馏到3层,并应用量化加速时
(编译优化并不会影响模型精度,因此图中未示出),所提出的模型仍然在9个数据集(除了
AS数据集)上取得了最佳效果。其中,图6中的ours(·)表示本说明实施例中提出的模型,
student表示模型蒸馏后的学生模型,teacher表示老师模型,即本说明书实施例中的多模
式分词模型系统,layer表示BERT网络中的Transformer层数,FP16表示存储精度降级处理
后的存储精度。
实验结果可知,通过存储精度降级(fp16)、编译优化(xla)以及模型蒸馏(Distill)三种方
式加速后,在做单条样本测试时(batch size为1),多模式分词模型相比当前业界所使用的
BI‑LSTM,速度提升了3.3倍。另外,在其他不同数量样本测试时,速度也均有提升,即使是在
batch size为256时,依然有着1.6倍的速度提升。其中,xla表示经过编译优化,fp16表示存
储精度降级到16位,Original BERT表示原BERT模型,Distill to 3layers表示将模型的
BERT网络中的Transformer层数蒸馏至3层,以此类推。
变。然而,这些修正和改变仍在本说明书的范围之内。例如,对本说明书有关流程步骤的改
变,如添加预处理步骤和存储步骤等。
少一个映射层处理所述特征序列,获得至少一个映射特征;以及通过预测层基于所述至少
一个映射特征确定对所述待处理文本的所述分词结果。
映射层对所述特征序列进行处理,获得通用映射特征;当所述待处理文本所属的领域类型
为某一专有领域时,利用共享映射层对所述特征序列进行处理,获得通用映射特征,以及利
用所述某一专有领域对应的专有映射层对所述特征序列进行处理,获得专有映射特征;其
中,所述共享映射层通过多个专有领域的语料库训练获得,专有映射层通过其对应的专有
领域的语料库训练获得。
于分词粒度划分或者基于业务领域划分。
以利用专用逻辑来实现;软件部分则可以存储在存储器中,由适当的指令执行系统,例如微
处理器或者专用设计硬件来执行。本领域技术人员可以理解上述的方法和系统可以使用计
算机可执行指令和/或包含在处理器控制代码中来实现,例如在诸如磁盘、CD或DVD‑ROM的
载体介质、诸如只读存储器(固件)的可编程的存储器或者诸如光学或电子信号载体的数据
载体上提供了这样的代码。本说明书的系统及其模块不仅可以有诸如超大规模集成电路或
门阵列、诸如逻辑芯片、晶体管等的半导体、或者诸如现场可编程门阵列、可编程逻辑设备
等的可编程硬件设备的硬件电路实现,也可以用例如由各种类型的处理器所执行的软件实
现,还可以由上述硬件电路和软件的结合(例如,固件)来实现。
统的原理后,可能在不背离这一原理的情况下,对各个模块进行任意组合,或者构成子系统
与其他模块连接。例如,在一些实施例中,图5中披露的获取模块510和处理模块520可以是
一个系统中的不同模块,也可以是一个模块实现上述的两个或两个以上模块的功能。诸如
此类的变形,均在本说明书的保护范围之内。
以使得最终的预测结果可以更加准确。(2)部署一个多模式分词模型就能实现对多个专有
领域的文本进行分词处理,减少了模型的部署成本。(3)使用多种模型加速方式对模型进行
加速处理,有效地提高了模型在进行分词预测时的处理速度。(4)使用至少两个专有领域的
语料库的数据进行模型训练后,实际应用时可以处理多个领域的语料,减少模型训练对语
料数据集的依赖程度。
果。
会对本说明书进行各种修改、改进和修正。该类修改、改进和修正在本说明书中被建议,所
以该类修改、改进、修正仍属于本说明书示范实施例的精神和范围。
点。因此,应强调并注意的是,本说明书中在不同位置两次或多次提及的“一实施例”或“一
个实施例”或“一个替代性实施例”并不一定是指同一实施例。此外,本说明书的一个或多个
实施例中的某些特征、结构或特点可以进行适当的组合。
对他们的任何新的和有用的改进。相应地,本说明书的各个方面可以完全由硬件执行、可以
完全由软件(包括固件、常驻软件、微码等)执行、也可以由硬件和软件组合执行。以上硬件
或软件均可被称为“数据块”、“模块”、“引擎”、“单元”、“组件”或“系统”。此外,本说明书的
各方面可能表现为位于一个或多个计算机可读介质中的计算机产品,该产品包括计算机可
读程序编码。
合适的组合形式。计算机存储介质可以是除计算机可读存储介质之外的任何计算机可读介
质,该介质可以通过连接至一个指令执行系统、装置或设备以实现通讯、传播或传输供使用
的程序。位于计算机存储介质上的程序编码可以通过任何合适的介质进行传播,包括无线
电、电缆、光纤电缆、RF、或类似介质,或任何上述介质的组合。
VB.NET、Python等,常规程序化编程语言如C语言、VisualBasic、Fortran2003、Perl、
COBOL2002、PHP、ABAP,动态编程语言如Python、Ruby和Groovy,或其他编程语言等。该程序
编码可以完全在用户计算机上运行、或作为独立的软件包在用户计算机上运行、或部分在
用户计算机上运行部分在远程计算机运行、或完全在远程计算机或处理设备上运行。在后
种情况下,远程计算机可以通过任何网络形式与用户计算机连接,比如局域网(LAN)或广域
网(WAN),或连接至外部计算机(例如通过因特网),或在云计算环境中,或作为服务使用如
软件即服务(SaaS)。
过各种示例讨论了一些目前认为有用的发明实施例,但应当理解的是,该类细节仅起到说
明的目的,附加的权利要求并不仅限于披露的实施例,相反,权利要求旨在覆盖所有符合本
说明书实施例实质和范围的修正和等价组合。例如,虽然以上所描述的系统组件可以通过
硬件设备实现,但是也可以只通过软件的解决方案得以实现,如在现有的处理设备或移动
设备上安装所描述的系统。
图或对其的描述中。但是,这种披露方法并不意味着本说明书对象所需要的特征比权利要
求中提及的特征多。实际上,实施例的特征要少于上述披露的单个实施例的全部特征。
明,“大约”、“近似”或“大体上”表明所述数字允许有±20%的变化。相应地,在一些实施例
中,说明书和权利要求中使用的数值参数均为近似值,该近似值根据个别实施例所需特点
可以发生改变。在一些实施例中,数值参数应考虑规定的有效数位并采用一般位数保留的
方法。尽管本说明书一些实施例中用于确认其范围广度的数值域和参数为近似值,在具体
实施例中,此类数值的设定在可行范围内尽可能精确。
不一致或产生冲突的申请历史文件除外,对本说明书权利要求最广范围有限制的文件(当
前或之后附加于本说明书中的)也除外。需要说明的是,如果本说明书附属材料中的描述、
定义、和/或术语的使用与本说明书所述内容有不一致或冲突的地方,以本说明书的描述、
定义和/或术语的使用为准。
配置可视为与本说明书的教导一致。相应地,本说明书的实施例不仅限于本说明书明确介
绍和描述的实施例。