一种基于谓词的多源数据集清洗方法转让专利

申请号 : CN201810578708.3

文献号 : CN108776697B

文献日 :

基本信息:

PDF:

法律信息:

相似专利:

发明人 : 谢子哲李论刘奇志

申请人 : 南京大学

摘要 :

本发明提出一种基于谓词的多源数据集清洗方法所提供的方法能够有效从同构多源数据集中识别出最可靠的数据项,涉及数据清洗、数据融合等领域。所述方法包括:1)用自动化方法挖掘谓词,并对挖掘出来的谓词进行过滤;2)根据谓词推导数据集中各实体的属性值的可信度;3)建立属性值可信度跟数据源可信度之间的关系,计算数据源可信度;4)结合数据源可信度和属性值可信度找出可信度最高的数据项。对于多个数据源,本发明可以对来自不同数据源但内容相同的信息进行分析,过滤掉冗余、错误和过时的数据,留下可信度最高的数据,为后续数据分析夯实基础,对后续数据处理的效率和准确率具有重要意义。

权利要求 :

1.一种基于谓词的多源数据集清洗方法,其特征在于,包括步骤:(1)构建谓词模型:定义优先级谓词、状态谓词和交互谓词;其中,优先级谓词:对于属性Ai和Aj,如果pscore(Ai)<pscore(Aj),则定义一个优先级谓词Prior(Ai,Aj),表示属性Ai的优先级pscore(Ai)高于属性Aj的优先级pscore(Aj); 其中,H(Ai)表示属性Ai的香农熵,pn(Ai)表示属性Ai的所有属性值中null值的比例;

状态谓词为: 其中,ti表示语句i, 表示

语句i中属性Ak的属性值, 表示预定义的 与 之间满足的条件,φ(ti,tj)表示预定义的ti与tj之间满足的条件;Stat(Ak)表示当ti和tj满足条件P和φ时,ti的质量高于tj;

交互谓词为:Interδ(A1,…,Al),表示当数据满足条件δ时,该条数据的属性A1,…,Al的属性值质量差;

(2)通过步骤(1)定义的谓词模型对待清洗的数据集进行谓词挖掘,得到数据集中的优先级谓词、状态谓词和交互谓词;

(3)根据得到的谓词推导数据集中各数据的属性值可信度,包括步骤:(3-1)初始化数据集中数据的所有属性值可信度为0,并为每一条数据的各属性值设置影响因子η,η为一个常数;

(3-2)运用状态谓词和交互谓词更新每条数据各属性值的可信度,更新时,先运用状态谓词更新再运用交互谓词更新,或先运用交互谓词更新再运用状态谓词更新;

运用状态谓词更新数据各属性值的可信度的步骤为:两两枚举数据集中的两条数据ti和tj,如果ti和tj在属性Ak上满足状态谓词: 则将属性值 的可信度减去η;

运用交互谓词更新数据各属性值的可信度的步骤为:遍历数据集中的所有数据,如果一条数据满足某个交互谓词Interδ(A1,…,Al),则将该条数据属性A1,…,Al的属性值的可信度减去η;

(3-3)在步骤(2)完成后,运用优先级谓词更新每条数据的属性值可信度,更新时,按照优先级从高到低的顺序依次执行优先级谓词;

执行优先级谓词Prior(Ai,Aj)的步骤为:若多条数据在属性Aj上的属性值的可信度相同,则将它们按照Ai的属性值可信度做升序排序,按照排序后的顺序,在排在第n位的数据的Aj的属性值可信度上加上n-1;

(3-4)得到所有属性值的可信度后,对于多值属性,返回所有可信度大于等于预设阈值的属性值作为结果;对于只需要返回一个结果的属性,执行步骤(4)至(6);

(4)将所有属性值的可信度进行归一化;根据公式 计算待清洗数据集中所有数据源的可信度;其中,λi表示数据源Di的可信度,t表示数据源Di中的一条数据,d(t)表示数据t的可信度,数据t的可信度等于该条数据所有属性值可信度之和;

(5)根据公式 λk更新各属性值的可信度,D’表示对于属

性Aj提供属性值 的数据源;更新后返回步骤(4);

(6)重复执行步骤(4)至(5),直至所有属性值的可信度收敛;对于只需返回一个结果的属性,找出该属性下可信度最高的属性值为最终结果。

2.根据权利要求1所述的一种基于谓词的多源数据集清洗方法,其特征在于,所述状态谓词和交互谓词均通过一阶逻辑谓词挖掘方法获得。

3.根据权利要求2所述的一种基于谓词的多源数据集清洗方法,其特征在于,在对数据集进行清洗前,对于所有的数据集的所有属性进行人工标记,标记每个属性需要返回一个结果还是多个结果,如果一个属性只需返回一个结果,则标记该属性为单值属性,清洗时将该属性下可信度最高的属性值为最终结果;如果一个属性可能存在多个结果,则标记该属性为多值属性,清洗时将该属性下可信度大于预设阈值的所有属性值为最终结果。

说明书 :

一种基于谓词的多源数据集清洗方法

技术领域

[0001] 本发明涉及数据清洗、数据融合等领域,尤其是一种基于谓词的多源数据集清洗方法。

背景技术

[0002] 在信息时代,可以从大量的数据源中找到对同一个事件或者物体的描述数据,同时由于时间错误、格式错误、精确度、完整性、语义上的歧义等原因,来自不同数据源对同一实体的描述存在不一致性。在从不同数据源搜集数据后,解决属于同一实体的描述数据之间的不一致性,对后续的数据分析至关重要。简单的投票策略——选择较多数据源支持的描述——并不适用于当下Web环境,而需要考虑数据源可信度、数据本身的可信度以及一些先验知识来设计更复杂的清洗策略。现有的清洗策略主要包括以下几种:
[0003] 中国专利201410387772号申请文件公开了“一种基于交通多源数据融合的公交路况处理系统及方法”,它融合来自不同数据源的描述公交路况的交通数据得到可供展示的路况信息。它的输入为特定交通数据,没有根据谓词进行可信度判断,也没有根据数据和数据源之间的关系计算数据源的可信度。
[0004] 中国专利201110369877号申请文件公开了“一种多源数据集成平台及其构建方法”,它是对不同的数据进行管理,这些数据之间不存在一致性问题。
[0005] 美国专利US 8190546号申请文件公开了“Dependency between sources in truth discovery”,它通过数据源之间的拷贝关系建立概率图模型来评估数据源和数据的可信度,并不涉及用谓词来评估数据的可信度。

发明内容

[0006] 发明目的:为了克服目前在多源数据融合中,描述相同实体的数据不一致的问题,也就是多源数据一致性问题中难以确定数据可信度初始值,以及如何结合数据源可信度和数据可信度的问题,本发明提供一种基于数据源可信度和数据可信度的多源数据集清洗方法,通过设定谓词计算数据可信度,再通过数据可信度计算数据源可信度,最终找出可信度最高的数据,达到数据清洗的目的。
[0007] 技术方案:为实现上述技术效果,本发明提出一种基于谓词的多源数据集清洗方法,包括步骤:
[0008] (1)构建谓词模型:定义优先级谓词、状态谓词和交互谓词;其中,
[0009] 优先级谓词为Prior(Ai,Aj),表示属性Ai的优先级高于属性Aj的优先级;
[0010] 状态谓词为: 其中,ti表示语句i,表示语句i中属性Ak的属性值, 表示预定义的 与 之间满足的条件,φ
(ti,tj)表示预定义的ti与tj之间满足的条件;Stat(Ak)表示当ti和tj满足条件P和φ时,ti的质量高于tj;
[0011] 交互谓词为:Interδ(A1,…,Al),表示当数据满足条件δ时,该条数据的属性A1,…,Al的属性值质量差;
[0012] (2)通过步骤(1)定义的谓词模型对待清洗的数据集进行谓词挖掘,得到数据集中的优先级谓词、状态谓词和交互谓词;
[0013] (3)根据得到的谓词推导数据集中各数据的属性值可信度,包括步骤:
[0014] (3-1)初始化数据集中数据的所有属性值可信度为0,并为每一条数据的各属性值设置影响因子η,η为一个常数;
[0015] (3-2)运用状态谓词和交互谓词更新每条数据各属性值的可信度,更新时,先运用状态谓词更新再运用交互谓词更新,或先运用交互谓词更新再运用状态谓词更新;
[0016] 运用状态谓词更新数据各属性值的可信度的步骤为:两两枚举数据集中的两条数据ti和tj,如果ti和tj在属性Ak上满足状态谓词:则将属性值 的可信度减去η;
[0017] 运用交互谓词更新数据各属性值的可信度的步骤为:遍历数据集中的所有数据,如果一条数据满足某个交互谓词Interδ(A1,…,Al),则将该条数据属性A1,…,Al的属性值的可信度减去η;
[0018] (3-3)在步骤(2)完成后,运用优先级谓词更新每条数据的属性值可信度,更新时,按照优先级从高到低的顺序依次执行优先级谓词;
[0019] 执行优先级谓词Prior(Ai,Aj)的步骤为:若多条数据在属性Aj上的属性值的可信度相同,则将它们按照Ai的属性值可信度做升序排序,按照排序后的顺序,在排在第n位的数据的Aj的属性值可信度上加上n-1;
[0020] (3-4)得到所有属性值的可信度后,对于多值属性,返回所有可信度大于等于预设阈值的属性值作为结果;对于只需要返回一个结果的属性,执行步骤(4)至(6);
[0021] (4)将所有属性值的可信度进行归一化;根据公式 计算待清洗数据集中所有数据源的可信度;其中,λi表示数据源Di的可信度,t表示数据源Di中的一条数据,d(t)表示数据t的可信度,数据t的可信度等于该条数据所有属性值可信度之和;
[0022] (5)根据公式 更新各属性值的可信度,D′表示对于属性Aj提供属性值 的数据源;更新后返回步骤(4);
[0023] (6)重复执行步骤(4)至(5),直至所有属性值的可信度收敛;对于只需返回一个结果的属性,找出该属性下可信度最高的属性值为最终结果。
[0024] 进一步的,所述优先级谓词的定义方法为:对于属性Ai和Aj,若满足pscore(Ai)<pscore(Aj),则定义优先级谓词Prior(Ai,Aj),表示属性Ai的优先级pscore(Ai)高于属性Aj的优先级pscore(Aj); 其中,H(Ai)表示属性Ai的香农熵,pn(Ai)表示属性Ai的所有属性值中null值的比例。
[0025] 进一步的,所述状态谓词和交互谓词均通过一阶逻辑谓词挖掘方法获得。
[0026] 进一步的,在对数据集进行清洗前,对于所有的数据集的所有属性进行人工标记,标记每个属性需要返回一个结果还是多个结果,如果一个属性只需返回一个结果,则标记该属性为单值属性,清洗时将该属性下可信度最高的属性值为最终结果;如果一个属性可能存在多个结果,则标记该属性为多值属性,清洗时将该属性下可信度大于预设阈值的所有属性值为最终结果。
[0027] 有益效果:与现有技术相比,本发明具有以下优势:
[0028] 无需假定一个属性仅有一个正确值存在,也不依赖于众包,无需大量人工干预,利用自动挖掘出的谓词和数据集与属性值之间的关系找出可信度高的属性值。本发明通过挖掘自定义谓词来对属性值的可信度打分,对于多答案属性找出可信度高于预设阈值的属性值作为结果,对于剩下属性,结合数据源可信度和属性值可信度的关系进一步更新属性值可信度,找到可信度最高的属性值作为结果,对提高数据分析的效率和数据分析的精确度具有重要意义。采用本发明的技术方案,工程人员可以比较容易地实现相关软件。

附图说明

[0029] 图1为本发明的流程图;
[0030] 图2为本发明中更新数据源中属性值可信度的计算流程示意图。

具体实施方式

[0031] 下面结合附图对本发明作更进一步的说明。
[0032] 图1所示为本发明的流程图,本发明主要包括以下几个部分:
[0033] a)首先定义三种谓词:
[0034] 1)优先级谓词:对于属性Ai和Aj,如果pscore(Ai)<pscore(Aj),则定义一个优先级谓词Prior(Ai,Aj),表示属性Ai的优先级pscore(Ai)高于属性Aj的优先级pscore(Aj);其中,H(Ai)表示属性Ai的香农熵,pn(Ai)表示属性Ai的所有属性值
中null值的比例。
[0035] H(Ai)的计算公式为:H(Ai)=-∑x∈Xp(x)log2p(x),X为属性Ai属性值的值域,p(x)代表属性值x占所有属性值的比重(不包括null值)。
[0036] 2)状态谓词:状态谓词为一阶逻辑谓词,其形式为:
[0037]
[0038] 表示ti和tj满足条件P和φ,则ti的质量高于tj。
[0039] 上述定义中的条件 而fi(v1,v2)可被v1=v2或v1≠v2替换。状态谓词定义中的P可以被预先定义的6个谓词替换,分别是P1(v1,v2)、P2(v1,v2)、P3(v1,v2)、P4(v1,v2)、P5(v1,v2)、P6(v1,v2)。P1(v1,v2)、P2(v1,v2)适用于数值类型的属性值,P1(v1,v2)表示v1比v2大,P2(v1,v2)表示v1比v2小;P3(v1,v2)、P4(v1,v2)适用于字符类型的属性值,P3(v1,v2)表示v1比v2长,P4(v1,v2)表示v1比v2短;P5(v1,v2)、P6(v1,v2)适用于字符类型的属性值,字符串更详细代表其包含更多信息,其度量方式为用香农熵公式比较两个字符串包含的信息量,P5(v1,v2)表示v1比v2更详细,P6(v1,v2)表示v1比v2更简略。
[0040] 3)交互谓词:交互谓词为一阶逻辑谓词,其形式为Interδ(A1,…,Al),表示当一条数据满足条件δ,则该条数据的A1,…,Al属性值质量差。
[0041] 上述定义中的 其中Pi′可以被P1~P6任意谓词替换,同时还可以被以下4个谓词替换:P7(v1,v2)、P8(v1,v2)、P9(v1,v2)、P10(v1,v2);其中,P7(v1,v2)、P8(v1,v2)适用于字符类型的属性值,P7(v1,v2)表示v1包含v2,P8(v1,v2)表示v1不包含v2;P9(v1,v2)、P10(v1,v2)适用于字符类型和数值类型的属性值,P9(v1,v2)表示v1等于v2,P10(v1,v2)表示v1不等于v2。
[0042] 然后根据数据集进行谓词挖掘:对于优先级谓词,可以根据公式计算数据集所有属性的优先度获得;对于状态谓词和交互谓词,根据其一阶逻辑谓词的定义,由一阶归纳学习方法自动获得。在获取状态谓词和交互谓词后,为了进一步提高谓词的可用性,可以请领域专家去掉无效谓词得到最终可用的谓词;
[0043] b)首先初始化所有属性值的可信度为0,并人工设置参数η(影响因子)为一个实数。然后按以下顺序执行三类谓词推导出数据集中各实体的属性值的可信度;
[0044] 1)运用状态谓词:两两枚举数据集中两条数据,如果这两条数据满足某个状态谓词 则将 的可信度减去η。
[0045] 2)运用交互谓词:遍历数据集中的所有数据,如果一条数据满足某个交互谓词Interδ(A1,…,Al),则将该条数据A1,…,Al属性值可信度减去η。
[0046] 3)运用优先级谓词:由于属性的优先级是由 决定的,为了使当前属性值的可信度是最新的,需先执行优先级高的优先级谓词,即所含两个属性的pscore之和较小的优先级谓词。优先级谓词Prior(Ai,Aj)的功能是,如果两条数据t1、t2满足条件 此时可通过属性Ai的可信度来判断 和 哪个好。方法为,对于
所有在Aj上可信度相同的多个数据,将它们按照Ai的可信度作升序排序,按照排序后的顺序,在排在第n位的数据的Aj的属性值可信度上加上n-1,这样就根据优先级较高的Ai区分出了可信度相同的Aj的值。同时注意对于需要返回多个结果的属性,如果可信度为负数,则无需运用优先级谓词。
[0047] 得到所有属性值的可信度后,对于需要返回多个结果的属性,返回所有可信度大于等于预设阈值的属性值作为结果,对于需要返回一个结果的属性,继续以下步骤。
[0048] c)根据 计算数据源的可信度,并对所有数据源的可信度进行归一化,即∑iλi=1,如图2所示。再用 更新每个属性值
的可信度,每个属性值的可信度等于提供该属性值的数据源的可信度之和乘上自己原有的可信度,注意null值的数据源可信度就是自身数据源的可信度,不包括其它提供null值的数据源的可信度。接着,同样对所有属性值的可信度进行归一化,使得对于任意一个属性,其所有可能取到的值的可信度和为1。重复上述步骤直到数据源的可信度和每个属性值的可信度收敛。
[0049] d)最后,对于只需返回一个结果的属性,找出该属性下可信度最高的属性值为最终结果,结合b)中的结果作为最终结果。
[0050] 下面将结合具体样例,说明本发明的实施方式:
[0051] 我们令一个数据源Di的可信度为λi,该数据源属性集合为{A1,…,An},而t∈Di为该数据源的一条数据,其中 代表t对应Aj的属性值。再令d(t)表示该条数据的可信度,表示属性值 的可信度。一条数据的可信度等于该条数据所有属性值可信度之和,即:
[0052]
[0053] 而一个数据源的可信度等于其包含的所有数据的可信度的平均值,即所有数据的可信度之和除以数据的数目:
[0054]
[0055] 同时,令D′为对于属性Aj提供属性值 的数据源,则属性值 的可信度为所有提供该值的数据源的可信度之和乘上自己原有的可信度:
[0056]
[0057] 实施例:清洗数据集如下表所示,一共有5条数据和5个数据源,其中ti来自数据源Di,描述了一个名叫Mary的科研人员数据。
[0058] 清洗数据集表
[0059]
[0060] 首先,先简单观察一下数据集,做一个人工预处理,清除一些明显不合理的数据,使得后续的数据清洗效率更高,效果更好。
[0061] 比如上面数据集中的t5这一条数据,salary为负值,明显不合理,并且这条数据中后面的Research Area,Affiliation和Publication这三个属性的值也没有太大意义,因此可以将t5这条数据视作噪声直接删除,而不参与后续的清洗操作。
[0062] 再看t4这条数据,它的publication这个属性的值为“-”,这个也属于不合理的数据,但因为t4这条数据其他属性的值仍有参考价值,因此可以直接将publication的值改为“null”。
[0063] 经过上述简单的预处理之后,得到的数据集如下:
[0064]
[0065] 第一步,对数据集进行谓词挖掘。
[0066] 挖掘优先级谓词
[0067] 对于优先级谓词,统计所有属性的熵和null值的比例。
[0068] 熵计算公式:H(Ai)=-∑x∈Xp(x)log2p(x)
[0069] 其中,p(x)代表属性值x占所有属性值的比重(不包括null值);
[0070] 以salary为例,共有3个属性值,分别是142k,120k和88k。
[0071] 其中, 则可得属性salary的熵为:
[0072]
[0073] 同理:
[0074]
[0075]
[0076]
[0077] pn(Salary)=pn(ResearchArea)=0
[0078]
[0079]
[0080] 可以得到:
[0081]
[0082]
[0083]
[0084]
[0085]
[0086] 根据上述小于关系可定义三个优先级谓词:
[0087]
[0088]
[0089]
[0090] 挖掘状态谓词:
[0091] 由一阶逻辑谓词挖掘算法First Order Inductive Learner自动获得:
[0092]
[0093] 挖掘交互谓词:
[0094] 同样由一阶逻辑谓词挖掘算法First Order Inductive Learner自动获得:
[0095]
[0096]
[0097] 第二步,推导各实体的属性值的可信度。
[0098] 初始化所有属性值的可信度为0,设置影响因子η=1,对于需要返回多个结果的属性,设可信度置阈值为0。然后按一定的顺序使用相应的谓词(不同的谓词执行顺序可能会产生不同的结果)。
[0099] 状态谓词和交互谓词都是作用于属性值,而属性值不会改变,因此状态谓词与状态谓词之间、交互谓词与交互谓词之间,以及状态谓词和交互谓词之间均相互独立,可以以任意顺序调用。
[0100] 然而,优先级谓词作用在属性值的可信度之上,因此优先级谓词必须在所有状态谓词和交互谓词之后使用。
[0101] 除此之外,优先级谓词和优先级谓词之间也必须遵守一定的顺序。为了使当前属性值的可信度是最新的,需先执行优先级高的优先级谓词,即所含两个属性的优先级之和较小的优先级谓词。对于清洗数据集表的优先级谓词,的pscore之和为3.5, 的pscore之和也为3.5,的pscore之和为4.11,所以应按照 的顺序执行优先级谓词。
[0102] 在执行状态谓词后,所有属性值的可信度如表1所示。这里有4条数据,需两两进行比较,一共进行了16次比较。以t1和t2为例,根据状态谓词 因为 所以将 减1。
[0103] 表1
[0104]  Salary Research Area Affiliation Publication
t1(D1) 0 0 0 0
t2(D2) -1 0 0 0
t3(D3) -2 0 0 0
t4(D4) -2 0 0 0
[0105] 在执行交互谓词后,所有属性值的可信度如表2所示。此处根据交互谓词 和将所有Affiliation和Publication值为null的属性值可信度减1。
[0106] 表2
[0107]  Salary Research Area Affiliation Publication
t1(D1) 0 0 0 0
t2(D2) -1 0 0 -1
t3(D3) -2 0 0 0
t4(D4) -2 0 -1 -1
[0108] 在执行优先级谓词后,所有属性值的可信度如表3所示。以Research Area为例,初始Research Area列的值为{0,0,0,0],根据优先级谓词 可以根据Salary列的{0,-1,-2,-2)来更新Research Area列的值。将Research Area列中可信度相同的值根据Salary列的升序重新排序,排序后分别加上0,1,2,还原顺序后得到{2,1,0,
0]。同理再执行优先级谓词 和
[0109] 表3
[0110]  Salary Research Area Affiliation Publication
t1(D1) 0 2 2 1
t2(D2) -1 1 1 -1
t3(D3) -2 0 0 0
t4(D4) -2 0 -1 -1
[0111] 接着对所有属性进行标记,一个科研人员同一时间只能有一个工资和一个隶属机构,所以Salary和Affiliation都只返回一个结果,但是一个科研人员的研究领域和著作却可以有多个,因此ResearchArea和Publication属性应该返回多个结果值。对于多值属性,此时返回大于等于阈值0的所有属性值,即对于Research Area,返回结果为{Data integration,data cleaning Data cleaning&Google Knowledge management 
Information  retrieve},对于Publication,返回结果为{Data integration,A 
diagnostic tool for data errors}。
[0112] 第三步,计算数据源可信度。
[0113] 接着通过 把所有属性值的可信度值映射到(0,1),并且归一化,结果如表4所示。并且根据 计算所有数据源的可信度。
[0114] 表4
[0115]   Salary Research Area Affiliation Publication λt1(D1) 0.496353 0.33723 0.369959 0.413275 0.404204
t2(D2) 0.26698 0.2799 0.307065 0.152035 0.251495
t3(D3) 0.118333 0.191435 0.210014 0.282655 0.200609
t4(D4) 0.118333 0.191435 0.112963 0.152035 0.143692
[0116] 最后通过 和 两个式子迭代的更新所有属性值的可信度直至所有属性值的可信度收敛,注意每次按列更新属性值的可信度后需要将该列可信度归一化。以第一次更新过程为例,对于Salary列的属性值可信度:
[0117] {0.496353,0.26698,0.118333,0.118333]
[0118] →{0.496353×0.404204,0.26698×0.251495,0.118333×0.344301,0.118333×0.344301]
[0119] →{0.200628,0.0671441,0.0407422,0.0407422)
[0120]
[0121] 同理,对于Research Area列的属性值可信度:
[0122] {0.33723,0.2799,0.191435,0.191435)→{0.500009,0.258216,0.140871,0.100903]
[0123] 对于Affiliation列的属性值可信度:
[0124] {0.369959,0.307065,0.210014,0.112963)→{0.404204,0.251495,0.200609,0.143692)
[0125] 对于Publication列的属性值可信度:
[0126] {0.413275,0.152035,0.282655,0.152035}→{0.588542,0.134713,0.199777,0.0769686]
[0127] 最后更新数据源的可信度:
[0128] λ={0.5168,0.209168,0.164478,0.109554)
[0129] 重复上述过程直至收敛,最终结果如表5所示。
[0130] 表5
[0131]   Salary Research Area Affiliation Publication λt1(D1) 1 1 1 1 1
t2(D2) 0 0 0 0 0
t3(D3) 0 0 0 0 0
t4(D4) 0 0 0 0 0
[0132] 第四步,得出结果。
[0133] 根据表5,可选出Salary和Affiliation属性中最好的属性值,即可信度最大的属性值为结果。其中Salary的结果为{142k},Affiliation的结果为{Amazon}。
[0134] 以上所述仅是本发明的优选实施方式,应当指出:对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。