会员体验
专利管家(专利管理)
工作空间(专利管理)
风险监控(情报监控)
数据分析(专利分析)
侵权分析(诉讼无效)
联系我们
交流群
官方交流:
QQ群: 891211   
微信请扫码    >>>
现在联系顾问~
首页 / 专利库 / 计算机网络 / 知识库 / 一种面向多源网络百科的知识库构建方法

一种面向多源网络百科的知识库构建方法

阅读:1154发布:2020-08-17

IPRDB可以提供一种面向多源网络百科的知识库构建方法专利检索,专利查询,专利分析的服务。并且本发明公开了一种面向多源网络百科的知识库构建方法。本方法为:1)从设定的若干网络百科抓取页面,并从抓取的每一页面中抽取页面的类别信息;2)基于类别信息构建类别树,并将类别信息和类别树对应,形成知识库的类别体系;提取每个网络百科对应页面的别名信息构建该网络百科的概念词典;3)对抓取的页面进行去重,得到知识库的概念集合;4)从页面集合中每一页面的页面信息框和正文中抽取三元组信息;5)将三元组中的客体转换成标准格式,然后根据得到的标准化三元组和类别体系建立知识库。本发明不仅可以输出实体的类别体系,还可以对三元组中的实体进行链接,得到高质量的三元组知识,适用于多个网络百科混合生成知识库的需求。,下面是一种面向多源网络百科的知识库构建方法专利的具体信息内容。

1.一种面向多源网络百科的知识库构建方法,其步骤为:

1)从设定的若干网络百科抓取页面,并从抓取的每一页面中抽取页面的类别信息;

2)基于所述类别信息构建类别树,并将类别信息和类别树对应,形成知识库的类别体系;提取每个网络百科对应页面的的别名信息构建该网络百科的概念词典;

3)对抓取的页面进行去重,将得到的无重复的页面集合作为知识库的概念集合;

4)从所述页面集合中每一页面的页面信息框和正文中抽取三元组信息;

5)将所述三元组中的客体转换成标准格式,然后根据得到的标准化三元组和类别体系建立面向多源网络百科的知识库。

2.如权利要求1所述的方法,其特征在于,生成所述类别体系的方法为:

21)计算每一类别信息的分数,取分数靠前或大于设定阈值的多个类别信息构成一类别集合;

22)对于该类别集合中的每一类别信息,根据类别信息Ci在网络百科的类别有向图中与类别信息Cj的上下级关系,在类别信息Ci的类别树上对Ci、Cj进行标记,生成所述类别树;如果类别信息Ci不在网络百科的类别有向图中,则对类别信息Ci进行分词后取最长连续后缀并将其映射到所述类别树上,生成知识库的类别体系。

3.如权利要求2所述的方法,其特征在于,所述类别信息Ci的分数为Conf(Ci)=Freq(Ci)*Std(Ci);其中,Freq(Ci),Std(Ci)分别表示类别信息Ci的频率分数和标准化程度分数;

Cnt(Ci)表示Ci在所有页面抽取结果中的出现频率,k为一设定平滑参数值; 如果Ci是维基百科的类别名

字,则isCate(Ci)为1,否则为0;WCnt(Ci)表示Ci分词之后的单词数量,其中Suf(Ci)表示Ci分词之后的连续后缀集合,

xij是Ci分词之后的一连续后缀,WCct(xij)表示xij分词之后的单词数量。

4.如权利要求1或2或3所述的方法,其特征在于,对抓取的页面进行去重的方法为:从同一概念词典中选取两个具有相同别名信息的页面Di,Dj,并计算二者相似度;如果相似度大于设定阈值,则删除页面信息较少者。

5.如权利要求4所述的方法,其特征在于,计算所述相似度的公式为:isDup(Di ,Dj)=α*ContextSim(Di,Dj)+(1-α)*CateSim(Di,Dj);其中,α,γ为比例系数, 表示页面Di的关键词列

表, 表示页面Dj的关键词列表,depthT(t)表示类别t在所述类别体系中的深度,Ti表示页面Di的类别集合,Tj表示页面Dj的类别集合。

6.如权利要求1或2或3所述的方法,其特征在于,所述三元组包括页面信息框中的(属性名,属性值)对和页面对应的实体,该实体为三元组的主语。

7.如权利要求1或2或3所述的方法,其特征在于,将所述三元组中的客体转换成标准格式的方法为:构造多种类别标准化转换器,对于每一三元组,匹配查找对应类别标准化转换器,将其转换成标准化格式;如果该三元组为实体类三元组或者没有对应类别标准化转换器,则先通过概念词典找到该三元组的客体oi的实体候选集合 然后计算实体候选集合中每个实体候选的相似度,如果相似度都低于设定阈值,则不对该三元组进行标准化转换,否则,取相似度最高的实体链接。

8.如权利要求7所述的方法,其特征在于,计算实体候选集合 中每个实体候选的相似度的公式为: 其中,描述主体esubj和候选客体实体 之间的相互链接关系以及文本、内链的重合度, 衡量候选客体实体 的类别是否满足谓词p的要求;%是类别谓词且p对应类别不在 中,则 否则 表示页面的类别集合。

9.如 权 利 要 求 8 所 述 的 方 法 ,其 特 征 在 于 ,所 述 重 合 度其中,其中β,γ为

比例系数,ContextSim为页面间的相似度,linkOverlap为两页面间内链的相似度。

10.如权利要求1或2或3所述的方法,其特征在于,从页面的词条标签和摘要部分抽取该页面的类别信息,以及从页面的半结构化的信息框中抽取的类别信息;所述别名信息包括页面内链中的别名信息、信息框中的别名信息以及摘要中的别名信息。

说明书全文

一种面向多源网络百科的知识库构建方法

技术领域

[0001] 本发明主要涉及互联网领域,特别涉及开放领域和全领域的知识库构建,提出了一种全新的自动构建方法,适用于基于网络百科的知识库自动构建,属于知识库构建领域。

背景技术

[0002] 随着互联网和信息技术的不断发展,越来越多的知识通过人们的编辑、修改等方式被放到网上,网络逐渐成为人们快速获取新知识的第一途径。如何在海量的网络数据中剔除垃圾信息、提取有用的信息、生成可以批量存储和查询的结构化信息,是信息抽取领域的一个重要任务,也是构建知识库的出发点。
[0003] 知识库一般以(主语,谓词,客体)的三元组形式抽取和存储。比如(e.刘翔,p.出生地,e.上海)这条三元组就描述了前田径运动员刘翔的出生地点信息,这里面“刘翔”和“上海”都是知识库里的实体(或者叫“概念”)。知识库可以类比成以实体为点,通过不同类别的关系连接的有向图。
[0004] 常见的知识库构建方法主要分为两大类,基于网络百科的全领域知识库和基于特定领域的专家知识库。前者著名的知识库有DBpedia、Freebase,他们基于英文维基百科;后者则主要基于专家知识,往往采用手工构建的方式,可扩展性较低。英文网络百科由于编辑质量高,很容易从信息框(或者叫infobox)中提取结构化的实体间关系信息。目前中文的开放领域知识库还处于空白,主要是由于中文网络百科编辑标准不规范、编辑者能力不足而导致的半结构化信息(信息框信息)未链接、缺少类别体系等原因。

发明内容

[0005] 本发明的目的是提供一种从多种网络百科来源中自动生成知识库的解决方法。使用该方法生成的知识库不仅可以输出实体的类别体系(taxonomy),还可以对三元组中的实体进行链接,得到高质量的三元组知识,适用于多个网络百科混合生成知识库的需求。
[0006] 首先通过构造网络爬虫抓取多个网络百科的所有页面;然后抽取每个页面的类别信息;接着根据抽取的类别信息自动构建类别树,并将类别信息对应到类别树上,形成知识库的taxonomy;然后通过收集的类别信息、信息框中的别名信息(别名指的是实体的所有名字,比如我们熟悉的前NBA运动员“姚明”的别名有“姚明,小巨人,中国长城”)、页面HTML中的锚文本来找出可能指代同一概念的页面,通过文本特征和类别信息来去除重复页面;之后从页面的信息框和正文中抽取三元组信息,使用类别信息、页面的别名信息、文本信息等来对三元组客体进行链接,最后生成包含taxonomy信息的标准化知识库。该知识库不仅包含taxonomy信息,其中的三元组的实体链接程度和准确性都很高。
[0007] 为了达到上述目的,本发明的技术方案包括:一种基于自动构建的类别体系、面向多源网络百科的知识库构建方法,包括如下步骤:
[0008] (1)构造网络爬虫从多源网络百科抓取页面。
[0009] (2)从页面摘要和词条标签等多种来源抽取页面中的类别信息。
[0010] (3)基于类别信息自动构建类别树,并将类别信息和类别树对应,形成知识库的类别体系(taxonomy)。类别体系的结构一般是类别的上下级关系,是一种树结构,内容是不固定的,常见的类别比如“人物”,“组织机构”,“地点”等等。
[0011] (4)基于类别信息等文本特性对多源百科页面进行去重,剩下无重复的页面集合组成知识库的概念(实体)集合。
[0012] (5)从页面信息框和正文中抽取三元组信息。
[0013] (6)构造处理时间类客体的转换器、处理常见单位客体、处理纯文本类客体、处理实体类客体等多种类别标准化转换器,将三元组中的客体通过转换器转换成标准格式输出,其中处理实体类客体的标准化转换器基于类别信息等文本信息对客体进行链接和标准化转化。
[0014] (7)按照RDF格式输出上一步得到的标准化三元组,类别信息也由RDF格式输出。
[0015] 在步骤(1)中,为了保证能抓取到所有的实体页面,爬虫应该支持挖掘页面中的内链,递归的抓取页面。不同的网络百科可以分开抓取,互相没有影响。具体是对1个还是多个网络百科执行方案,对生成的知识库质量没有明显的差别。另外,如果只是在单一知识库上执行该方案,显然也能得到高质量的知识库。
[0016] 在步骤(2)中,本发明从页面下方的词条标签和正文前几段(即摘要部分)抽取页面的类别信息。如果页面含有更多的类别信息可以抽取(比如半结构化的信息框中含有类别信息),也可以将其加入类别抽取结果中,对最终的抽取效果有提升。需要注意的是在抽取类别的时候本发明需要对文本中的类别单词、短语进行语义层面的自动分析(句法分析),来保证文本中的类别单词是修饰当前页面对应的实体的。
[0017] 在步骤(3)中,上一步抽取的类别信息Ci是否被加入类别树中由评分函数决定,如下式所示:
[0018] ConfCi)=Freq(Ci)*Std(Ci)
[0019] 其中Freq(Ci),Std(Ci)分别表示类别的频率分数和标准化程度分数,计算方法如下:
[0020] 表示i在所有页面抽取结果中的出现频率,k=10
[0021]
[0022]
[0023] WCnt(Ci)表示Ci分词之后的单词数量
[0024]
[0025] 其中Suf(Ci)表示Ci分词之后的连续后缀集合;xij是Ci分词之后的一连续后缀,WCnt(xij)表示xij分词之后的单词数量。
[0026] 其中Freq(Ci)表示Ci在所有页面类别信息中的出现频率,频率越高,Freq(Ci)越大;Std(Ci)表示Ci的标准化程度。Wikipedia等网络百科本身有自己的类别标签集合,如果Ci在这些类别标签集合中,Std(Ci)越大;Ci分词之后的连续后缀属于这些类别标签中,Std(Ci)越大。比如,“20世纪美国篮球运动员”这个类别信息不在网络百科的类别标签集合中,但是其分词(“20世纪/美国/篮球/运动员”)中的连续后缀“篮球运动员”属于,则其Std(Ci)值应该处于中等水平,“上海出生”既不属于类别标签,其后缀“出生”也不属于类别标签,则其Std(Ci)值应该较低。
[0027] 本发明通过Conf(Ci)来对类别信息Ci排序,从而得到一个大小可控(通过限制阈值大小)的类别集合。如果类别信息Ci在网络百科的类别有向图中是类别信息Cj的祖先类别,则本发明在类别树上将Ci标记为Cj的祖先类别,这样本发明可以从零开始依次将类别信息加入类别树,生成类别树。同时,如果类别信息不在维基百科的类别体系中,通过类别信息分词后取最长连续后缀的方法将其映射到本发明的类别树上,从而生成知识库的类别体系(taxonomy)。
[0028] 在步骤(4)中,本发明首先构造一个概念词典,类似于在中英文字典中输入中文单词会显示可能对应的所有英文单词(比如输入“人”显示“human”“, person”等)。本发明从页面的标题、HTML超链接的锚文本、信息框和摘要中抽取的别名,建立自然语言文本到候选概念的映射词典,映射词典的形式如下所示。
[0029]
[0030]
[0031] 对任意2个有某个相同自然语言形式的候选页面Di,Dj进行相似度判断,计算的公式如下:
[0032] isDup(Di,Dj)=α*ContextSim(Di,Dj)+(1-α)*CateSim(Di,Dj)
[0033] 比较2个页面正文的相似度以及他们含有的类别信息的相似度。需要注意的是,如果他们共有的类别在类别树上层数越高(类别越细致),则CateSim值越高。如果2个页面Di,Dj相似度大于阈值,则删除页面信息较少者(类别数量少、外链少、文本少),最后得到一个没有重复条目的概念词典(实体集合)。
[0034] 在步骤(5)中,本发明进行最终的三元组抽取。这里主要抽取信息框中的(属性名,属性值)对,加上页面对应的实体作为主语,就生成了一个主体链接过的三元组,这里三元组的主体即是页面对应的实体,已经完全链接过了,而属性名(对应三元组的谓词)和属性值(对应三元组的客体)则还是普通的文本,并没有链接。
[0035] 在步骤(6)中,发明会构造一些客体正规化转换器(比如处理时间类客体的转换器、处理长度类客体、处理实体类客体等)对于上面抽到的每条三元组,匹配每个转换器,然后进入相应的转换器进行标准化输出。但是如果对于某一条三元组,所有的匹配器都不能匹配或者有多个转换器匹配,则将其抛入预训练好的SVM分类器进行预测,输出的结果就是其应该使用的转换器。SVM分类器的分类候选对应每个转换器。在分类器训练模型和测试的时候特征向量构造如下:抽取esubj包含的类别、esubj的特征向量(可参考Tomas Mikolov,Distributed Representations of Sentences and Documents)、p分词后的词性分布(148维的one-hot向量)、p分词之后每个单词词向量的平均向量(词向量基于百科正文使用Word2Vec预训练好)、客体字符串o的6维的one-hot特征向量(是否含有{数字、标点符号、单位、年月日标记、非数字类型的实体名})拼接成的特征向量。
[0036] 如果判断是实体类三元组(或者没有被其他转换器匹配到),先通过概念词典找到客体oi可能的实体候选集合 然后判断每个实体候选的分数。如果都低于阈值,则说明实体不在知识库里(无法联机),不将其加入最终标准化的三元组中;否则,取分数最高的实体作为标准的客体进行链接。其中实体和三元组的相似度的分数如下式所示
[0037]
[0038] 其中ContextRel描述主体和候选客体实体之间的相互链接关系以及文本、内链的重合度;CateRel衡量候选客体实体的类别是否满足谓词p的要求。其公式如下所示:
[0039] l和h为平滑参数,此处取值为2,
KWd表示页面
d根据tf-idf提取的关键词列表;γ和β这里都取0.5, 表示页面 内部超链接链接的url集合。
[0040]
[0041] 表示页面 的类别集合
[0042] 与现有技术相比,本发明的积极效果为:
[0043] 1)可以基于信息抽取自动的构建类别体系,并在页面与类别体系间构建了丰富的关联。2)通过自动构建的别名词典(概念词典)大幅度的减少需要判断重复页面候选,大幅提升算法复杂度。3)通过类别体系和文本信息来对三元组的客体进行实体链接,提高了实体链接的准确性。4)适用于多个网络百科融合生成一个知识库的需求。

附图说明

[0044] 图1为本发明实施例中的整体框架图示;
[0045] 图2为本发明实施例中的整体流程图示。

具体实施方式

[0046] 下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,可以理解的是,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
[0047] 本发明实例基于维基数据和百度百科这两个开放的网络百科平台。本领域技术人员应该清楚地明白,在具体实施过程中也可以加入/替换为例如互动百科等百科知识平台。
[0048] 本发明以“wiki:姚明”“bd∶阿里巴巴集团”分别代表中文维基百科中页面标题为“姚明”的页面和百度百科中页面标题为“阿里巴巴集团”的页面;“entity:中国”表示页面去重后对应的标题为“中国”的页面。Cwiki:姚明表示从维基百科“姚明”对应的页面中抽取的类别集合,Ti表示生成的类别体系中的某个类别节点。通过爬虫抓取不同百科的所有页面中,本发明先是通过抓取页面中的类别信息,从中自动构建类别树,进而生成知识库的类别体系;然后通过类别信息、自动抽取的概念词典以及页面的文本信息去除重复页面,生成知识库的概念集合;最后将文本信息中抽取的三元组放入标准化转化器和本发明构造的实体链接器来生成标准化的三元组。使用该方法生成的知识库不仅可以输出实体的类别体系(taxonomy),还可以对三元组中的实体进行链接,得到高质量的三元组知识,适用于多个网络百科混合生成知识库的需求。
[0049] 如图2所示,是本发明实例中的流程图,包括如下步骤:
[0050] ①构造网络爬虫抓取多源网络百科的所有页面;
[0051] ②从页面摘要和词条标签等多种来源抽取页面中的类别信息;
[0052] ③基于类别信息自动构建类别树;
[0053] ④将类别信息和类别树对应;
[0054] ⑤对每个百科,通过收集内部的跳转信息、文本中的别名信息来分别构建各自的概念词典;
[0055] ⑥基于类别信息等文本特性对多源百科页面进行去重,剩下无重复的页面集合组成知识库的概念(实体)集合;
[0056] ⑦从页面信息框和正文中抽取三元组信息;
[0057] ⑧构造多种类别标准化转换器,将客体转换成标准类别,并基于类别信息等文本信息对客体是实体的情况进行链接和标准化转化;
[0058] ⑨输出标准化的三元组;
[0059] ⑩输出知识库的类别体系。
[0060] 步骤①:构造网络爬虫抓取多源网络百科的所有页面
[0061] 本实例的爬虫按照百度百科的默认url格式baike.baidu.com/view/XXX.htm遍历页面,其中XXX从1开始遍历到2500万。爬虫会挖掘页面中的内链,递归的抓取页面。不同的网络百科分开抓取。
[0062] 步骤②:从页面摘要和词条标签等多种来源抽取页面中的类别信息
[0063] 本发明从页面下方的词条标签和正文前几段(即摘要部分)抽取页面的类别信息。在从正文中抽取类别信息的时候本发明需要对文本中的类别单词、短语进行句法分析来抽取摘要中的名词短语,另外本发明只保留修饰当前页面的名词短语,忽略掉摘要中描述其他事物的名词短语。
[0064] 步骤③:基于类别信息自动构建类别树
[0065] 在这一步骤中,本发明首先删除低频的类别信息(小于10次),然后使用下面的方法计算每个类别信息的分数,取分数最高的5万个类别标签生成类别树。类别信息Ci的分数为
[0066] Conf(Ci)=Freq(Ci)*Std(Ci)
[0067] 其中Freq(Ci),Std(Ci)分别表示类别的频率分数和标准化程度分数,计算方法如下:
[0068] 表示Ci的出现频率,k=10
[0069]
[0070]
[0071] WCnt(Ci)表示分词之后的单词数量
[0072] 其中Suf(Ci)表示Ci分词之后的连续后缀集合
[0073] 比如,“20世纪美国篮球运动员”这个类别信息不在网络百科的类别列表中,但是其分词(“20世纪/美国/篮球/运动员”)中的连续后缀为“20世纪美国篮球运动员,美国篮球运动员,篮球运动员,运动员”
[0074] 取Conf(Ci)分数最高的5万个类别作为类别树的节点候选。如果类别信息Ci在维基百科的类别体系(本身是一个有向有环图)中是类别信息Cj的祖先类别,则本发明在类别树上将Ci标记为Cj的祖先类别,按照Conf(Ci)的分数将候选节点加入类别树中,同时保持树结构,最后生成自己的类别树。同时,如果类别信息不在维基百科的类别体系中,本发明通过类别信息分词后取在维基百科类别体系中且最长的连续后缀的方法将其映射到本发明的类别树上(比如将“现役中国篮球运动员”映射为“篮球运动员”加入类别树中),从而生成知识库的类别体系(taxonomy)。
[0075] 步骤④:将类别信息和类别树对应
[0076] 对于每个页面的类别信息,本发明将其映射到上一步构造的类别树上。例如“20世纪美国篮球运动员”这个类别信息,本发明先对其分词,得到“20世纪/美国/篮球/运动员”,然后依次查找“20世纪美国篮球运动员”,“美国篮球运动员”,“篮球运动员”,“运动员”是否在类别树上,直到第一次找到后停止。这样就得到了页面到类别树的多对多映射。
[0077] 步骤⑤:对每个百科,通过收集内部的跳转信息、文本中的别名信息来分别构建各自的概念词典
[0078] 本发明查找所有页面的内链、信息框中的别名信息、摘要中的别名信息来收集每个页面的所有可能的名字。比如在NBA的页面中出现了超链接指向页面“勒布朗·詹姆斯”,超链接的文本是“小皇帝”,则小皇帝是页面“勒布朗·詹姆斯”的一个别名。收集完所有页面,则构造一个概念词典,类似于属于在中英文字典中输入中文单词会显示可能对应的所有英文单词(比如输入“人”显示“human”,“person”等)。比如可以得到所有可能叫“小皇帝”的页面列表。他们之间很可能有一些是重复的页面。
[0079] 步骤⑥:基于类别信息等文本特性对多源百科页面进行去重,剩下无重复的页面集合就是知识库的概念(实体)集合
[0080] 对于上一步的概念词典中可能包含某个相同别名的任意2个页面,本发明都计算一下他们的相似度。虽然不同的url可能对应同一个页面,但是因为爬虫抓取非瞬时,所以可能同样的一个页面在2次访问(不同的url指向同一个页面)的间隔,页面可能被编辑者修改而导致不同,而且网络百科中本身就存在描述相同实体但是内容有差别的页面,所以不能简单通过页面正文哈希值来判断是否是同一页面。对任意2个有某个相同自然语言形式的候选页面Di,Dj进行相似度判断,计算的公式如下:
[0081] isDup(Di,Dj)=α*ContextSim(Di,Dj)+(1-α)*CateSim(Di,Dj)
[0082] 其中: γ这里取0.5
[0083]
[0084] KWd表示页面d根据tf-idf提取的关键词列表
[0085] depthT(t)表示类别t在taxonomy中的深度,Ti表示页面Di的类别集合
[0086] 如果有2个页面相似度大于阈值,则删除页面信息较少者(类别数量少、外链少、文本少),最后得到一个没有重复条目的概念词典(实体集合)。
[0087] 步骤⑦:从页面信息框和正文中抽取三元组信息
[0088] 这里主要抽取信息框中的(属性名,属性值)对,加上页面对应的实体作为主语,就生成了一个主体链接过的三元组。另外我们收集前一个方法中收集到的高频的属性名,并在每个页面中收集含有这些属性名的句子,通过句法分析挖掘其中的三元组。同样的程序要求在摘要中的属性名必须是直接关联页面实体的。通过上面两种方式抽取三元组。
[0089] 步骤⑧:构造多种类别标准化转换器,将客体转换成标准类别,并基于类别信息等文本信息对客体是实体的情况进行链接和标准化转化
[0090] 这里构造了一些客体正规化转换器(处理时间类客体的转换器、处理常见单位客体、处理纯文本类客体、处理实体类客体等)对于上面抽到的每条三元组,匹配每个转换器,然后进入相应的转换器进行标准化输出。
[0091] 对于上一步抽取的某一条三元组,其具体进入哪一个转换器处理由一个复合型分类器处理。其基于手工规则加机器学习自动分类的复合模型。首先每个转换器会有一个默认的规则匹配器,比如时间类转换器TimeConverter的匹配器为匹配谓词p是否以“日期”、“时间”、或者“成立”结尾、数字类转换器NumberConverter的匹配函数为匹配谓词p是否以“数”或者“数量”结尾。默认的匹配器能覆盖大部分常见形式,但是如果对于某一条三元组,所有的匹配器都不能匹配或者有多个转换器匹配,则将其抛入预训练好的SVM分类器进行预测,输出的结果就是其应该使用的转换器。SVM分类器的分类候选对应每个转换器。在分类器训练模型和测试的时候特征向量构造如下:抽取esubj包含的类别、esubj的特征向量(可参考Tomas Mikolov,Distributed Representations of Sentences and Documents)、p分词后的词性分布(148维的one-hot向量)、p分词之后每个单词词向量的平均向量(词向量基于百科正文使用Word2Vec预训练好)、客体字符串o的6维的one-hot特征向量(是否含有{数字、标点符号、单位、年月日标记、非数字类型的实体名})拼接成的特征向量。
[0092] 如果判断是实体类三元组(或者没有被其他转换器匹配到),先通过概念词典找到客体oi可能的实体候选集合 然后判断每个实体候选的分数。如果都低于阈值,则说明实体不在知识库里(无法链接),否则,取分数最高的实体链接。其中实体和三元组的相似度的分数如下式所示
[0093]
[0094] 其中ContextRel描述主体和候选客体实体之间的相互链接关系以及文本、内链的重合度,CαteRel衡量候选客体实体的类别是否满足谓词p的要求,具体的公式为[0095]
[0096] l和h为平滑参数,这里都取2, 见步骤⑥,用来衡量页面间的相似度;linkOverlap用来衡量2个页面间内链的相似度;
[0097]
[0098] β这里都取0.5。
[0099] KW定义见步骤⑥, 表示页面 内部超链接链接的url集合
[0100]
[0101] T定义见步骤⑥。
[0102] 步骤⑨:输出标准化的三元组
[0103] 我们按照RDF形式输出三元组信息,当然也可以采用其他的格式(如mysql表等形式),可以根据自由定义输出格式。
[0104] 步骤⑩:输出知识库的类别体系
[0105] 和步骤⑨类似,可以自定义输出格式,可以以RDF形式输出三元组信息,当然也可以采用其他的格式。
[0106] 综上所述,本发明实施例中,以维基百科和百度百科为依托,自动构建了一个含义标准类别体系(taxonomy)的全领域知识库。使用该方法生成的知识库不仅可以输出实体的类别体系(taxonomy),还可以对三元组中的实体进行链接,得到高质量的三元组知识,适用于多个网络百科混合生成知识库的需求。
[0107] 显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若对本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
高效检索全球专利

IPRDB是专利检索,专利查询,专利分析-国家发明专利查询检索分析平台,是提供专利分析,专利查询专利检索等数据服务功能的知识产权数据服务商。

我们的产品包含105个国家的1.26亿组数据,专利查询、专利分析

电话:13651749426

侵权分析

IPRDB的侵权分析产品是IPRDB结合多位一线专利维权律师和专利侵权分析师的智慧,开发出来的一款特色产品,也是市面上唯一一款帮助企业研发人员、科研工作者、专利律师、专利分析师快速定位侵权分析的产品,极大的减少了用户重复工作量,提升工作效率,降低无效或侵权分析的准入门槛。

立即试用