医学图像的加窗方法及装置转让专利

申请号 : CN202011104293.X

文献号 : CN112233126B

文献日 :

基本信息:

PDF:

法律信息:

相似专利:

发明人 : 亢寒张荣国李新阳王少康陈宽

申请人 : 推想医疗科技股份有限公司

摘要 :

本发明提供了一种医学图像的加窗方法及装置。该方法包括:分别获取待加窗处理的多个医学图像中的每个医学图像中的感兴趣区域的第一CT值和第二CT值,其中,第一CT值大于第二CT值;根据获取的多个第一CT值,确定加窗处理的窗口的第一参数值;根据获取的多个第二CT值,确定加窗处理的窗口的第二参数值;根据窗口的第一参数值和第二参数值,对多个医学图像进行加窗处理,能够自动选择合适的窗宽、窗位。

权利要求 :

1.一种医学图像的加窗方法,其特征在于,包括:分别获取待加窗处理的多个医学图像中的每个医学图像中的感兴趣区域的第一X线计算机断层摄影CT值和第二CT值;

将多个第一CT值从小到大排列,选取所述多个第一CT值中排序在第一预设分位数的位置处的第一CT值作为加窗处理的窗口的第一参数值;

将多个第二CT值从小到大排列,选取所述多个第二CT值中排序在第二预设分位数的位置处的第二CT值作为加窗处理的窗口的第二参数值;

根据所述窗口的第一参数值和第二参数值,对所述多个医学图像进行加窗处理;

其中,所述第一CT值为所述多个医学图像中的每个医学图像中的感兴趣区域的最大CT值;所述第二CT值为所述多个医学图像中的每个医学图像中的感兴趣区域的最小CT值;所述第一参数值为加窗处理的窗口的最大值;所述第二参数值为加窗处理的窗口的最小值。

2.根据权利要求1所述的方法,其特征在于,所述多个医学图像为神经网络模型的正样本训练集中的多个正样本,所述神经网络模型包括二值化分割网络模型,所述方法还包括:从样本集中获取所述正样本训练集和负样本训练集,其中,所述正样本训练集中的每个正样本为具有感兴趣区域的图像,所述负样本训练集中的每个负样本为不具有感兴趣区域的图像,

其中,所述根据所述窗口的第一参数值和第二参数值,对所述多个医学图像进行加窗处理,包括:

根据所述窗口的第一参数值和第二参数值,分别对所述正样本训练集中的每个正样本和所述负样本训练集中的每个负样本进行加窗处理,其中,所述方法还包括:

利用经过加窗处理的正样本训练集和负样本训练集对所述神经网络模型进行训练。

3.根据权利要求2所述的方法,其特征在于,所述利用经过加窗处理的正样本训练集和负样本训练集对所述神经网络模型进行训练,包括:根据批尺寸参数,分别从所述正样本训练集中获取i个正样本,其中,i为大于等于1的整数;

根据所述批尺寸参数和所述i个正样本的数量,分别从所述负样本训练集中获取j个负样本;

根据每个由所述i个正样本和所述j个负样本组成的小批量样本集对所述神经网络模型进行训练。

4.根据权利要求3所述的方法,其特征在于,所述根据每个由所述i个正样本和所述j个负样本组成的小批量样本集对所述神经网络模型进行训练,包括:将所述小批量样本集作为一个整体,获得所述小批量样本集对应的一个损失函数值,根据所述损失函数值对所述神经网络模型进行训练。

5.根据权利要求2所述的方法,其特征在于,所述正样本训练集由所述样本集中的所有正样本组成,所述负样本训练集通过以下任一方法得到:利用所述正样本训练集训练得到的神经网络对所述样本集中的所有负样本进行测试,分别获得难学负样本和简单负样本,根据所述难学负样本和所述简单负样本的比例,从所述样本集中获得所述负样本训练集;或者当所述样本集中的负样本数量少于所述正样本训练集的正样本数量时,将所述样本集中的所有负样本作为所述负样本训练集;或者当所述样本集中的负样本数量与所述正样本训练集的正样本数量相等时,将所述样本集中的所有负样本作为所述负样本训练集;或者当所述样本集中的负样本数量多于所述正样本训练集的正样本数量,且所述负样本数量与所述正样本训练集的正样本数量之比小于第一预设比例时,将所述样本集中的所有负样本作为所述负样本训练集;或者当所述样本集中的负样本数量多于所述正样本训练集的正样本数量,且所述负样本数量与所述正样本训练集的正样本数量之比大于等于第二预设比例时,从所述样本集中的所有负样本中随机或者等间隔地选取第三预设比例的负样本作为所述负样本训练集。

6.一种医学图像的加窗装置,其特征在于,包括:获取模块,用于分别获取待加窗处理的多个医学图像中的每个医学图像中的感兴趣区域的第一CT值和第二CT值;

第一确定模块,用于将多个第一CT值从小到大排列,选取所述多个第一CT值中排序在第一预设分位数的位置处的第一CT值作为加窗处理的窗口的第一参数值;

第二确定模块,用于将多个第二CT值从小到大排列,选取所述多个第二CT值中排序在第二预设分位数的位置处的第二CT值作为加窗处理的窗口的第二参数值;

加窗模块,用于根据所述窗口的第一参数值和第二参数值,对所述多个医学图像进行加窗处理;

其中,所述第一CT值为所述多个医学图像中的每个医学图像中的感兴趣区域的最大CT值;所述第二CT值为所述多个医学图像中的每个医学图像中的感兴趣区域的最小CT值;所述第一参数值为加窗处理的窗口的最大值;所述第二参数值为加窗处理的窗口的最小值。

7.一种计算机可读存储介质,其特征在于,所述存储介质存储有计算机程序,所述计算机程序用于执行上述权利要求1至5中任一项所述的医学图像的加窗方法。

8.一种电子设备,其特征在于,所述电子设备包括:处理器;

用于存储所述处理器可执行指令的存储器;

所述处理器,用于执行上述权利要求1至5中任一项所述的医学图像的加窗方法。

说明书 :

医学图像的加窗方法及装置

技术领域

[0001] 本发明涉及窗技术领域,具体涉及一种医学图像的加窗方法及装置。

背景技术

[0002] 窗技术(Window Technique)是医生用以观察不同密度正常组织或病变的一种显示技术,其包括窗宽和窗位两个参数,窗宽是指CT图像所显示的CT值范围,窗位是指窗宽范
围内的中心值。由于各种不同组织结构或病变具有不同的像素值,因此欲显示某一组织结
构细节时,应选择适合观察组织结构的窗宽、窗位,对图像进行加窗处理,以获得显示最佳
效果。
[0003] 对CT图像进行图像处理时,也需对CT图像进行加窗操作从而方便后续操作。然而,在一般情况下,操作者需要了解相关医学知识,才能知道凸显出感兴趣区域所需的窗宽窗
位;其次,因为CT图像生成的方式不一样,操作者所能查询到的窗宽窗位一般都是大致范
围,这样的窗宽窗位范围并不适用于图像处理。

发明内容

[0004] 有鉴于此,本发明实施例提供了一种医学图像的加窗方法及装置,能够自动选择合适的窗宽、窗位。
[0005] 根据本发明实施例的第一方面,提供一种医学图像的加窗方法,包括:分别获取待加窗处理的多个医学图像中的每个医学图像中的感兴趣区域的第一CT值和第二CT值,其
中,第一CT值大于第二CT值;根据获取的多个第一CT值,确定加窗处理的窗口的第一参数
值;根据获取的多个第二CT值,确定加窗处理的窗口的第二参数值;根据窗口的第一参数值
和第二参数值,对多个医学图像进行加窗处理。
[0006] 在本发明的一个实施例中,上述根据获取的多个第一CT值,确定加窗处理的窗口的第一参数值,包括:将多个第一CT值从小到大排列,选取多个第一CT值中的第一预设分位
数作为窗口的第一参数值,其中,上述根据获取的多个第二CT值,确定加窗处理的窗口的第
二参数值,包括:将多个第二CT值从小到大排列,选取多个第二CT值中的第二预设分位数作
为窗口的第二参数值。
[0007] 在本发明的一个实施例中,多个医学图像为神经网络模型的正样本训练集中的多个正样本,神经网络模型包括二值化分割网络模型,上述方法还包括:从样本集中获取正样
本训练集和负样本训练集,其中,正样本训练集中的每个正样本为具有感兴趣区域的图像,
负样本训练集中的每个负样本为不具有感兴趣区域的图像,其中,上述根据窗口的第一参
数值和第二参数值,对多个医学图像进行加窗处理,包括:根据窗口的第一参数值和第二参
数值,分别对正样本训练集中的每个正样本和负样本训练集中的每个负样本进行加窗处
理,其中,上述方法还包括:利用经过加窗处理的正样本训练集和负样本训练集对神经网络
模型进行训练。
[0008] 在本发明的一个实施例中,上述利用经过加窗处理的正样本训练集和负样本训练集对神经网络模型进行训练,包括:根据批尺寸参数,分别从正样本训练集中获取i个正样
本,其中,i为大于等于1的整数;根据批尺寸参数和i个正样本的数量,分别从负样本训练集
中获取j个负样本;根据每个由i个正样本和j个负样本组成的小批量样本集对神经网络模
型进行训练。
[0009] 在本发明的一个实施例中,上述根据每个由i个正样本和j个负样本组成的小批量样本集对神经网络模型进行训练,包括:将小批量样本集作为一个整体,获得小批量样本集
对应的一个损失函数值,根据损失函数值对神经网络模型进行训练。
[0010] 在本发明的一个实施例中,正样本训练集由样本集中的所有正样本组成,负样本训练集通过以下任一方法得到:利用正样本训练集训练得到的神经网络对样本集中的所有
负样本进行测试,分别获得难学负样本和简单负样本,根据难学负样本和简单负样本的比
例,从样本集中获得负样本训练集;或者当样本集中的负样本数量少于正样本训练集的正
样本数量时,将样本集中的所有负样本作为负样本训练集;或者当样本集中的负样本数量
与正样本训练集的正样本数量相等时,将样本集中的所有负样本作为负样本训练集;或者
当样本集中的负样本数量多于正样本训练集的正样本数量,且负样本数量与正样本训练集
的正样本数量之比小于第一预设比例时,将样本集中的所有负样本作为负样本训练集;或
者当样本集中的负样本数量多于正样本训练集的正样本数量,且负样本数量与正样本训练
集的正样本数量之比大于等于第二预设比例时,从样本集中的所有负样本中随机或者等间
隔地选取第三预设比例的负样本作为负样本训练集。
[0011] 在本发明的一个实施例中,上述第一CT值为多个医学图像中的每个医学图像中的感兴趣区域的最大CT值;第二CT值为多个医学图像中的每个医学图像中的感兴趣区域的最
小CT值;第一参数值为加窗处理的窗口的最大值;第二参数值为加窗处理的窗口的最小值。
[0012] 根据本发明实施例的第二方面,提供一种医学图像的加窗装置,包括:获取模块,用于分别获取待加窗处理的多个医学图像中的每个医学图像中的感兴趣区域的第一CT值
和第二CT值,其中,第一CT值大于第二CT值;第一确定模块,用于根据获取的多个第一CT值,
确定加窗处理的窗口的第一参数值;第二确定模块,用于根据获取的多个第二CT值,确定加
窗处理的窗口的第二参数值;加窗模块,用于根据窗口的第一参数值和第二参数值,对多个
医学图像进行加窗处理。
[0013] 根据本发明实施例的第三方面,提供一种计算机可读存储介质,其特征在于,存储介质存储有计算机程序,计算机程序用于执行上述任一项的医学图像的加窗方法。
[0014] 根据本发明实施例的第四方面,提供一种电子设备,其特征在于,电子设备包括:处理器;用于存储处理器可执行指令的存储器;处理器,用于执行上述任一项的医学图像的
加窗方法。
[0015] 根据本发明实施例提供的技术方案,通过分别获取待加窗处理的多个医学图像中的每个医学图像中的感兴趣区域的第一CT值和第二CT值,其中,第一CT值大于第二CT值;根
据获取的多个第一CT值,确定加窗处理的窗口的第一参数值;根据获取的多个第二CT值,确
定加窗处理的窗口的第二参数值;根据所述窗口的第一参数值和第二参数值,对多个医学
图像进行加窗处理,能够自动选择合适的窗宽、窗位,使操作者在不具备相关医学知识的前
提下,正常对医学图像进行加窗处理。

附图说明

[0016] 为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于
本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他
的附图。
[0017] 图1所示为本发明一实施例提供的医学图像的加窗方法的流程示意图。
[0018] 图2所示为本发明另一实施例提供的医学图像的加窗方法的流程示意图。
[0019] 图3所示为本发明一实施例提供的窗口参数确定方式示意图。
[0020] 图4所示为另一实施例提供的窗口参数确定方式示意图。
[0021] 图5所示为本发明另一实施例提供的医学图像的加窗方法的流程示意图。
[0022] 图6所示为本发明另一实施例提供的医学图像的加窗方法的流程示意图。
[0023] 图7所示为本发明一实施例提供的mini‑batch组成方式示意图。
[0024] 图8所示为本发明另一实施例提供的mini‑batch组成方式示意图。
[0025] 图9所示为本发明一实施例提供的神经网络模型的训练方法的流程示意图。
[0026] 图10所示为本发明一实施例提供的医学图像的加窗装置的框图。
[0027] 图11所示为本发明一实施例提供的电子设备的框图。

具体实施方式

[0028] 下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本发明一部分实施例,而不是全部的实施例。基于本
发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实
施例,都属于本发明保护的范围。
[0029] 为了便于理解,下面先对本申请实施例可能涉及的相关术语及相关概念进行简单介绍。
[0030] (1)加窗处理
[0031] CT值反映了CT图像中各组织对X射线吸收程度,CT值的单位为HU(Hounsfiled Unit,亨氏单位)。CT值也可以称为HU值。以水的吸收程度作为参考,即水的HU=0,衰减系数
大于水的为正直,小于水的为负值。由于CT数据的数值范围很大(负几千到几千这样的范
围),但是,人眼只能看到256个灰阶,因此需要把CT数据转换为灰度图。
[0032] CT数据的数值范围大,没有必要将整个CT数据都显示出来,只需要将感兴趣区域显示清楚即可,因此需要对图像进行加窗处理,即只将窗口内的CT值区域显示出来。加窗处
理包括两个参数:窗宽W和窗位L,其本质是将医学图像中处于[L‑W/2,L+W/2]范围内的HU值
转换到灰度值范围[0,255]。其中,L‑W/2为窗口的最小值,L+W/2为窗口的最大值。具体地,
对于医学图像中的某个HU值,若这一HU值小于等于L‑W/2,则变换为灰度值0;若这一HU值大
于等于L+W/2,则变换为灰度值255;若这一HU值介于L‑W/2与L+W/2之间,则依据线性变换变
为(0,255)之间的某个灰度值。
[0033] (2)小批量(mini‑batch)样本集
[0034] 在训练神经网络模型时,进行一次网络训练所使用的训练样本数称为batch size(批尺寸)。batch size的设置方式存在两种极端情况:(1)若将batch size设置为训练样本
总数,即:将所有训练样本全部输入到神经网络模型中进行一次训练。这种设置方式虽然可
以让神经网络模型在每次训练时都能很好的学习数据分布,但是由于训练样本量一般都很
大,而且计算资源并不能满足所有训练样本同时进行训练,因此这样操作基本不能实现。
(2)若将batch size设置为1,即:只将一个训练样本输入到神经网络模型中进行一次训练。
这一设置方式虽然节约了计算资源,但是并不能很好的拟合整体的数据分布。在这种情况
下,一次神经网络模型训练过程中学到的是一个训练样本特有的分布,容易偏离数据的整
体分布,从而导致神经网络模型收敛慢。因此,batch size一般大于1,并且在计算资源许可
的条件下,batch size越大越好。
[0035] 一次训练所使用的所有训练样本组成一个mini‑batch(即:mini‑batch里包括batch size个训练样本)。一般情况下,神经网络模型训练阶段,会将所有的训练样本进行
随机打乱。设置batch size后,从所有训练样本中不放回地随机选取一个mini‑batch输入
到网络模型中进行训练,直到所有训练样本都训练过一次网络即完成一个epoch(回合)
(即:一个epoch中共进行(训练样本总数/batch size)次训练)。
[0036] 图1所示为本发明一实施例提供的医学图像的加窗方法的流程示意图。该方法可以由计算机设备(例如,服务器)执行。如图1所示,该方法包括如下内容。
[0037] S110:分别获取待加窗处理的多个医学图像中的每个医学图像中的感兴趣区域的第一CT值和第二CT值,其中,第一CT值大于第二CT值。
[0038] 上述医学图像可以为X线计算机断层摄影(CT)图像。应当理解,医学图像可以为2维(2D)图像、2.5维(2.5D)图像或3维(3D)图像,本发明对此不作具体限定。
[0039] 在本发明的一个实施例中,医学图像中的感兴趣区域即为分割目标。例如,如果分割任务是分割病灶(例如,肺结节),则医学图像中的病灶(肺结节)即为分割目标;如果分割
任务是分割器官(例如,肺),则医学图像中的器官(肺野区域)即为分割目标。
[0040] 在本发明的一个实施例中,第一CT值可以为多个医学图像中的每个医学图像中的感兴趣区域的最大CT值;第二CT值可以为多个医学图像中的每个医学图像中的感兴趣区域
的最小CT值。
[0041] 例如,在m个医学图像中,图像1感兴趣区域的CT值为[p11,p12,p13,…,p1n],其中,最小CT值为min_HU1,最大CT值为max_HU1;图像2感兴趣区域的CT值为[p21,p22,
p23,…,p2l],其中,最小CT值为min_HU2,最大CT值为max_HU2;以此类推,图像m感兴趣区域
的CT值为[pm1,pm2,pm3,…,pmk],其中,最小CT值为min_HUm,最大CT值为max_HUm。应当理
解,上述描述仅为示例性描述,本发明对第一CT值和第二CT值的取值不作具体限定,第一CT
值或第二CT值可以是根据任务需要选择的感兴趣区域的任一CT值。
[0042] S120:根据获取的多个第一CT值,确定加窗处理的窗口的第一参数值。
[0043] 在本发明的一个实施例中,第一参数值可以为加窗处理的窗口的最大值。例如,可以根据上述步骤S110获取的m个最大CT值[max_HU1,max_HU2,max_HU3,…,max_HUm],确定
加窗处理的窗口的最大值。应当理解,本发明对上述确定窗口最大值的具体方式不作限定。
[0044] S130:根据获取的多个第二CT值,确定加窗处理的窗口的第二参数值。
[0045] 在本发明的一个实施例中,第二参数值可以为加窗处理的窗口的最小值。例如,可以根据上述步骤S110获取的m个最小CT值[min_HU1,min_HU2,min_HU3,…,min_HUm],确定
加窗处理的窗口的最小值。应当理解,本发明对上述确定窗口最小值的具体方式不作限定。
[0046] S140:根据窗口的第一参数值和第二参数值,对多个医学图像进行加窗处理。
[0047] 具体地,可以根据窗口的最大值和最小值,对多个医学图像进行加窗处理。需要说明的是,也可以根据窗口的最大值和最小值,获得窗口的窗宽和窗位,然后根据窗宽和窗位
对医学图像进行加窗处理,本发明对此不作具体限定。
[0048] 根据本发明实施例提供的技术方案,通过分别获取待加窗处理的多个医学图像中的每个医学图像中的感兴趣区域的第一CT值和第二CT值,其中,第一CT值大于第二CT值;根
据获取的多个第一CT值,确定加窗处理的窗口的第一参数值;根据获取的多个第二CT值,确
定加窗处理的窗口的第二参数值;根据所述窗口的第一参数值和第二参数值,对多个医学
图像进行加窗处理,能够自动选择合适的窗宽、窗位,使操作者在不具备相关医学知识的前
提下,正常对医学图像进行加窗处理。
[0049] 图2所示为本发明另一实施例提供的医学图像的加窗方法的流程示意图。在本发明图1所示实施例的基础上延伸出本发明图2所示实施例,下面着重叙述图2所示实施例与
图1所示实施例的不同之处,相同之处不再赘述。应理解,图3为图2对应的处理方式示意图,
下面结合图3对图2进行介绍。
[0050] 如图2所示,在本发明实施例提供的医学图像的加窗方法中,上述步骤S120可以包括步骤S121。
[0051] S121:将多个第一CT值从小到大排列,选取多个第一CT值中的第一预设分位数作为窗口的第一参数值。
[0052] 例如,如图3所示,以第一CT值为感兴趣区域的最大CT值,第一参数值为窗口的最大值为例,图像1至m的感兴趣区域的CT值,即HU值的最大值分别为max_HU1,max_HU2,max_
HU3,…,max_HUm;可以将这m个最大值[max_HU1,max_HU2,max_HU3,…,max_HUm]从小到大
排序,得到[max_HU1’,max_HU2’,max_HU3’,…,max_HUm’],并选取95%分位数作为加窗处
理的窗口的最大值,也可以说,将排序在95%位置的HU值作为窗口的最大值。应当理解,上
述第一预设分位数为95%仅为示例性描述,本发明对第一预设分位数的具体取值不作限
定。
[0053] 另外,上述步骤S130可以包括步骤S131。
[0054] S131:将多个第二CT值从小到大排列,选取多个第二CT值中的第二预设分位数作为窗口的第二参数值。
[0055] 例如,如图3所示,以第二CT值为感兴趣区域的最小CT值,第一参数值为窗口的最小值为例,图像1至m的感兴趣区域的CT值,即HU值的最小值分别为min_HU1,min_HU2,min_
HU3,…,min_HUm;可以将这m个最小值[min_HU1,min_HU2,min_HU3,…,min_HUm]从小到大
排序,得到[min_HU1’,min_HU2’,min_HU3’,…,min_HUm’],并选取95%分位数作为加窗处
理的窗口的最小值,也可以说,将排序在95%位置的HU值作为窗口的最小值。应当理解,上
述第二预设分位数为95%仅为示例性描述,本发明对第二预设分位数的具体取值也不作限
定。
[0056] 根据本发明实施例提供的技术方案,通过将多个医学图像的CT值的最大值从小到大排列,选取多个医学图像的CT的最大值中的第一预设分位数作为窗口的最大值;将多个
医学图像的CT值的最小值从小到大排列,选取多个医学图像的CT值的最小值中的第二预设
分位数作为窗口的最小值,能够缓解噪声CT值对窗口选择的影响。例如,如图4所示,分别获
取待加窗处理的m个医学图像中的每个医学图像中的感兴趣区域的CT值,分别得到[p11,
p12,p13,…,p1n],[p21,p22,p23,…,p2n],[pm1,pm2,pm3,…,pmn],将所有CT值从小到大
排序,得到[p’1,p’2,p’3,…,p’n,…,p’i,p’j,p’k],选取排序后的所有CT值的0.5%分位
数作为加窗处理的窗口的最小值,选取排序后的所有CT值的99.5%分位数作为加窗处理的
窗口的最大值,这种方法可能会导致得到的窗口过宽,例如感兴趣区域内有空气,容易导致
窗口的最小值过小;感兴趣区域内有金属或伪影,容易导致窗口的最大值过大。相对于图4
所示实施例,本发明实施例提供的技术方案能够缓解噪声CT值对窗口选择的影响,使得获
取到的窗口的最大值和最小值更合适,达到更好的凸显感兴趣区域中的细节的作用。
[0057] 图5所示为本发明一实施例提供的医学图像的加窗方法的流程示意图。该方法可以由计算机设备(例如,服务器)执行。如图5所示,该方法包括如下内容。
[0058] S210:从样本集中获取训练神经网络模型的正样本训练集和负样本训练集,正样本训练集中的每个正样本为具有感兴趣区域的图像,负样本训练集中的每个负样本为不具
有感兴趣区域的图像。
[0059] 神经网络模型可以为二值化分割网络模型,即可以将医学图像分割成感兴趣区域(也可以称为前景,标记为1)和背景(标记为0)。
[0060] 应当理解,而对于多类分割任务(例如:分割任务为从医学图像中分割出多个器官(肝和胰腺)),可以将其转换成多个二值化分割任务,本发明对此不作具体限定。
[0061] 另外,神经网络模型可以为2D网络、2.5D网络或3D网络等,本发明对神经网络模型的类型以及结构不作具体限定。
[0062] 神经网络模型的训练样本,例如CT图像或核磁共振(MRI)图像等,可以为2D图像、2.5D图像或3D图像等,本发明对此不作具体限定。若作为2D图像训练神经网络模型,则CT或
MRI图像的每个层面均可作为一个训练样本;若作为2.5D图像训练神经网络模型,则几个连
续的层面组成的一个2.5D数据可作为一个训练样本;若作为3D图像训练神经网络模型,则
成套CT或MRI图像中剪裁下的每个数据块(称为patch)均可作为一个训练样本。
[0063] 由于样本集中包括大量用于训练神经网络模型的训练样本,包括正样本、负样本,如果将样本集中的所有训练样本都用于模型训练,则需要花费很长时间。此外,训练样本存
在冗余情况,即得到的某些样本可能和另外一些样本类似。在现有的训练样本选取方法中,
一般由操作者根据先验信息(例如肺结节分割任务,因为肺结节在肺中,所以训练样本只在
肺部区域中选取即可)从而减少训练样本数量,但是这样的训练样本选取方式需要先验信
息的帮助。有鉴于此,本申请提供了一种训练样本选取方案,不需要先验信息,可以在任何
情况下从样本集中获取用于训练神经网络模型的正样本训练集和负样本训练集,从而减少
训练样本的数量。
[0064] 具体地,在本发明的一个实施例中,可以将样本集中的所有正样本均用于模型训练,即,所有正样本组成正样本训练集。负样本训练集可以通过下述方法1‑5中的任一方法
得到。其中,方法1需要借助神经网络辅助负样本的选取,方法2‑5则不需要借助神经网络辅
助负样本的选取。
[0065] 方法1:利用正样本训练集训练得到的神经网络对样本集中的所有负样本进行测试,分别获得难学负样本和简单负样本,根据难学负样本和简单负样本的比例,从样本集中
获得负样本训练集。
[0066] 具体地,首先,可以先使用所有正样本训练一个简单的神经网络(该神经网络只需简单训练即可),利用该神经网络对样本集中的所有负样本进行测试,获得难学负样本和简
单负样本。例如,针对二值分割网络,正样本为具有感兴趣区域(即前景)的样本,负样本为
不具有感兴趣区域的样本。若该二值分割网络在某个负样本上分割出前景,则将这一负样
本划分为难学负样本;若该二值分割网络在某个负样本上未分割出前景,则将这一负样本
划分为简单负样本。其次,统计所有负样本中难学负样本与简单负样本的比例。然后,根据
这一比例,在所有负样本中随机选取部分难学负样本与部分简单负样本用于网络训练,即
获取负样本训练集。需要说明的是,选取出的难学负样本与简单负样本的总数量可以为所
有负样本的1/3至1/2,本发明对此不作具体限定。
[0067] 方法2:当样本集中的负样本数量少于正样本训练集的正样本数量时,将样本集中的所有负样本作为负样本训练集。
[0068] 方法3:当样本集中的负样本数量与正样本训练集的正样本数量相等时,将样本集中的所有负样本作为负样本训练集。
[0069] 方法4:当样本集中的负样本数量多于正样本训练集的正样本数量,且负样本数量与正样本训练集的正样本数量之比小于第一预设比例(例如,2)时,将样本集中的所有负样
本作为负样本训练集。
[0070] 应当理解,本发明对第一预设比例的取值不作具体限定。
[0071] 方法5:当样本集中的负样本数量多于正样本训练集的正样本数量,且负样本数量与正样本训练集的正样本数量之比大于等于第二预设比例(例如,2)时,从样本集中的所有
负样本中随机或者等间隔地选取第三预设比例(例如,1/3至1/2倍)的负样本作为负样本训
练集。
[0072] 应当理解,本发明对第二预设比例或第三预设比例的取值不作具体限定。
[0073] S220:分别获取正样本训练集中的多个正样本中的每个正样本中的感兴趣区域的第一CT值和第二CT值,其中,第一CT值大于第二CT值。
[0074] 当训练样本为CT图像时,需要对其进行加窗处理。应当理解,上述多个正样本可以为正样本训练集中的全部或部分正样本,本发明对此不作具体限定。
[0075] S230:根据获取的多个第一CT值,确定加窗处理的窗口的第一参数值。
[0076] S240:根据获取的多个第二CT值,确定加窗处理的窗口的第二参数值。
[0077] S250:根据窗口的第一参数值和第二参数值,分别对正样本训练集中的每个正样本和负样本训练集中的每个负样本进行加窗处理。
[0078] S260:利用经过加窗处理的正样本训练集和负样本训练集对神经网络模型进行训练。
[0079] 根据本发明实施例提供的技术方案,通过采用上述训练样本选取方案从样本集中获取训练神经网络模型的正样本训练集和负样本训练集,能够减少训练样本的数量,提高
训练效率。另外,通过分别获取正样本训练集中的多个正样本中的每个正样本中的感兴趣
区域的第一CT值和第二CT值;根据获取的多个第一CT值,确定加窗处理的窗口的第一参数
值;根据获取的多个第二CT值,确定加窗处理的窗口的第二参数值;根据窗口的第一参数值
和第二参数值,分别对正样本训练集中的每个正样本和负样本训练集中的每个负样本进行
加窗处理,能够自动选择合适的窗宽、窗位,使操作者在不具备相关医学知识的前提下,正
常对医学图像进行加窗处理,从而使用加窗处理后的训练样本对神经网络模型进行训练。
[0080] 图6所示为本发明另一实施例提供的医学图像的加窗方法的流程示意图。在本发明图5所示实施例的基础上延伸出本发明图6所示实施例,下面着重叙述图6所示实施例与
图5所示实施例的不同之处,相同之处不再赘述。应理解,图7为图6对应的处理方式示意图,
下面结合图7对图6进行介绍。
[0081] 如图6所示,在本发明实施例提供的医学图像的加窗方法中,上述步骤S260可以包括步骤S261至S263。
[0082] S261:根据批尺寸参数,分别从正样本训练集中获取i个正样本,其中,i为大于等于1的整数。
[0083] 也就是说,从正样本训练集中获取至少一个正样本。具体地,可以根据设置的批尺寸参数(batch size),从随机打乱后的正样本训练集中随机抽取i个正样本[p1,p2,...,
pi],其中,i∈[batch size/3,batch size/5]。特别地,当batch size=2时,i=1。应当理
解,上述i的取值方式仅为示例性描述,本发明对此不作具体限定。例如,可以从正样本训练
集中选取预设数量(非零)个正样本等。
[0084] S262:根据批尺寸参数和i个正样本的数量,分别从负样本训练集中获取j个负样本。
[0085] 例如,j=batch size–i,从负样本训练集中随机抽取j个负样本[n1,n2,...,nj]。
[0086] S263:根据每个由i个正样本和j个负样本组成的小批量样本集对神经网络模型进行训练。
[0087] 将随机抽取的样本[p1,p2,...,pi,n1,n2,...,nj]进行随机排序后,组成一个小批量样本集(mini‑batch)。进一步地,利用多个mini‑batch依次对神经网络模型进行训练。
[0088] 例如,如图7所示,batch size=3,从正样本训练集中随机抽取batch size/3=1个正样本,从负样本训练集中随机抽取3‑1=2个负样本,将获取到的1个正样本和2个负样
本随机排序,组成一个小批量训练集(mini‑batch)。
[0089] 根据本发明实施例提供的技术方案,通过根据批尺寸参数,分别从正样本训练集中获取i个正样本,其中,i为大于等于1的整数;根据批尺寸参数和i个正样本的数量,分别
从负样本训练集中获取j个负样本;根据每个由i个正样本和j个负样本组成的小批量样本
集对神经网络模型进行训练,可以在保留训练阶段中mini‑batch组成的随机性的情况下,
保证每一次训练所使用的mini‑batch中至少包括一个正样本,相对于随机组成的mini‑
batch中均为负样本的情况,在一定程度上可以缓解正负样本不平衡的状况。此外,相对于
从训练样本中随机选取的一个mini‑batch中均为负样本的情况(针对这种情况,通常在训
练过程中,在损失函数上设置一个小的扰动,从而避免损失函数计算时出现除0的情况,但
是这样的操作可能会导致网络训练过程中计算损失时存在偏差),本发明实施例中的mini‑
batch中至少包括一个正样本,可以在计算资源紧缺而导致batch size较小的情况下减少
计算损失产生的误差,从而提高深度学习网络的精度。
[0090] 在本发明实施例中,正样本训练集可以被分成ni段,ni=正样本数量/i;负样本训练集可以被分为nj段,nj=负样本数量/j。应理解,一个epoch所进行的训练次数与ni或nj有
关。以nj>ni为例,一个epoch中进行的训练次数应为nj。由于nj>ni,那么一个epoch的前ni次
训练已经将正样本训练集中所有正样本全部输入神经网络中,而负样本训练集中还有(nj‑
ni)*j个负样本还没有进行训练。因此,在本发明的一个实施例中,可以在再次随机打乱的
正样本训练集中共随机抽取(nj‑ni)*i个正样本,分别与剩余的负样本形成(nj‑ni)个mini‑
batch用于神经网络模型训练,也即,对正样本进行过采样。
[0091] 例如,如图8所示,batch size=3,i=1,j=2。则ni=3/1=3,nj=8/2=4,即正样本训练集被分为3段,负样本训练集被分为4段。nj>ni,则在再次随机打乱的正样本训练集中
随机抽取1个正样本,与剩余的2个负样本组成mini‑batch用于神经网络模型训练,因此,在
本实施例中,一个回合(epoch)共进行4次训练。
[0092] 应当理解,对于nj<=ni的情况,形成mini‑batch的方式与nj>ni类似,在此不做赘述。
[0093] 在利用mini‑batch对神经网络模型进行训练的过程中,在传统的mini‑batch损失函数值计算方法中,是先对mini‑batch中的每个样本分别计算损失(共得到batch size个
损失值),再对得到的batch size个损失值求平均得到最终的损失值,由于在计算每个样本
的损失时,当样本为负样本时会出现损失函数有除0的情况,因此需要在损失函数中添加小
扰动,以避免出现除0的情况,但这种操作可能会导致得到的损失函数值存在偏差。
[0094] 因此,在本发明的另一个实施例中,上述步骤S263可以包括:将小批量样本集作为一个整体,获得小批量样本集对应的一个损失函数值,根据损失函数值对神经网络模型进
行训练。
[0095] 应当理解,本发明对采用的损失函数的类型不作具体限定。例如,损失函数可以是任意一种用于二值分割的损失函数,例如:交叉熵损失函数(CrossEntropy Loss),加权交
叉熵损失函数(Weighted CrossEntropy Loss),聚焦损失函数(Focal Loss),Dice Loss,
交并比损失函数(IoU Loss),灵敏度‑特异度损失函数(Sensitivity‑Specificity Loss)
或Tversky Loss等;也可以是任意一种面向像素的损失函数(例如上述的CrossEntropy 
Loss,Weighted CrossEntropy Loss,Focal Loss)与任意一种面向区域的损失函数(例如
上述的Dice Loss,IoU Loss,Sensitivity‑Specificity Loss,Tversky Loss)的组合。
[0096] 以Dice Loss为例,在本发明一个实施例中,Dice Loss损失函数的公式可以为:
[0097] 或者
[0098] 或者
[0099]
[0100] 其中,N=batch size,M为mini‑batch中一个图像的像素总数,由于本发明实施例将一个mini‑batch中的batch size个图像看成一个整体,因此像素总数为N×M。若图像为
2D图像,则M=图像通道数×图像宽×图像高;若图像为3D图像,则M=图像通道数×图像深
度×图像宽×图像高。j代表第j个像素,j=1,2,...,M×N。pj表示第j个像素的预测概率
值,其数值范围为[0,1];gj表示第j个像素的标签值,其数值范围为0或者1。
[0101] 相较于传统的mini‑batch损失函数值计算方式,由于本申请中的mini‑batch中至少包括一个正样本,在计算损失函数值时,将一个mini‑batch看成一个整体计算出一个损
失作为最终的损失函数值,可以避免损失函数出现除0的情况,从而不需要在损失函数中添
加小扰动,能够在训练阶段获得更为精准的损失值而更好的更新网络参数,使得训练出的
神经网络模型的预测结果更为精确。
[0102] 图9所示为本发明一实施例提供的神经网络模型的训练方法的流程示意图。该方法可以由计算机设备(例如,服务器)执行。如图9所示,该方法包括如下内容。
[0103] S310:从样本集中自动获取正样本训练集和负样本训练集。
[0104] 正样本训练集和负样本训练集的选取方法请参见上文。正样本训练集和负样本训练集用于训练二值化分割网络模型。
[0105] S320:对正训练样本集和负样本训练集进行预处理。
[0106] 当正样本或负样本为非CT图像时,可以直接进行归一化或标准化处理。当正样本或负样本为CT图像时,可以先进行加窗处理,再进行归一化或标准化处理;具体地,加窗方
法可以包括步骤S321‑S324。
[0107] S321:分别获取正样本训练集中的每个正样本中的感兴趣区域的最大CT值和最小CT值。
[0108] 感兴趣兴趣即为分割目标。例如,如果分割任务是分割病灶(例如,肺结节),则医学图像中的病灶(肺结节)即为分割目标;如果分割任务是分割器官(例如,肺),则医学图像
中的器官(肺野区域)即为分割目标。
[0109] S322:将获取的所有最大CT值从小到大排列,选取所有最大CT值中的95%分位数作为窗口的最大值。
[0110] S323:将获取的所有最小CT值从小到大排列,选取所有最小CT值中的95%分位数作为窗口的最小值。
[0111] S324:根据窗口的最大值和最小值,分别对正样本训练集中的每个正样本和负样本训练集中的每个负样本进行加窗处理。
[0112] S330:利用预处理后的正训练样本集和负样本训练集对二值化分割网络模型进行训练。
[0113] 具体地,可以先设置超参数(包括学习率、学习方式、batch size等)和选取分割神经网络结构,将所有训练样本形成mini‑batch输入到选取的分割网络中,根据预测值和标
签值,计算损失值;将损失值进行反向传播,更新分割神经网络的参数,经过多次训练后即
可得到分割网络模型。
[0114] 具体地,形成mini‑batch对分割神经网络的训练过程可以包括步骤S331至S333。
[0115] S331:根据batch size,分别从加窗处理后的正样本训练集中获取i个正样本,其中,i为大于等于1的整数。
[0116] 例如,i∈[batch size/3,batch size/5]。特别地,当batch size=2时,i=1。应当理解,上述i的取值方式仅为示例性描述,本发明对此不作具体限定。
[0117] S332:根据batch size和i个正样本的数量,分别从加窗处理后的负样本训练集中获取j个负样本。
[0118] 例如,j=batch size–i,从负样本训练集中随机抽取j个负样本[n1,n2,...,nj]。
[0119] S333:根据每个由i个正样本和j个负样本组成的小批量样本集对神经网络模型进行训练。
[0120] 在本发明实施例中,正样本训练集可以被分成ni段,ni=正样本数量/i;负样本训练集可以被分为nj段,nj=负样本数量/j。应理解,一个epoch所进行的训练次数与ni或nj有
关。以nj>ni为例,一个epoch中进行的训练次数应为nj。由于nj>ni,那么一个epoch的前ni次
训练已经将正样本训练集中所有正样本全部输入神经网络中,而负样本训练集中还有(nj‑
ni)*j个负样本还没有进行训练。因此,在本发明的一个实施例中,可以在再次随机打乱的
正样本训练集中共随机抽取(nj‑ni)*i个正样本,分别与剩余的负样本形成(nj‑ni)个mini‑
batch用于神经网络模型训练,也即,对正样本进行过采样。
[0121] 应当理解,对于nj<=ni的情况,形成mini‑batch的方式与nj>ni类似,在此不做赘述。
[0122] 具体地,可以将mini‑batch作为一个整体,获得所述小批量样本集对应的一个损失函数值,根据所述损失函数值对所述神经网络模型进行训练。
[0123] 根据本发明实施例提供的技术方案,通过采用上述训练样本选取方案从样本集中获取训练神经网络模型的正样本训练集和负样本训练集,能够减少训练样本的数量,提高
训练效率;通过将获取的所有最大CT值从小到大排列,选取所有最大CT值中的95%分位数
作为窗口的最大值,将获取的所有最小CT值从小到大排列,选取所有最小CT值中的95%分
位数作为窗口的最小值,能够自动选择合适的窗宽、窗位,使操作者在不具备相关医学知识
的前提下,正常对医学图像进行加窗处理,同时,也能够缓解噪声CT值对窗口选择的影响,
使得获取到的窗口的最大值和最小值更合适,达到更好的凸显感兴趣区域中的细节的作
用;通过根据batch size,分别从加窗处理后的正样本训练集中获取i个正样本,其中,i为
大于等于1的整数,根据batch size和i个正样本的数量,分别从加窗处理后的负样本训练
集中获取j个负样本,根据每个由i个正样本和j个负样本组成的小批量样本集对神经网络
模型进行训练,能够在保留训练阶段中mini‑batch组成的随机性的情况下,保证每一次训
练所使用的mini‑batch中至少包括一个正样本,相对于随机组成的mini‑batch中均为负样
本的情况,在一定程度上可以缓解正负样本不平衡的状况;由于本申请中的mini‑batch中
至少包括一个正样本,在计算损失函数值时,将一个mini‑batch看成一个整体计算出一个
损失作为最终的损失函数值,可以避免损失函数出现除0的情况,从而不需要在损失函数中
添加小扰动,能够在训练阶段获得更为精准的损失值而更好的更新网络参数,使得训练出
的神经网络模型的分割结果更为精确。
[0124] 上述所有可选技术方案,可以采用任意结合形成本发明的可选实施例,在此不再一一赘述。
[0125] 下述为本发明装置实施例,可以用于执行本发明方法实施例。对于本发明装置实施例中未披露的细节,请参照本发明方法实施例。
[0126] 图10所示为本发明一实施例提供的医学图像的加窗装置的框图。如图10所示,该医学图像的加窗装置1000包括:
[0127] 获取模块1010,用于分别获取待加窗处理的多个医学图像中的每个医学图像中的感兴趣区域的第一CT值和第二CT值,其中,第一CT值大于第二CT值。
[0128] 第一确定模块1020,用于根据获取的多个第一CT值,确定加窗处理的窗口的第一参数值。
[0129] 第二确定模块1030,用于根据获取的多个第二CT值,确定加窗处理的窗口的第二参数值。
[0130] 加窗模块1040,用于根据窗口的第一参数值和第二参数值,对多个医学图像进行加窗处理。
[0131] 根据本发明实施例提供的技术方案,通过分别获取待加窗处理的多个医学图像中的每个医学图像中的感兴趣区域的第一CT值和第二CT值,其中,第一CT值大于第二CT值;根
据获取的多个第一CT值,确定加窗处理的窗口的第一参数值;根据获取的多个第二CT值,确
定加窗处理的窗口的第二参数值;根据窗口的第一参数值和第二参数值,对多个医学图像
进行加窗处理,能够自动选择合适的窗宽、窗位,使操作者在不具备相关医学知识的前提
下,正常操作数据。
[0132] 在本发明的另一个实施例中,上述第一确定模块1020还用于将多个第一CT值从小到大排列,选取多个第一CT值中的第一预设分位数作为窗口的第一参数值,其中,上述第二
确定模块1030还用于将多个第二CT值从小到大排列,选取多个第二CT值中的第二预设分位
数作为窗口的第二参数值。
[0133] 在本发明的另一个实施例中,多个医学图像为神经网络模型的正样本训练集中的多个正样本,神经网络模型包括二值化分割网络模型,上述医学图像的加窗装置1000还包
括训练样本获取模块1050,用于从样本集中获取正样本训练集和负样本训练集,其中,正样
本训练集中的每个正样本为具有感兴趣区域的图像,负样本训练集中的每个负样本为不具
有感兴趣区域的图像,其中,上述加窗模块1040还用于根据窗口的第一参数值和第二参数
值,分别对正样本训练集中的每个正样本和负样本训练集中的每个负样本进行加窗处理,
其中,上述医学图像的加窗装置1000还包括训练模块1060,用于利用经过加窗处理的正样
本训练集和负样本训练集对神经网络模型进行训练。
[0134] 在本发明的另一个实施例中,上述训练模块1060还用于根据批尺寸参数,分别从正样本训练集中获取i个正样本,其中,i为大于等于1的整数;根据批尺寸参数和i个正样本
的数量,分别从负样本训练集中获取j个负样本;根据每个由i个正样本和j个负样本组成的
小批量样本集对神经网络模型进行训练。
[0135] 在本发明的另一个实施例中,上述训练模块1060还用于将小批量样本集作为一个整体,获得小批量样本集对应的一个损失函数值,根据损失函数值对神经网络模型进行训
练。
[0136] 在本发明的另一个实施例中,正样本训练集由样本集中的所有正样本组成,负样本训练集通过以下任一方法得到:利用正样本训练集训练得到的神经网络对样本集中的所
有负样本进行测试,分别获得难学负样本和简单负样本,根据难学负样本和简单负样本的
比例,从样本集中获得负样本训练集;或者当样本集中的负样本数量少于正样本训练集的
正样本数量时,将样本集中的所有负样本作为负样本训练集;或者当样本集中的负样本数
量与正样本训练集的正样本数量相等时,将样本集中的所有负样本作为负样本训练集;或
者当样本集中的负样本数量多于正样本训练集的正样本数量,且负样本数量与正样本训练
集的正样本数量之比小于第一预设比例时,将样本集中的所有负样本作为负样本训练集;
或者当样本集中的负样本数量多于正样本训练集的正样本数量,且负样本数量与正样本训
练集的正样本数量之比大于等于第二预设比例时,从样本集中的所有负样本中随机或者等
间隔地选取第三预设比例的负样本作为负样本训练集。
[0137] 在本发明的另一个实施例中,上述第一CT值为所述多个医学图像中的每个医学图像中的感兴趣区域的最大CT值;所述第二CT值为所述多个医学图像中的每个医学图像中的
感兴趣区域的最小CT值;所述第一参数值为加窗处理的窗口的最大值;所述第二参数值为
加窗处理的窗口的最小值。
[0138] 上述装置中各个模块的功能和作用的实现过程具体详见上述方法中对应步骤的实现过程,在此不再赘述。
[0139] 图11所示为本发明一实施例提供的电子设备1100的框图。
[0140] 参照图11,电子设备1100包括处理组件1110,其进一步包括一个或多个处理器,以及由存储器1120所代表的存储器资源,用于存储可由处理组件1110的执行的指令,例如应
用程序。存储器1120中存储的应用程序可以包括一个或一个以上的每一个对应于一组指令
的模块。此外,处理组件1110被配置为执行指令,以执行上述医学图像的加窗方法。
[0141] 电子设备1100还可以包括一个电源组件被配置为执行电子设备1100的电源管理,一个有线或无线网络接口被配置为将电子设备1100连接到网络,和一个输入输出(I/O)接
TM
口。电子设备1100可以操作基于存储在存储器1120的操作系统,例如Windows Server ,Mac 
TM TM TM TM
OS X ,Unix ,Linux ,FreeBSD 或类似。
[0142] 一种非临时性计算机可读存储介质,当存储介质中的指令由上述电子设备1100的处理器执行时,使得上述电子设备1100能够执行一种医学图像的加窗方法,包括:分别获取
待加窗处理的多个医学图像中的每个医学图像中的感兴趣区域的第一CT值和第二CT值,其
中,第一CT值大于第二CT值;根据获取的多个第一CT值,确定加窗处理的窗口的第一参数
值;根据获取的多个第二CT值,确定加窗处理的窗口的第二参数值;根据窗口的第一参数值
和第二参数值,对多个医学图像进行加窗处理。
[0143] 本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟
以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员
可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出
本发明的范围。
[0144] 所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
[0145] 在本申请所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的
划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件
可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或
讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦
合或通信连接,可以是电性,机械或其它的形式。
[0146] 所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个
网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目
的。
[0147] 另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
[0148] 所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说
对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计
算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个
人计算机、服务器、或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。
而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read‑Only Memory,ROM)、随机存取存
储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序校验码的介质。
[0149] 另外,还需要说明的是,本案中各技术特征的组合方式并不限本案权利要求中所记载的组合方式或是具体实施例所记载的组合方式,本案所记载的所有技术特征可以以任
何方式进行自由组合或结合,除非相互之间产生矛盾。
[0150] 需要注意的是,以上列举的仅为本发明的具体实施例,显然本发明不限于以上实施例,随之有着许多的类似变化。本领域的技术人员如果从本发明公开的内容直接导出或
联想到的所有变形,均应属于本发明的保护范围。
[0151] 应当理解,本发明实施例中提到的第一、第二等限定词,仅仅为了更清楚地描述本发明实施例的技术方案使用,并不能用以限制本发明的保护范围。
[0152] 以上仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围
之内。