医学图像的加窗方法及装置转让专利
申请号 : CN202011104293.X
文献号 : CN112233126B
文献日 : 2021-09-17
发明人 : 亢寒 , 张荣国 , 李新阳 , 王少康 , 陈宽
申请人 : 推想医疗科技股份有限公司
摘要 :
权利要求 :
1.一种医学图像的加窗方法,其特征在于,包括:分别获取待加窗处理的多个医学图像中的每个医学图像中的感兴趣区域的第一X线计算机断层摄影CT值和第二CT值;
将多个第一CT值从小到大排列,选取所述多个第一CT值中排序在第一预设分位数的位置处的第一CT值作为加窗处理的窗口的第一参数值;
将多个第二CT值从小到大排列,选取所述多个第二CT值中排序在第二预设分位数的位置处的第二CT值作为加窗处理的窗口的第二参数值;
根据所述窗口的第一参数值和第二参数值,对所述多个医学图像进行加窗处理;
其中,所述第一CT值为所述多个医学图像中的每个医学图像中的感兴趣区域的最大CT值;所述第二CT值为所述多个医学图像中的每个医学图像中的感兴趣区域的最小CT值;所述第一参数值为加窗处理的窗口的最大值;所述第二参数值为加窗处理的窗口的最小值。
2.根据权利要求1所述的方法,其特征在于,所述多个医学图像为神经网络模型的正样本训练集中的多个正样本,所述神经网络模型包括二值化分割网络模型,所述方法还包括:从样本集中获取所述正样本训练集和负样本训练集,其中,所述正样本训练集中的每个正样本为具有感兴趣区域的图像,所述负样本训练集中的每个负样本为不具有感兴趣区域的图像,
其中,所述根据所述窗口的第一参数值和第二参数值,对所述多个医学图像进行加窗处理,包括:
根据所述窗口的第一参数值和第二参数值,分别对所述正样本训练集中的每个正样本和所述负样本训练集中的每个负样本进行加窗处理,其中,所述方法还包括:
利用经过加窗处理的正样本训练集和负样本训练集对所述神经网络模型进行训练。
3.根据权利要求2所述的方法,其特征在于,所述利用经过加窗处理的正样本训练集和负样本训练集对所述神经网络模型进行训练,包括:根据批尺寸参数,分别从所述正样本训练集中获取i个正样本,其中,i为大于等于1的整数;
根据所述批尺寸参数和所述i个正样本的数量,分别从所述负样本训练集中获取j个负样本;
根据每个由所述i个正样本和所述j个负样本组成的小批量样本集对所述神经网络模型进行训练。
4.根据权利要求3所述的方法,其特征在于,所述根据每个由所述i个正样本和所述j个负样本组成的小批量样本集对所述神经网络模型进行训练,包括:将所述小批量样本集作为一个整体,获得所述小批量样本集对应的一个损失函数值,根据所述损失函数值对所述神经网络模型进行训练。
5.根据权利要求2所述的方法,其特征在于,所述正样本训练集由所述样本集中的所有正样本组成,所述负样本训练集通过以下任一方法得到:利用所述正样本训练集训练得到的神经网络对所述样本集中的所有负样本进行测试,分别获得难学负样本和简单负样本,根据所述难学负样本和所述简单负样本的比例,从所述样本集中获得所述负样本训练集;或者当所述样本集中的负样本数量少于所述正样本训练集的正样本数量时,将所述样本集中的所有负样本作为所述负样本训练集;或者当所述样本集中的负样本数量与所述正样本训练集的正样本数量相等时,将所述样本集中的所有负样本作为所述负样本训练集;或者当所述样本集中的负样本数量多于所述正样本训练集的正样本数量,且所述负样本数量与所述正样本训练集的正样本数量之比小于第一预设比例时,将所述样本集中的所有负样本作为所述负样本训练集;或者当所述样本集中的负样本数量多于所述正样本训练集的正样本数量,且所述负样本数量与所述正样本训练集的正样本数量之比大于等于第二预设比例时,从所述样本集中的所有负样本中随机或者等间隔地选取第三预设比例的负样本作为所述负样本训练集。
6.一种医学图像的加窗装置,其特征在于,包括:获取模块,用于分别获取待加窗处理的多个医学图像中的每个医学图像中的感兴趣区域的第一CT值和第二CT值;
第一确定模块,用于将多个第一CT值从小到大排列,选取所述多个第一CT值中排序在第一预设分位数的位置处的第一CT值作为加窗处理的窗口的第一参数值;
第二确定模块,用于将多个第二CT值从小到大排列,选取所述多个第二CT值中排序在第二预设分位数的位置处的第二CT值作为加窗处理的窗口的第二参数值;
加窗模块,用于根据所述窗口的第一参数值和第二参数值,对所述多个医学图像进行加窗处理;
其中,所述第一CT值为所述多个医学图像中的每个医学图像中的感兴趣区域的最大CT值;所述第二CT值为所述多个医学图像中的每个医学图像中的感兴趣区域的最小CT值;所述第一参数值为加窗处理的窗口的最大值;所述第二参数值为加窗处理的窗口的最小值。
7.一种计算机可读存储介质,其特征在于,所述存储介质存储有计算机程序,所述计算机程序用于执行上述权利要求1至5中任一项所述的医学图像的加窗方法。
8.一种电子设备,其特征在于,所述电子设备包括:处理器;
用于存储所述处理器可执行指令的存储器;
所述处理器,用于执行上述权利要求1至5中任一项所述的医学图像的加窗方法。
说明书 :
医学图像的加窗方法及装置
技术领域
背景技术
围内的中心值。由于各种不同组织结构或病变具有不同的像素值,因此欲显示某一组织结
构细节时,应选择适合观察组织结构的窗宽、窗位,对图像进行加窗处理,以获得显示最佳
效果。
位;其次,因为CT图像生成的方式不一样,操作者所能查询到的窗宽窗位一般都是大致范
围,这样的窗宽窗位范围并不适用于图像处理。
发明内容
中,第一CT值大于第二CT值;根据获取的多个第一CT值,确定加窗处理的窗口的第一参数
值;根据获取的多个第二CT值,确定加窗处理的窗口的第二参数值;根据窗口的第一参数值
和第二参数值,对多个医学图像进行加窗处理。
数作为窗口的第一参数值,其中,上述根据获取的多个第二CT值,确定加窗处理的窗口的第
二参数值,包括:将多个第二CT值从小到大排列,选取多个第二CT值中的第二预设分位数作
为窗口的第二参数值。
本训练集和负样本训练集,其中,正样本训练集中的每个正样本为具有感兴趣区域的图像,
负样本训练集中的每个负样本为不具有感兴趣区域的图像,其中,上述根据窗口的第一参
数值和第二参数值,对多个医学图像进行加窗处理,包括:根据窗口的第一参数值和第二参
数值,分别对正样本训练集中的每个正样本和负样本训练集中的每个负样本进行加窗处
理,其中,上述方法还包括:利用经过加窗处理的正样本训练集和负样本训练集对神经网络
模型进行训练。
本,其中,i为大于等于1的整数;根据批尺寸参数和i个正样本的数量,分别从负样本训练集
中获取j个负样本;根据每个由i个正样本和j个负样本组成的小批量样本集对神经网络模
型进行训练。
对应的一个损失函数值,根据损失函数值对神经网络模型进行训练。
负样本进行测试,分别获得难学负样本和简单负样本,根据难学负样本和简单负样本的比
例,从样本集中获得负样本训练集;或者当样本集中的负样本数量少于正样本训练集的正
样本数量时,将样本集中的所有负样本作为负样本训练集;或者当样本集中的负样本数量
与正样本训练集的正样本数量相等时,将样本集中的所有负样本作为负样本训练集;或者
当样本集中的负样本数量多于正样本训练集的正样本数量,且负样本数量与正样本训练集
的正样本数量之比小于第一预设比例时,将样本集中的所有负样本作为负样本训练集;或
者当样本集中的负样本数量多于正样本训练集的正样本数量,且负样本数量与正样本训练
集的正样本数量之比大于等于第二预设比例时,从样本集中的所有负样本中随机或者等间
隔地选取第三预设比例的负样本作为负样本训练集。
小CT值;第一参数值为加窗处理的窗口的最大值;第二参数值为加窗处理的窗口的最小值。
和第二CT值,其中,第一CT值大于第二CT值;第一确定模块,用于根据获取的多个第一CT值,
确定加窗处理的窗口的第一参数值;第二确定模块,用于根据获取的多个第二CT值,确定加
窗处理的窗口的第二参数值;加窗模块,用于根据窗口的第一参数值和第二参数值,对多个
医学图像进行加窗处理。
加窗方法。
据获取的多个第一CT值,确定加窗处理的窗口的第一参数值;根据获取的多个第二CT值,确
定加窗处理的窗口的第二参数值;根据所述窗口的第一参数值和第二参数值,对多个医学
图像进行加窗处理,能够自动选择合适的窗宽、窗位,使操作者在不具备相关医学知识的前
提下,正常对医学图像进行加窗处理。
附图说明
本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他
的附图。
具体实施方式
发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实
施例,都属于本发明保护的范围。
大于水的为正直,小于水的为负值。由于CT数据的数值范围很大(负几千到几千这样的范
围),但是,人眼只能看到256个灰阶,因此需要把CT数据转换为灰度图。
理包括两个参数:窗宽W和窗位L,其本质是将医学图像中处于[L‑W/2,L+W/2]范围内的HU值
转换到灰度值范围[0,255]。其中,L‑W/2为窗口的最小值,L+W/2为窗口的最大值。具体地,
对于医学图像中的某个HU值,若这一HU值小于等于L‑W/2,则变换为灰度值0;若这一HU值大
于等于L+W/2,则变换为灰度值255;若这一HU值介于L‑W/2与L+W/2之间,则依据线性变换变
为(0,255)之间的某个灰度值。
总数,即:将所有训练样本全部输入到神经网络模型中进行一次训练。这种设置方式虽然可
以让神经网络模型在每次训练时都能很好的学习数据分布,但是由于训练样本量一般都很
大,而且计算资源并不能满足所有训练样本同时进行训练,因此这样操作基本不能实现。
(2)若将batch size设置为1,即:只将一个训练样本输入到神经网络模型中进行一次训练。
这一设置方式虽然节约了计算资源,但是并不能很好的拟合整体的数据分布。在这种情况
下,一次神经网络模型训练过程中学到的是一个训练样本特有的分布,容易偏离数据的整
体分布,从而导致神经网络模型收敛慢。因此,batch size一般大于1,并且在计算资源许可
的条件下,batch size越大越好。
随机打乱。设置batch size后,从所有训练样本中不放回地随机选取一个mini‑batch输入
到网络模型中进行训练,直到所有训练样本都训练过一次网络即完成一个epoch(回合)
(即:一个epoch中共进行(训练样本总数/batch size)次训练)。
任务是分割器官(例如,肺),则医学图像中的器官(肺野区域)即为分割目标。
的最小CT值。
p23,…,p2l],其中,最小CT值为min_HU2,最大CT值为max_HU2;以此类推,图像m感兴趣区域
的CT值为[pm1,pm2,pm3,…,pmk],其中,最小CT值为min_HUm,最大CT值为max_HUm。应当理
解,上述描述仅为示例性描述,本发明对第一CT值和第二CT值的取值不作具体限定,第一CT
值或第二CT值可以是根据任务需要选择的感兴趣区域的任一CT值。
加窗处理的窗口的最大值。应当理解,本发明对上述确定窗口最大值的具体方式不作限定。
加窗处理的窗口的最小值。应当理解,本发明对上述确定窗口最小值的具体方式不作限定。
对医学图像进行加窗处理,本发明对此不作具体限定。
据获取的多个第一CT值,确定加窗处理的窗口的第一参数值;根据获取的多个第二CT值,确
定加窗处理的窗口的第二参数值;根据所述窗口的第一参数值和第二参数值,对多个医学
图像进行加窗处理,能够自动选择合适的窗宽、窗位,使操作者在不具备相关医学知识的前
提下,正常对医学图像进行加窗处理。
图1所示实施例的不同之处,相同之处不再赘述。应理解,图3为图2对应的处理方式示意图,
下面结合图3对图2进行介绍。
HU3,…,max_HUm;可以将这m个最大值[max_HU1,max_HU2,max_HU3,…,max_HUm]从小到大
排序,得到[max_HU1’,max_HU2’,max_HU3’,…,max_HUm’],并选取95%分位数作为加窗处
理的窗口的最大值,也可以说,将排序在95%位置的HU值作为窗口的最大值。应当理解,上
述第一预设分位数为95%仅为示例性描述,本发明对第一预设分位数的具体取值不作限
定。
HU3,…,min_HUm;可以将这m个最小值[min_HU1,min_HU2,min_HU3,…,min_HUm]从小到大
排序,得到[min_HU1’,min_HU2’,min_HU3’,…,min_HUm’],并选取95%分位数作为加窗处
理的窗口的最小值,也可以说,将排序在95%位置的HU值作为窗口的最小值。应当理解,上
述第二预设分位数为95%仅为示例性描述,本发明对第二预设分位数的具体取值也不作限
定。
医学图像的CT值的最小值从小到大排列,选取多个医学图像的CT值的最小值中的第二预设
分位数作为窗口的最小值,能够缓解噪声CT值对窗口选择的影响。例如,如图4所示,分别获
取待加窗处理的m个医学图像中的每个医学图像中的感兴趣区域的CT值,分别得到[p11,
p12,p13,…,p1n],[p21,p22,p23,…,p2n],[pm1,pm2,pm3,…,pmn],将所有CT值从小到大
排序,得到[p’1,p’2,p’3,…,p’n,…,p’i,p’j,p’k],选取排序后的所有CT值的0.5%分位
数作为加窗处理的窗口的最小值,选取排序后的所有CT值的99.5%分位数作为加窗处理的
窗口的最大值,这种方法可能会导致得到的窗口过宽,例如感兴趣区域内有空气,容易导致
窗口的最小值过小;感兴趣区域内有金属或伪影,容易导致窗口的最大值过大。相对于图4
所示实施例,本发明实施例提供的技术方案能够缓解噪声CT值对窗口选择的影响,使得获
取到的窗口的最大值和最小值更合适,达到更好的凸显感兴趣区域中的细节的作用。
有感兴趣区域的图像。
MRI图像的每个层面均可作为一个训练样本;若作为2.5D图像训练神经网络模型,则几个连
续的层面组成的一个2.5D数据可作为一个训练样本;若作为3D图像训练神经网络模型,则
成套CT或MRI图像中剪裁下的每个数据块(称为patch)均可作为一个训练样本。
在冗余情况,即得到的某些样本可能和另外一些样本类似。在现有的训练样本选取方法中,
一般由操作者根据先验信息(例如肺结节分割任务,因为肺结节在肺中,所以训练样本只在
肺部区域中选取即可)从而减少训练样本数量,但是这样的训练样本选取方式需要先验信
息的帮助。有鉴于此,本申请提供了一种训练样本选取方案,不需要先验信息,可以在任何
情况下从样本集中获取用于训练神经网络模型的正样本训练集和负样本训练集,从而减少
训练样本的数量。
得到。其中,方法1需要借助神经网络辅助负样本的选取,方法2‑5则不需要借助神经网络辅
助负样本的选取。
获得负样本训练集。
单负样本。例如,针对二值分割网络,正样本为具有感兴趣区域(即前景)的样本,负样本为
不具有感兴趣区域的样本。若该二值分割网络在某个负样本上分割出前景,则将这一负样
本划分为难学负样本;若该二值分割网络在某个负样本上未分割出前景,则将这一负样本
划分为简单负样本。其次,统计所有负样本中难学负样本与简单负样本的比例。然后,根据
这一比例,在所有负样本中随机选取部分难学负样本与部分简单负样本用于网络训练,即
获取负样本训练集。需要说明的是,选取出的难学负样本与简单负样本的总数量可以为所
有负样本的1/3至1/2,本发明对此不作具体限定。
本作为负样本训练集。
负样本中随机或者等间隔地选取第三预设比例(例如,1/3至1/2倍)的负样本作为负样本训
练集。
训练效率。另外,通过分别获取正样本训练集中的多个正样本中的每个正样本中的感兴趣
区域的第一CT值和第二CT值;根据获取的多个第一CT值,确定加窗处理的窗口的第一参数
值;根据获取的多个第二CT值,确定加窗处理的窗口的第二参数值;根据窗口的第一参数值
和第二参数值,分别对正样本训练集中的每个正样本和负样本训练集中的每个负样本进行
加窗处理,能够自动选择合适的窗宽、窗位,使操作者在不具备相关医学知识的前提下,正
常对医学图像进行加窗处理,从而使用加窗处理后的训练样本对神经网络模型进行训练。
图5所示实施例的不同之处,相同之处不再赘述。应理解,图7为图6对应的处理方式示意图,
下面结合图7对图6进行介绍。
pi],其中,i∈[batch size/3,batch size/5]。特别地,当batch size=2时,i=1。应当理
解,上述i的取值方式仅为示例性描述,本发明对此不作具体限定。例如,可以从正样本训练
集中选取预设数量(非零)个正样本等。
本随机排序,组成一个小批量训练集(mini‑batch)。
从负样本训练集中获取j个负样本;根据每个由i个正样本和j个负样本组成的小批量样本
集对神经网络模型进行训练,可以在保留训练阶段中mini‑batch组成的随机性的情况下,
保证每一次训练所使用的mini‑batch中至少包括一个正样本,相对于随机组成的mini‑
batch中均为负样本的情况,在一定程度上可以缓解正负样本不平衡的状况。此外,相对于
从训练样本中随机选取的一个mini‑batch中均为负样本的情况(针对这种情况,通常在训
练过程中,在损失函数上设置一个小的扰动,从而避免损失函数计算时出现除0的情况,但
是这样的操作可能会导致网络训练过程中计算损失时存在偏差),本发明实施例中的mini‑
batch中至少包括一个正样本,可以在计算资源紧缺而导致batch size较小的情况下减少
计算损失产生的误差,从而提高深度学习网络的精度。
关。以nj>ni为例,一个epoch中进行的训练次数应为nj。由于nj>ni,那么一个epoch的前ni次
训练已经将正样本训练集中所有正样本全部输入神经网络中,而负样本训练集中还有(nj‑
ni)*j个负样本还没有进行训练。因此,在本发明的一个实施例中,可以在再次随机打乱的
正样本训练集中共随机抽取(nj‑ni)*i个正样本,分别与剩余的负样本形成(nj‑ni)个mini‑
batch用于神经网络模型训练,也即,对正样本进行过采样。
随机抽取1个正样本,与剩余的2个负样本组成mini‑batch用于神经网络模型训练,因此,在
本实施例中,一个回合(epoch)共进行4次训练。
损失值),再对得到的batch size个损失值求平均得到最终的损失值,由于在计算每个样本
的损失时,当样本为负样本时会出现损失函数有除0的情况,因此需要在损失函数中添加小
扰动,以避免出现除0的情况,但这种操作可能会导致得到的损失函数值存在偏差。
行训练。
叉熵损失函数(Weighted CrossEntropy Loss),聚焦损失函数(Focal Loss),Dice Loss,
交并比损失函数(IoU Loss),灵敏度‑特异度损失函数(Sensitivity‑Specificity Loss)
或Tversky Loss等;也可以是任意一种面向像素的损失函数(例如上述的CrossEntropy
Loss,Weighted CrossEntropy Loss,Focal Loss)与任意一种面向区域的损失函数(例如
上述的Dice Loss,IoU Loss,Sensitivity‑Specificity Loss,Tversky Loss)的组合。
2D图像,则M=图像通道数×图像宽×图像高;若图像为3D图像,则M=图像通道数×图像深
度×图像宽×图像高。j代表第j个像素,j=1,2,...,M×N。pj表示第j个像素的预测概率
值,其数值范围为[0,1];gj表示第j个像素的标签值,其数值范围为0或者1。
失作为最终的损失函数值,可以避免损失函数出现除0的情况,从而不需要在损失函数中添
加小扰动,能够在训练阶段获得更为精准的损失值而更好的更新网络参数,使得训练出的
神经网络模型的预测结果更为精确。
法可以包括步骤S321‑S324。
中的器官(肺野区域)即为分割目标。
签值,计算损失值;将损失值进行反向传播,更新分割神经网络的参数,经过多次训练后即
可得到分割网络模型。
关。以nj>ni为例,一个epoch中进行的训练次数应为nj。由于nj>ni,那么一个epoch的前ni次
训练已经将正样本训练集中所有正样本全部输入神经网络中,而负样本训练集中还有(nj‑
ni)*j个负样本还没有进行训练。因此,在本发明的一个实施例中,可以在再次随机打乱的
正样本训练集中共随机抽取(nj‑ni)*i个正样本,分别与剩余的负样本形成(nj‑ni)个mini‑
batch用于神经网络模型训练,也即,对正样本进行过采样。
训练效率;通过将获取的所有最大CT值从小到大排列,选取所有最大CT值中的95%分位数
作为窗口的最大值,将获取的所有最小CT值从小到大排列,选取所有最小CT值中的95%分
位数作为窗口的最小值,能够自动选择合适的窗宽、窗位,使操作者在不具备相关医学知识
的前提下,正常对医学图像进行加窗处理,同时,也能够缓解噪声CT值对窗口选择的影响,
使得获取到的窗口的最大值和最小值更合适,达到更好的凸显感兴趣区域中的细节的作
用;通过根据batch size,分别从加窗处理后的正样本训练集中获取i个正样本,其中,i为
大于等于1的整数,根据batch size和i个正样本的数量,分别从加窗处理后的负样本训练
集中获取j个负样本,根据每个由i个正样本和j个负样本组成的小批量样本集对神经网络
模型进行训练,能够在保留训练阶段中mini‑batch组成的随机性的情况下,保证每一次训
练所使用的mini‑batch中至少包括一个正样本,相对于随机组成的mini‑batch中均为负样
本的情况,在一定程度上可以缓解正负样本不平衡的状况;由于本申请中的mini‑batch中
至少包括一个正样本,在计算损失函数值时,将一个mini‑batch看成一个整体计算出一个
损失作为最终的损失函数值,可以避免损失函数出现除0的情况,从而不需要在损失函数中
添加小扰动,能够在训练阶段获得更为精准的损失值而更好的更新网络参数,使得训练出
的神经网络模型的分割结果更为精确。
据获取的多个第一CT值,确定加窗处理的窗口的第一参数值;根据获取的多个第二CT值,确
定加窗处理的窗口的第二参数值;根据窗口的第一参数值和第二参数值,对多个医学图像
进行加窗处理,能够自动选择合适的窗宽、窗位,使操作者在不具备相关医学知识的前提
下,正常操作数据。
确定模块1030还用于将多个第二CT值从小到大排列,选取多个第二CT值中的第二预设分位
数作为窗口的第二参数值。
括训练样本获取模块1050,用于从样本集中获取正样本训练集和负样本训练集,其中,正样
本训练集中的每个正样本为具有感兴趣区域的图像,负样本训练集中的每个负样本为不具
有感兴趣区域的图像,其中,上述加窗模块1040还用于根据窗口的第一参数值和第二参数
值,分别对正样本训练集中的每个正样本和负样本训练集中的每个负样本进行加窗处理,
其中,上述医学图像的加窗装置1000还包括训练模块1060,用于利用经过加窗处理的正样
本训练集和负样本训练集对神经网络模型进行训练。
的数量,分别从负样本训练集中获取j个负样本;根据每个由i个正样本和j个负样本组成的
小批量样本集对神经网络模型进行训练。
练。
有负样本进行测试,分别获得难学负样本和简单负样本,根据难学负样本和简单负样本的
比例,从样本集中获得负样本训练集;或者当样本集中的负样本数量少于正样本训练集的
正样本数量时,将样本集中的所有负样本作为负样本训练集;或者当样本集中的负样本数
量与正样本训练集的正样本数量相等时,将样本集中的所有负样本作为负样本训练集;或
者当样本集中的负样本数量多于正样本训练集的正样本数量,且负样本数量与正样本训练
集的正样本数量之比小于第一预设比例时,将样本集中的所有负样本作为负样本训练集;
或者当样本集中的负样本数量多于正样本训练集的正样本数量,且负样本数量与正样本训
练集的正样本数量之比大于等于第二预设比例时,从样本集中的所有负样本中随机或者等
间隔地选取第三预设比例的负样本作为负样本训练集。
感兴趣区域的最小CT值;所述第一参数值为加窗处理的窗口的最大值;所述第二参数值为
加窗处理的窗口的最小值。
用程序。存储器1120中存储的应用程序可以包括一个或一个以上的每一个对应于一组指令
的模块。此外,处理组件1110被配置为执行指令,以执行上述医学图像的加窗方法。
TM
口。电子设备1100可以操作基于存储在存储器1120的操作系统,例如Windows Server ,Mac
TM TM TM TM
OS X ,Unix ,Linux ,FreeBSD 或类似。
待加窗处理的多个医学图像中的每个医学图像中的感兴趣区域的第一CT值和第二CT值,其
中,第一CT值大于第二CT值;根据获取的多个第一CT值,确定加窗处理的窗口的第一参数
值;根据获取的多个第二CT值,确定加窗处理的窗口的第二参数值;根据窗口的第一参数值
和第二参数值,对多个医学图像进行加窗处理。
以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员
可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出
本发明的范围。
划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件
可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或
讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦
合或通信连接,可以是电性,机械或其它的形式。
网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目
的。
对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计
算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个
人计算机、服务器、或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。
而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read‑Only Memory,ROM)、随机存取存
储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序校验码的介质。
何方式进行自由组合或结合,除非相互之间产生矛盾。
联想到的所有变形,均应属于本发明的保护范围。
之内。