基于联邦个性化学习的光刻热区检测方法转让专利

申请号 : CN202110545686.2

文献号 : CN113222031B

文献日 :

基本信息:

PDF:

法律信息:

相似专利:

发明人 : 卓成林学忠徐金明孟文超朱建新黄炎朱泽晗

申请人 : 浙江大学

摘要 :

本发明公开了一种基于联邦个性化学习的光刻热区检测方法,中心服务器聚合每个节点返回的全局模型参数,用于融合每个节点的共同特征,更新全局模型参数,再把最新的全局模型参数反馈到每个节点;每个节点从中心服务器下载全局模型参数,然后利用本地数据训练局部模型参数,以找到当前全局模型参数下局部模型参数的最优,用于克服不同节点的模型异构和数据异构;局部模型参数微调之后,节点利用本地数据训练全部参数,以找到当前参数的最优,用于寻找不同节点的共同特征。本发明解决了局部数据过少而产生的模型过拟合问题;保护各芯片设计厂商之间的数据,实现隐私保护;提高了异构环境中联邦个性化学习模型的稳定性和整体精度。

权利要求 :

1.一种基于联邦个性化学习的光刻热区检测方法,其特征在于,包括以下步骤:S1,基于每个节点的光刻热区数据为每个节点构建架构相同但参数不同的卷积神经网络;

S2,根据节点之间的卷积神经网络的参数相似度确定全局模型参数和局部模型参数:根据不同节点训练得到的神经网络模型参数,比较不同节点所训练神经网络上同一层的参数距离,在第j层的神经网络层上,计算所有节点第j层参数与第j层参数平均值的差值,若所有差值的2范数总和小于等于距离阈值参数δ,则将第j层参数作为不同节点的共同特征参数,将其确定为全局模型参数进行融合,即:k,j

其中,W 是第k个节点模型的第j层参数, 是N个模型第j层参数的平均值,且若所有差值的2范数总和大于距离阈值参数δ,则认为这一层的参数是不同节点的不相容特征,这一部分参数作为本地参数进行局部更新,在全局模型参数聚合后对局部模型参数进行微调以提高局部模型的性能,即:得到所有节点每一层神经网络参数的对应距离,将计算得到的最小距离作为基准,得到不同层之间的相对距离,若某一层的距离明显高于其他神经网络层,则将卷积神经网络的这一层作为局部微调的神经网络层;

S3,建立光刻热区联邦个性化学习模型:其中,wglobal是所有节点共同拥有的全局模型参数, 其第k列是第k个节点的局部模型参数,N是节点的数量,每个节点被选中的概率 pk≥0并且nk是节点k的样本数量, 是所有节点样本数量的总和;在该模型中,F为总的经验损失函数,Fk(·)是关于节点k的光刻热区数据分布 的本地经验损失函数,Fk(·)是非凸的,假设第k个节点保存nk个光刻热区训练数据: 则Fk(·)可以定义为:

其中,l(·)是基于某个样本的损失函数;

S4,对光刻热区联邦个性化学习模型的参数进行迭代更新,第t轮的更新过程如下:首先,中央服务器向所有节点广播最新光刻热区全局模型参数wt,global;

其次,假设第k个节点的光刻热区联邦个性化学习模型为 执行Elocal次光刻热区局部模型参数微调,Elocal≥1:其中,ηt是学习率,ξk是从本地光刻热区数据中均匀选择的样本;此时节点k的模型更新为 执行E次光刻热区全部参数更新,E≥1:最后,中心服务器聚合节点光刻热区模型的全局模型参数,以产生新的全局模型参数wt+1,global;

S5,经过若干轮迭代更新,直至光刻热区联邦个性化学习模型收敛,将收敛后的模型用于光刻热区数据检测。

2.根据权利要求1所述的一种基于联邦个性化学习的光刻热区检测方法,其特征在于,每个节点的卷积神经网络构建具体为:每个节点的卷积神经网络由依次连接的两个卷积单元和两个全连接层构成;

每个卷积单元包括依次连接的两个卷积层、一个ReLU层、一个最大池化层;在每一次的卷积过程中,一系列的卷积核在底层光刻热区数据张量上执行卷积操作;ReLU层对卷积层的输出数据进行激活,以保证整个神经网络是非线性且稀疏的;最大池化层对ReLU层的输出作2×2的降采样,并作为当前卷积单元的输出层;

两个卷积单元之后是两个全连接层,在训练时,对第一个全连接层执行dropout操作以减轻过拟合,第二个全连接层是整个神经网络的输出层,其有两个输出通道,分别为光刻热区和非光刻热区的预测概率。

3.根据权利要求1所述的一种基于联邦个性化学习的光刻热区检测方法,其特征在于,所述S4中,当全部节点参与聚合,即同步聚合时过程如下:根据所有节点光刻热区模型的全局参数 产生新的全局参数wt+1,global;在每轮所有节点的参数都更新完成后,所有节点均将其全局参数发送到中心服务器进行聚合,聚合公式如下:

4.根据权利要求1所述的一种基于联邦个性化学习的光刻热区检测方法,其特征在于,所述S4中,当部分节点参与聚合,即异步聚合时过程如下:设置聚合节点的数量阈值K,1≤K<N,并让中央服务器收集前K个响应节点的输出;在收集完K个节点的输出后,中央服务器停止等待其余的节点;在此次更新中,第K+1到第N个节点被视为落后者;设St是第t次迭代中前K个响应节点的集合,|St|=K,聚合公式如下:其中,nK是前K个节点的样本数据量总和,

说明书 :

基于联邦个性化学习的光刻热区检测方法

技术领域

[0001] 本发明属于机器学习领域,尤其涉及一种基于联邦个性化学习的光刻热区检测方法。

背景技术

[0002] 光刻热区是存在制造缺陷的集成电路版图区域,如何快速准确地检测出光刻热区是目前亟需解决的问题。现阶段的热区检测方法主要有以下四种:
[0003] 1、光刻仿真,充分利用光刻系统中光源的部分相干特性和一维芯片图形的特性,针对一维芯片版图的快速平面光刻仿真。光刻仿真方法由一维基元图形查表法、最小查找
表及其边缘延伸和无切割的大面积版图仿真组成。传统的光刻热区检测很大程度上依赖于
光刻仿真,该方法能以极高的准确率检测出版图中的热区,但同时计算复杂度高,耗费时间
长,不便于在测试阶段快速准确地检测光刻热区,一般用于制造最后的验证阶段。
[0004] 2、模式识别,采用模式识别用于光刻热区检测框架中,用一些重要的设计规则来表征光刻热区的拓扑特征,用一种切线空间距离度量来进行热点模式分析和分类。尽管模
式识别能准确快速地检测出光刻热区,但是对于一些未知的光刻热区模式,其准确率并不
尽人意。
[0005] 3、集中式机器学习,在中心服务器上获得每个节点的大量数据进行模型训练,聚集所有的训练数据训练卷积神经网络,直至最终模型收敛,得到一个光刻热区检测模型,其
训练示意图如图1所示。该方法提取版图深度特征,显著提升检测效率,但必须获得大量数
据进行模型训练,出于隐私保护的考虑,各芯片设计厂商之间数据不互通,很容易导致模型
过拟合问题。
[0006] 4、联邦学习,在一个基本的联邦学习框架中,有一个中心服务器(server)和若干个节点(client)。每个节点存储着自己的不共享的本地光刻热区数据,各自用本地数据训
练卷积神经网络光刻热区检测模型,将模型上传至中心服务器。中心服务器负责组织各节
点的本地训练,聚合所得的每个节点的模型,将模型分享回节点,如此为一轮。节点再在聚
合后的模型上进行训练,周而复始,直至最终模型收敛,得到一个统一的光刻热区检测模
型,其训练示意图如图2所示。该方法可以解决芯片设计厂商之间数据不互通等数据孤岛的
问题,但联邦学习处理高度的数据异构性问题和异步问题时其性能往往不佳,很难达到检
测精度的标准。

发明内容

[0007] 本发明的目的在于针对现有技术的不足,提出一种基于联邦个性化学习的光刻热区检测方法。
[0008] 本发明的目的是通过以下技术方案实现的:一种基于联邦个性化学习的光刻热区检测方法,该方法包括以下步骤:
[0009] S1,基于每个节点的光刻热区数据为每个节点构建架构相同但参数不同的卷积神经网络;
[0010] S2,根据节点之间的卷积神经网络参数相似度确定全局模型参数和局部模型参数:
[0011] 比较不同节点训练得到的卷积神经网络上同一层的参数距离,在卷积神经网络的第j层上,计算所有节点第j层参数与第j层参数平均值的差值,若所有差值的2范数总和小
于等于距离阈值参数δ,则将第j层参数作为不同节点的共同特征参数,将其确定为全局模
型参数进行聚合,否则,则认为第j层参数是不同节点的不相容特征,将其作为局部模型参
数进行局部微调;
[0012] S3,建立光刻热区联邦个性化学习模型:
[0013]
[0014] 其中,wglobal是所有节点共同拥有的全局模型参数, 其第k列是第k个节点的局部模型参数,N是节点的数量,每个节点被选中的概率 pk≥0并
且 nk是节点k的样本数量, 是所有节点样本数量的总和;在该模型中,F
为总的经验损失函数,Fk(·)是关于节点k的光刻热区数据分布 的本地经验损失函数,Fk
(·)是非凸的,假设第k个节点保存nk个光刻热区训练数据: 则Fk(·)可
以定义为:
[0015]
[0016] 其中,l(·)是基于某个样本的损失函数;
[0017] S4,对光刻热区联邦个性化学习模型的参数进行迭代更新,第t轮的更新过程如下:
[0018] 首先,中央服务器向所有节点广播最新光刻热区全局模型参数wt,global;
[0019] 其 次 ,假 设 第 k 个 节 点 的 光 刻 热 区 联 邦 个 性 化 学 习 模 型 为执行Elocal(≥1)次光刻热区局部模型参数微调:
[0020]
[0021] 其中,ηt是学习率,ξk是从本地光刻热区数据中均匀选择的样本;此时节点k的模型更新为 执行E(≥1)次光刻热区全部参数更新:
[0022]
[0023] 最后,中心服务器聚合节点光刻热区模型的全局模型参数,以产生新的全局模型参数wt+1,global;
[0024] S5,经过若干轮迭代更新,直至光刻热区联邦个性化学习模型收敛,将收敛后的模型用于光刻热区数据检测。
[0025] 进一步地,每个节点的卷积神经网络构建具体为:
[0026] 每个节点的卷积神经网络由依次连接的两个卷积单元和两个全连接层构成;
[0027] 每个卷积单元包括依次连接的两个卷积层、一个ReLU层、一个最大池化层;在每一次的卷积过程中,一系列的卷积核在底层光刻热区数据张量上执行卷积操作;ReLU层对卷
积层的输出数据进行激活,以保证整个神经网络是非线性且稀疏的;最大池化层对ReLU层
的输出作2×2的降采样,并作为当前卷积单元的输出层;
[0028] 两个卷积单元之后是两个全连接层,在训练时,对第一个全连接层执行dropout操作以减轻过拟合,第二个全连接层是整个神经网络的输出层,其有两个输出通道,分别为光
刻热区和非光刻热区的预测概率。
[0029] 进一步地,所述S4中,当全部节点参与聚合,即同步聚合时过程如下:
[0030] 根据所有节点光刻热区模型的全局参数 产生新的全局参数wt+1,global;在每轮所有节点的参数都更新完成后,所有节点均将其全局参数发送到中
心服务器进行聚合,聚合公式如下:
[0031]
[0032] 进一步地,所述S4中,当部分节点参与聚合,即异步聚合时过程如下:
[0033] 设置聚合节点的数量阈值K(1≤K<N),并让中央服务器收集前K个响应节点的输出;在收集完K个节点的输出后,中央服务器停止等待其余的节点;在此次更新中,第K+1到
第N个节点被视为落后者;设St(|St|=K)是第t次迭代中前K个响应节点的集合,聚合公式如
下:
[0034]
[0035] 其中,nK是前K个节点的样本数据量总和,
[0036] 本发明的有益效果如下:
[0037] 1、由于各芯片设计厂商之间数据不互通,研究人员很难获得大量数据进行模型训练,使用本发明方法可以打破数据孤岛的问题,解决局部数据过少而产生的模型过拟合问
题。
[0038] 2、保护各芯片设计厂商之间的数据,实现隐私保护。
[0039] 3、克服传统的联邦学习模型精度不高的问题,使用本发明方法可有效提升模型的精度。
[0040] 4、解决传统联邦学习面临的数据异构和异步的问题。本发明方法可有效克服数据异构,并支持每个节点在线动态更新。

附图说明

[0041] 图1为集中式机器学习示意图;
[0042] 图2为传统联邦学习示意图;
[0043] 图3为本发明实施例中神经网络层的相对距离;
[0044] 图4为本发明实施例中基于联邦个性化学习的光刻热区检测方法示意图;
[0045] 图5、图6分别为两个数据集分为2个节点进行同步训练的实验结果和精度比较结果;
[0046] 图7、图8分别为两个数据集分为4个节点进行同步训练的实验结果和精度比较结果;
[0047] 图9、图10分别为两个数据集分为10个节点进行同步训练的实验结果和精度比较结果;
[0048] 图11、图12分别为两个数据集分为4个节点进行异步训练的实验结果和精度比较结果;
[0049] 图13、图14分别为两个数据集分为10个节点进行异步训练的实验结果和精度比较结果。

具体实施方式

[0050] 为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不
用于限定本发明。
[0051] 在对集成电路设计版图进行光刻调整时,某些版图对这种调整的鲁棒性较弱,并且在制造过程中更有可能导致开路或短路故障,此类容易发生故障的区域被定义为光刻热
区。光刻热区检测的主要目标是尽可能地提高检测准确度并最小化检测错误率。训练具有
出色性能的光刻热区检测模型通常需要大量数据。然而,由于数据的隐私性,具有光刻热区
数据的工厂将不会彼此共享数据。每个工厂都很难获得大量的数据用于模型训练,这很容
易导致模型过拟合。引入联邦学习用于光刻热区检测的目的是学习每个节点的数据特征并
保护数据隐私。但是各个工厂经常以高度异构的方式生成和收集电路光刻热区数据。此外,
各个工厂光刻热区数据的数量可能会有很大的不同。这种数据生成方式违反了联邦学习中
经常使用的独立同分布(IID)的假设,传统的联合学习无法处理统计异构性的问题。因此,
本发明引入一种基于联邦个性化学习的光刻热区检测方法,目标是实现特定于工厂的个性
化建模,这通常是处理数据统计异构性的更有效的方法。
[0052] 一、每个节点的神经网络架构
[0053] 首先描述每个节点本地的神经网络架构,具体采用卷积神经网络架构,卷积神经网络(CNN)在图像分类领域有卓越的表现。卷积神经网络由若干层执行特征提取的卷积单
元和若干层生成样本分类概率的全连接层构成。
[0054] 在本发明中,每个节点的卷积神经网络由依次连接的两个卷积单元和两个全连接层构成,每个卷积单元包括依次连接的两个卷积层、一个ReLU层、一个最大池化层(max‑
pooling layer)。在每一次的卷积过程中,一系列的卷积核在底层光刻热区数据张量X上执
行如下的卷积操作:
[0055] Y=conv(W,X)+b
[0056] 其中,W是卷积层的权重矩阵,b是偏置参数,Y是卷积层的输出数据,本实施例中所有卷积核的大小都为3×3,每个卷积单元的两个卷积层的输出通道数分别为16和32。ReLU
是在卷积层之后,对每个数据元素Y进行操作的一种激活函数,其表达式如下所示,它保证
了整个神经网络是非线性且稀疏的。
[0057]
[0058] 最大池化层对上一层的输出作2×2的降采样,并作为当前卷积单元的输出层。两个卷积单元之后是两个全连接层,其输出通道数分别为250和2。在训练时,以50%的概率对
第一个全连接层执行dropout操作以减轻过拟合,第二个全连接层是整个神经网络的输出
层,其有两个输出通道,分别为光刻热区和非光刻热区的预测概率。模型配置参数具体见表
1。
[0059] 表1节点神经网络模型配置
[0060]
[0061]
[0062] 二、确定全局模型参数和局部模型参数
[0063] 本发明从每个节点的神经网络模型参数入手,根据模型参数的相似度可以推导出节点的数据相似度,借鉴这一个思路,我们将神经网络模型参数作为提取共同特征的一种
手段,根据不同节点训练得到的神经网络模型参数,比较不同节点所训练神经网络上同一
层的参数距离,在某个神经网络层(例如第j层)上,计算所有节点第j层参数与第j层参数平
均值的差值,若所有差值的2范数总和小于等于距离阈值参数δ,则将第j层参数作为不同节
点的共同特征参数,将其确定为全局模型参数进行融合,即:
[0064]
[0065] 其中,Wk,j是第k个节点模型的第j层参数, 是N个模型第j层参数的平均值,且
[0066] 若所有差值的2范数总和大于距离阈值参数δ,则认为这一层的参数是不同节点的不相容特征,这一部分参数就作为本地参数进行局部更新,在全局模型参数聚合后对局部
模型参数进行微调以提高局部模型的性能,即:
[0067]
[0068] 使用上述方法,我们得到所有节点每一层神经网络参数的对应距离,本实施例中计算得到第一个全连接层fc1的距离最小,将该距离作为基准,得到不同层之间的相对距
离,如图3所示,可以发现最后一层fc2的距离明显高于其他神经网络层,因此我们最终确定
了卷积神经网络的最后一层fc2作为局部微调的神经网络层。
[0069] 三、建立光刻热区联邦个性化学习模型如下:
[0070]
[0071] 其中,wglobal是所有节点共同拥有的全局模型参数, 其第k列是第k个节点的局部模型参数,N是节点的数量,每个节点被选中的概率 pk≥0并
且 nk是节点k的样本数量, 是所有节点样本数量的总和。在该模型中,F
为总的经验损失函数,Fk(·)是关于节点k的光刻热区数据分布 的本地经验损失函数,Fk
(·)是非凸的,假设第k个节点保存nk个光刻热区训练数据:xk,1,xk,2,… ,则Fk(·)可
以定义为:
[0072]
[0073] 其中,l(·)是基于某个样本的损失函数。
[0074] 四、光刻热区联邦个性化学习模型中,参数迭代更新方法如下:
[0075] 针对第t轮,首先,中央服务器向所有节点广播最新光刻热区全局模型参数wt,global。其次,假设第k个节点的光刻热区联邦个性化学习模型为
然后执行Elocal(≥1)次光刻热区局部模型参数更新:
[0076]
[0077] 其中,ηt是学习率(也称为步长),ξk是从本地光刻热区数据中均匀选择的样本。此时节点k的模型更新为 然后执行E(≥1)次光刻热区全部参数更
新:
[0078]
[0079] 最后,中心服务器聚合节点光刻热区模型的全局模型参数,以产生新的全局模型参数wt+1,global。分为全部节点参与聚合以及部分节点参与聚合两种情况,其中全部节点参
与为理想情况,现实场景中通常只有部分节点能够参与聚合(即异步聚合)。
[0080] 全部节点参与聚合。根据所有节点光刻热区模型的全局模型参数产生新的全局模型参数wt+1,global。在每轮所有节点的参数都更
新完成后,所有节点均将其全局模型参数发送到中心服务器进行聚合,聚合公式如下:
[0081]
[0082] 不幸的是,在实际应用环境中,所有的节点参与聚合的要求受到严重的“掉队效应”影响(这意味着所有节点都在等待最慢的节点)。例如,如果联邦学习系统中有数千台用
户设备,而始终有一小部分设备离线。全设备参与意味着中央服务器必须等待这些“落后
者”,这显然是不切实际的。
[0083] 部分节点参与聚合。这种策略更加符合实际,因为它不需要所有节点同时在线(异步)。我们可以设置聚合节点的数量阈值K(1≤K<N),并让中央服务器收集前K个响应节点
的输出。在收集完K个节点的输出后,中央服务器停止等待其余的节点;在此次更新中,第K+
1到第N个节点被视为落后者。设St(|St|=K)是第t次迭代中前K个响应节点的集合,聚合公
式如下:
[0084]
[0085] 其中,nK是前K个节点的样本数据量总和,
[0086] 如图4所示,基于联邦个性化学习的光刻热区检测方法,主要由以下三部分组成:
[0087] 中心服务器聚合阶段:中心服务器聚合每个节点返回的全局模型参数,用于融合每个节点的共同特征,更新全局模型参数,再把最新的全局模型参数反馈到每个节点。
[0088] 节点局部模型参数微调阶段:每个节点从中心服务器下载全局模型参数,然后利用本地数据训练局部模型参数,以找到当前全局模型参数下局部模型参数的最优,用于克
服不同节点的模型异构和数据异构。
[0089] 节点全部参数更新阶段:局部模型参数微调之后,节点利用本地数据训练全部参数,以找到当前参数的最优,用于寻找不同节点的共同特征。
[0090] 本发明提出的基于联邦个性化学习的光刻热区检测方法,从理论和实验上都解决了异构性的挑战。本发明的一个关键思路是,表征每个节点共同特征的全局模型参数做联
邦融合,以融合每个节点的共同特征,而表征每个节点特有特征的局部模型参数做局部微
调,以根据每个节点的异构性做出相应的调整,提高模型的稳定性。这些改进提高了异构环
境(nonIID)中联邦个性化学习的稳定性和整体精度。
[0091] 本实施例使用了2个数据集,其中一个为ICCAD 2012Contest,另外一个为工业界的数据集asml1。这2个数据集都是光刻热区领域中非常有代表性的数据集,其基本信息见
表2。表格四列分别列出训练集和测试集中光刻热区(hotspot)和非光刻热区(non‑
hotspot)的总数。
[0092] 表2数据集基本信息
[0093]
[0094] 下面是实施的实验细节:
[0095] 将ICCAD和asml1数据集分为不同数量的数据集,每个数据集对应一个节点,进行同步/异步训练,具体的:将ICCAD和asml1分别分为1、2、5个数据集,共2、4、10个数据集,对
应2、4、10个节点,分别实验。
[0096] 用来比较的算法包括:
[0097] 1.FedAvg(传统的联邦学习)
[0098] 2.FedProx(传统联邦学习的改良版本)
[0099] 3.Local train(仅本地构建卷积神经网络进行训练和检测)
[0100] 4.Federated Personalized Learning(本发明方法FPL,最后一层fc2作为本地参数进行微调)
[0101] 首先,在同步(即所有节点都参与训练和参数聚合)的情况下:
[0102] 两个数据集分为2个节点进行同步训练的实验结果如图5所示,总的精度(acc)比较结果如图6所示。对于4种算法,每种算法左边图的指标是True Positive Rate(TPR,即正
确判定的正样本占所有正样本的比例),右边图的指标是False Positive Rate(FPR,即把
负样本错误判定为正样本的数量占负样本总数的比例)。TPR越高越好,FPR越低越好。最后
比较总的精度,可以发现本发明FPL的性能明显更好。
[0103] 两个数据集分为4个节点进行同步训练的实验结果如图7所示,总的精度(acc)比较结果如图8所示。可以发现本发明FPL的性能依然优于其他方法。
[0104] 两个数据集分为10个节点进行同步训练的实验结果如图9所示,总的精度(acc)比较结果如图10所示。可以发现本发明FPL的性能依然显著高于传统联邦学习和FedProx。和
纯本地训练相比,本发明FPL同时做到了True Positive Rate更高,而False Positive 
Rate更低,性能显著更好。该结果说明,节点上样本数量较少时,FPL能够成功利用其他节点
的信息,以提高本节点的性能。
[0105] 其次,在异步(即每轮聚合只有部分节点参与训练和参数聚合)的情况下:
[0106] 两个数据集分为4个节点进行异步训练的实验结果如图11所示,总的精度(acc)比较结果如图12所示。每轮随机选取一半的节点进行训练并聚合。这里的结果与4个节点同步
训练的结果相似。总体来说本发明FPL的性能比其他方法更好。
[0107] 两个数据集分为10个节点进行异步训练的实验结果如图13所示,总的精度(acc)比较结果如图14所示。可以发现本发明FPL的收敛速度依然高于其他方法,性能也明显更
好。和其他方法相比,FPL依然能同时做到True Positive Rate更高,而False Positive 
Rate更低,性能显著更好。以上实验说明,异步条件下FPL依然能够利用其他节点信息提高
本地性能。
[0108] 根据以上实验结果可以发现:
[0109] 1、本发明采用联邦个性化学习,并不需要每个节点共享光刻热区数据信息,每个节点仅共享自己的共同特征参数,就能从全局模型学到想要的知识,达到令人满意的效果。
[0110] 2、实现光刻热区检测中TPR和FPR比较好的权衡,实现最终光刻热区检测精度的提高。
[0111] 3、同时,本地微调(fc2)的参数个数是非常少的,仅占全局模型参数的0.68%。
[0112] 4、该全局模型参数是一个非常好的预训练参数,该全局模型参数包含了多个节点光刻热区数据的共同特征,仅需在全局模型参数的基础上进行局部更新较少的次数就能够
达到设定的模型精度。
[0113] 5、该算法不仅能学习到全局的知识,还能根据各自本地的光刻热区数据集进行自适应的调整,对于光刻热区领域的数据异构性有很强的容忍性。
[0114] 6、本发明方法与现有的方法(FL,local train,fedprox)相比,可以很好的解决光刻热区检测领域的模型异构和数据异构问题,只要进行全局聚合的神经网络参数保持一
致,就可以实现更好、更稳定的个性化性能,相较于FL,提升了约10%的精度。
[0115] 7、异步,本发明方法支持节点动态的加入或退出训练过程。
[0116] 上文中,参照附图描述了本发明的具体实施方式。但是,本领域中的普通技术人员能够理解,在不偏离本发明的精神和范围的情况下,还可以对本发明的具体实施方式作各
种变更和替换。这些变更和替换都落在本发明权利要求书所限定的范围内。