基于联邦个性化学习的光刻热区检测方法转让专利
申请号 : CN202110545686.2
文献号 : CN113222031B
文献日 : 2022-04-12
发明人 : 卓成 , 林学忠 , 徐金明 , 孟文超 , 朱建新 , 黄炎 , 朱泽晗
申请人 : 浙江大学
摘要 :
权利要求 :
1.一种基于联邦个性化学习的光刻热区检测方法,其特征在于,包括以下步骤:S1,基于每个节点的光刻热区数据为每个节点构建架构相同但参数不同的卷积神经网络;
S2,根据节点之间的卷积神经网络的参数相似度确定全局模型参数和局部模型参数:根据不同节点训练得到的神经网络模型参数,比较不同节点所训练神经网络上同一层的参数距离,在第j层的神经网络层上,计算所有节点第j层参数与第j层参数平均值的差值,若所有差值的2范数总和小于等于距离阈值参数δ,则将第j层参数作为不同节点的共同特征参数,将其确定为全局模型参数进行融合,即:k,j
其中,W 是第k个节点模型的第j层参数, 是N个模型第j层参数的平均值,且若所有差值的2范数总和大于距离阈值参数δ,则认为这一层的参数是不同节点的不相容特征,这一部分参数作为本地参数进行局部更新,在全局模型参数聚合后对局部模型参数进行微调以提高局部模型的性能,即:得到所有节点每一层神经网络参数的对应距离,将计算得到的最小距离作为基准,得到不同层之间的相对距离,若某一层的距离明显高于其他神经网络层,则将卷积神经网络的这一层作为局部微调的神经网络层;
S3,建立光刻热区联邦个性化学习模型:其中,wglobal是所有节点共同拥有的全局模型参数, 其第k列是第k个节点的局部模型参数,N是节点的数量,每个节点被选中的概率 pk≥0并且nk是节点k的样本数量, 是所有节点样本数量的总和;在该模型中,F为总的经验损失函数,Fk(·)是关于节点k的光刻热区数据分布 的本地经验损失函数,Fk(·)是非凸的,假设第k个节点保存nk个光刻热区训练数据: 则Fk(·)可以定义为:
其中,l(·)是基于某个样本的损失函数;
S4,对光刻热区联邦个性化学习模型的参数进行迭代更新,第t轮的更新过程如下:首先,中央服务器向所有节点广播最新光刻热区全局模型参数wt,global;
其次,假设第k个节点的光刻热区联邦个性化学习模型为 执行Elocal次光刻热区局部模型参数微调,Elocal≥1:其中,ηt是学习率,ξk是从本地光刻热区数据中均匀选择的样本;此时节点k的模型更新为 执行E次光刻热区全部参数更新,E≥1:最后,中心服务器聚合节点光刻热区模型的全局模型参数,以产生新的全局模型参数wt+1,global;
S5,经过若干轮迭代更新,直至光刻热区联邦个性化学习模型收敛,将收敛后的模型用于光刻热区数据检测。
2.根据权利要求1所述的一种基于联邦个性化学习的光刻热区检测方法,其特征在于,每个节点的卷积神经网络构建具体为:每个节点的卷积神经网络由依次连接的两个卷积单元和两个全连接层构成;
每个卷积单元包括依次连接的两个卷积层、一个ReLU层、一个最大池化层;在每一次的卷积过程中,一系列的卷积核在底层光刻热区数据张量上执行卷积操作;ReLU层对卷积层的输出数据进行激活,以保证整个神经网络是非线性且稀疏的;最大池化层对ReLU层的输出作2×2的降采样,并作为当前卷积单元的输出层;
两个卷积单元之后是两个全连接层,在训练时,对第一个全连接层执行dropout操作以减轻过拟合,第二个全连接层是整个神经网络的输出层,其有两个输出通道,分别为光刻热区和非光刻热区的预测概率。
3.根据权利要求1所述的一种基于联邦个性化学习的光刻热区检测方法,其特征在于,所述S4中,当全部节点参与聚合,即同步聚合时过程如下:根据所有节点光刻热区模型的全局参数 产生新的全局参数wt+1,global;在每轮所有节点的参数都更新完成后,所有节点均将其全局参数发送到中心服务器进行聚合,聚合公式如下:
4.根据权利要求1所述的一种基于联邦个性化学习的光刻热区检测方法,其特征在于,所述S4中,当部分节点参与聚合,即异步聚合时过程如下:设置聚合节点的数量阈值K,1≤K<N,并让中央服务器收集前K个响应节点的输出;在收集完K个节点的输出后,中央服务器停止等待其余的节点;在此次更新中,第K+1到第N个节点被视为落后者;设St是第t次迭代中前K个响应节点的集合,|St|=K,聚合公式如下:其中,nK是前K个节点的样本数据量总和,
说明书 :
基于联邦个性化学习的光刻热区检测方法
技术领域
背景技术
表及其边缘延伸和无切割的大面积版图仿真组成。传统的光刻热区检测很大程度上依赖于
光刻仿真,该方法能以极高的准确率检测出版图中的热区,但同时计算复杂度高,耗费时间
长,不便于在测试阶段快速准确地检测光刻热区,一般用于制造最后的验证阶段。
式识别能准确快速地检测出光刻热区,但是对于一些未知的光刻热区模式,其准确率并不
尽人意。
训练示意图如图1所示。该方法提取版图深度特征,显著提升检测效率,但必须获得大量数
据进行模型训练,出于隐私保护的考虑,各芯片设计厂商之间数据不互通,很容易导致模型
过拟合问题。
练卷积神经网络光刻热区检测模型,将模型上传至中心服务器。中心服务器负责组织各节
点的本地训练,聚合所得的每个节点的模型,将模型分享回节点,如此为一轮。节点再在聚
合后的模型上进行训练,周而复始,直至最终模型收敛,得到一个统一的光刻热区检测模
型,其训练示意图如图2所示。该方法可以解决芯片设计厂商之间数据不互通等数据孤岛的
问题,但联邦学习处理高度的数据异构性问题和异步问题时其性能往往不佳,很难达到检
测精度的标准。
发明内容
于等于距离阈值参数δ,则将第j层参数作为不同节点的共同特征参数,将其确定为全局模
型参数进行聚合,否则,则认为第j层参数是不同节点的不相容特征,将其作为局部模型参
数进行局部微调;
且 nk是节点k的样本数量, 是所有节点样本数量的总和;在该模型中,F
为总的经验损失函数,Fk(·)是关于节点k的光刻热区数据分布 的本地经验损失函数,Fk
(·)是非凸的,假设第k个节点保存nk个光刻热区训练数据: 则Fk(·)可
以定义为:
积层的输出数据进行激活,以保证整个神经网络是非线性且稀疏的;最大池化层对ReLU层
的输出作2×2的降采样,并作为当前卷积单元的输出层;
刻热区和非光刻热区的预测概率。
心服务器进行聚合,聚合公式如下:
第N个节点被视为落后者;设St(|St|=K)是第t次迭代中前K个响应节点的集合,聚合公式如
下:
题。
附图说明
具体实施方式
用于限定本发明。
区。光刻热区检测的主要目标是尽可能地提高检测准确度并最小化检测错误率。训练具有
出色性能的光刻热区检测模型通常需要大量数据。然而,由于数据的隐私性,具有光刻热区
数据的工厂将不会彼此共享数据。每个工厂都很难获得大量的数据用于模型训练,这很容
易导致模型过拟合。引入联邦学习用于光刻热区检测的目的是学习每个节点的数据特征并
保护数据隐私。但是各个工厂经常以高度异构的方式生成和收集电路光刻热区数据。此外,
各个工厂光刻热区数据的数量可能会有很大的不同。这种数据生成方式违反了联邦学习中
经常使用的独立同分布(IID)的假设,传统的联合学习无法处理统计异构性的问题。因此,
本发明引入一种基于联邦个性化学习的光刻热区检测方法,目标是实现特定于工厂的个性
化建模,这通常是处理数据统计异构性的更有效的方法。
元和若干层生成样本分类概率的全连接层构成。
pooling layer)。在每一次的卷积过程中,一系列的卷积核在底层光刻热区数据张量X上执
行如下的卷积操作:
是在卷积层之后,对每个数据元素Y进行操作的一种激活函数,其表达式如下所示,它保证
了整个神经网络是非线性且稀疏的。
第一个全连接层执行dropout操作以减轻过拟合,第二个全连接层是整个神经网络的输出
层,其有两个输出通道,分别为光刻热区和非光刻热区的预测概率。模型配置参数具体见表
1。
手段,根据不同节点训练得到的神经网络模型参数,比较不同节点所训练神经网络上同一
层的参数距离,在某个神经网络层(例如第j层)上,计算所有节点第j层参数与第j层参数平
均值的差值,若所有差值的2范数总和小于等于距离阈值参数δ,则将第j层参数作为不同节
点的共同特征参数,将其确定为全局模型参数进行融合,即:
模型参数进行微调以提高局部模型的性能,即:
离,如图3所示,可以发现最后一层fc2的距离明显高于其他神经网络层,因此我们最终确定
了卷积神经网络的最后一层fc2作为局部微调的神经网络层。
且 nk是节点k的样本数量, 是所有节点样本数量的总和。在该模型中,F
为总的经验损失函数,Fk(·)是关于节点k的光刻热区数据分布 的本地经验损失函数,Fk
(·)是非凸的,假设第k个节点保存nk个光刻热区训练数据:xk,1,xk,2,… ,则Fk(·)可
以定义为:
然后执行Elocal(≥1)次光刻热区局部模型参数更新:
新:
与为理想情况,现实场景中通常只有部分节点能够参与聚合(即异步聚合)。
新完成后,所有节点均将其全局模型参数发送到中心服务器进行聚合,聚合公式如下:
户设备,而始终有一小部分设备离线。全设备参与意味着中央服务器必须等待这些“落后
者”,这显然是不切实际的。
的输出。在收集完K个节点的输出后,中央服务器停止等待其余的节点;在此次更新中,第K+
1到第N个节点被视为落后者。设St(|St|=K)是第t次迭代中前K个响应节点的集合,聚合公
式如下:
服不同节点的模型异构和数据异构。
邦融合,以融合每个节点的共同特征,而表征每个节点特有特征的局部模型参数做局部微
调,以根据每个节点的异构性做出相应的调整,提高模型的稳定性。这些改进提高了异构环
境(nonIID)中联邦个性化学习的稳定性和整体精度。
表2。表格四列分别列出训练集和测试集中光刻热区(hotspot)和非光刻热区(non‑
hotspot)的总数。
应2、4、10个节点,分别实验。
确判定的正样本占所有正样本的比例),右边图的指标是False Positive Rate(FPR,即把
负样本错误判定为正样本的数量占负样本总数的比例)。TPR越高越好,FPR越低越好。最后
比较总的精度,可以发现本发明FPL的性能明显更好。
纯本地训练相比,本发明FPL同时做到了True Positive Rate更高,而False Positive
Rate更低,性能显著更好。该结果说明,节点上样本数量较少时,FPL能够成功利用其他节点
的信息,以提高本节点的性能。
训练的结果相似。总体来说本发明FPL的性能比其他方法更好。
好。和其他方法相比,FPL依然能同时做到True Positive Rate更高,而False Positive
Rate更低,性能显著更好。以上实验说明,异步条件下FPL依然能够利用其他节点信息提高
本地性能。
达到设定的模型精度。
致,就可以实现更好、更稳定的个性化性能,相较于FL,提升了约10%的精度。
种变更和替换。这些变更和替换都落在本发明权利要求书所限定的范围内。