横向联邦学习系统优化方法、设备及可读存储介质转让专利
申请号 : CN202010064745.X
文献号 : CN111275188B
文献日 : 2021-04-13
发明人 : 程勇 , 梁新乐 , 刘洋 , 陈天健
申请人 : 深圳前海微众银行股份有限公司
摘要 :
权利要求 :
1.一种横向联邦学习系统优化方法,其特征在于,应用于参与横向联邦学习的协调设备,协调设备与参与横向联邦学习的各参与设备通信连接,所述方法包括:随机确定待训练的神经网络模型的神经元启闭模式,其中,在所述神经元启闭模式下所述神经网络模型的部分神经元处于关闭状态,所述神经元启闭模式是表示所述神经网络模型中各个神经元是开启状态还是关闭状态的一种组合模式;
将所述神经元启闭模式发送给各参与设备,以供各参与设备按照所述神经元启闭模式对各自本地的所述神经网络模型中的神经元进行启闭处理,并对处理后的神经网络模型进行本地训练,得到本地模型参数更新并返回;
对从各参与设备接收到的本地模型参数更新进行融合,将融合得到的全局模型参数更新发送给各参与设备,以供各参与设备根据所述全局模型参数更新对各自本地的所述神经网络模型进行模型更新。
2.如权利要求1所述的横向联邦学习系统优化方法,其特征在于,所述随机确定待训练的神经网络模型的神经元启闭模式的步骤包括:随机确定各次全局模型更新中各期遍历下采用各小批训练数据对待训练的神经网络模型进行训练时的神经元启闭模式,其中,各参与设备各自本地的训练数据被划分为相同批数的多个小批训练数据,参与设备遍历一次本地的训练数据为一期,各参与设备本地训练的期数相同。
3.如权利要求2所述的横向联邦学习系统优化方法,其特征在于,所述将所述神经元启闭模式发送给各参与设备的步骤包括:将所述神经元启闭模式采用K*M*N维矩阵的形式分发给各参与设备,其中,K是各参与设备本地训练的期数,M是各参与设备中小批训练数据的批数,N是所述神经网络模型中神经元的个数,所述矩阵中各个元素的值用于指示对应神经元的启闭状态。
4.如权利要求2和3中任一项所述的横向联邦学习系统优化方法,其特征在于,所述随机确定各次全局模型更新中各期遍历下采用各小批训练数据对待训练的神经网络模型进行训练时的神经元启闭模式的步骤之前,还包括:获取各参与设备本地的小批训练数据的数据量;
根据所述数据量设置各参与设备本地模型更新的学习率,以供各参与设备按照所述学习率进行本地模型更新,其中,所述学习率与所述数据量呈正比。
5.如权利要求4所述的横向联邦学习系统优化方法,其特征在于,所述对从各参与设备接收到的本地模型参数更新进行融合的步骤包括:对从各参与设备接收到的本地模型参数更新进行加权平均,得到所述全局模型参数更新,其中,加权平均操作中所采用的各参与设备的权重是根据各参与设备对应的所述学习率计算得到。
6.一种横向联邦学习系统优化方法,其特征在于,应用于参与横向联邦学习的参与设备,参与设备与参与横向联邦学习的协调设备通信连接,所述方法包括:将生成器参数输入随机数生成器,根据所述随机数生成器的输出结果确定待训练的神经网络模型的神经元启闭模式,其中,在所述神经元启闭模式下所述神经网络模型的部分神经元处于关闭状态,所述神经元启闭模式是表示所述神经网络模型中各个神经元是开启状态还是关闭状态的一种组合模式,各参与设备在对所述神经网络模型的各次本地训练中,对应采用相同的所述生成器参数输入相同的所述随机数生成器;
按照所述神经元启闭模式对本地的所述神经网络模型中的神经元进行启闭处理,并对处理后的神经网络模型进行本地训练,得到本地模型参数更新并发送给协调设备;
采用从协调设备接收到的全局模型参数更新对本地的所述神经网络模型进行模型更新,其中,协调设备对从各参与设备接收到的本地模型参数更新进行融合得到的所述全局模型参数更新。
7.如权利要求6所述的横向联邦学习系统优化方法,其特征在于,所述生成器参数包括全局模型更新的迭代索引、本地训练的期索引、小批训练数据的批索引和所述神经网络模型的神经元索引,其中,各参与设备各自本地的训练数据被划分为相同批数的多个小批训练数据,参与设备遍历一次本地的训练数据为一期,各参与设备本地训练的期数相同。
8.如权利要求6和7中任一项所述的横向联邦学习系统优化方法,其特征在于,所述按照所述神经元启闭模式对本地的所述神经网络模型中的神经元进行启闭处理的步骤包括:根据所述神经元启闭模式确定本地的所述神经网络模型中的待关闭神经元;
将所述待关闭神经元的输出设置为零以关闭所述待关闭神经元。
9.一种横向联邦学习系统优化设备,其特征在于,所述横向联邦学习系统优化设备包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的横向联邦学习系统优化程序,所述横向联邦学习系统优化程序被所述处理器执行时实现如权利要求1至8中任一项所述的横向联邦学习系统优化方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有横向联邦学习系统优化程序,所述横向联邦学习系统优化程序被处理器执行时实现如权利要求1至8中任一项所述的横向联邦学习系统优化方法的步骤。
说明书 :
横向联邦学习系统优化方法、设备及可读存储介质
技术领域
背景技术
免数据隐私泄露的问题。横向联邦学习,也称为特征对齐的联邦学习(feature‑aligned
federated learning),是在各个参与者的数据特征重叠较多(即数据特征是对齐的),而用
户重叠较少的情况下,取出参与者数据特征相同而用户不完全相同的那部分数据进行联合
机器学习。
在训练数据上损失函数较小,预测准确率较高;但是在测试数据上损失函数比较大,预测准
确率较低,即模型的泛化能力非常差。
花费较长时间,应用于联邦学习中,将导致训练的时间成本过高,也会消耗过多的计算资
源。
发明内容
算资源消耗较多的问题。
括:
型进行本地训练,得到本地模型参数更新并返回;
神经网络模型进行模型更新。
相同批数的多个小批训练数据,参与设备遍历一次本地的训练数据为一期,各参与设备本
地训练的期数相同。
中神经元的个数,所述矩阵中各个元素的值用于指示对应神经元的启闭状态。
学习率计算得到。
法包括:
部分神经元处于关闭状态,各参与设备在对所述神经网络模型的各次本地训练中,对应采
用相同的所述生成器参数输入相同的所述随机数生成器;
全局模型参数更新。
数据被划分为相同批数的多个小批训练数据,参与设备遍历一次本地的训练数据为一期,
各参与设备本地训练的期数相同。
的横向联邦学习系统优化程序,所述横向联邦学习系统优化程序被所述处理器执行时实现
如上所述的横向联邦学习系统优化方法的步骤。
执行时实现如上所述的横向联邦学习系统优化方法的步骤。
理,再对处理后的神经网络模型进行本地训练,使得在联邦学习的各次全局模型更新中,神
经网络模型中的各个神经元随机关闭,减少了神经元节点之间的相互作用,使得训练得到
的神经网络模型不会太依赖某些局部的特征,提高模型泛化能力。并且,由于是由协调设备
随机确定神经元启闭模式,并统一发送给各个参与设备,使得各个参与设备本地训练时对
神经元的关闭处理是对齐的,从而避免了各个参与设备的随机选择结果不统一而造成随机
选择神经元关闭的策略失去统计意义。并且,本发明实施例中所采用的随机选择神经元关
闭的策略,相对于现有的避免过拟合现象的方案,能够很好地与联邦学习结合,不会带来过
多额外的时间成本和计算资源消耗。
附图说明
具体实施方式
件之间的连接通信。用户接口1003可以包括显示屏(Display)、输入单元比如键盘
(Keyboard),可选用户接口1003还可以包括标准的有线接口、无线接口。网络接口1004可选
的可以包括标准的有线接口、无线接口(如WI‑FI接口)。存储器1005可以是高速RAM存储器,
也可以是稳定的存储器(non‑volatile memory),例如磁盘存储器。存储器1005可选的还可
以是独立于前述处理器1001的存储装置。
布置。
通信连接;而处理器1001可以用于调用存储器1005中存储的横向联邦学习系统优化程序,
并执行以下操作:
型进行本地训练,得到本地模型参数更新并返回;
神经网络模型进行模型更新。
相同批数的多个小批训练数据,参与设备遍历一次本地的训练数据为一期,各参与设备本
地训练的期数相同。
中神经元的个数,所述矩阵中各个元素的值用于指示对应神经元的启闭状态。
学习率计算得到。
连接;而处理器1001可以用于调用存储器1005中存储的横向联邦学习系统优化程序,并执
行以下操作:
部分神经元处于关闭状态,各参与设备在对所述神经网络模型的各次本地训练中,对应采
用相同的所述生成器参数输入相同的所述随机数生成器;
全局模型参数更新。
练数据被划分为相同批数的多个小批训练数据,参与设备遍历一次本地的训练数据为一
期,各参与设备本地训练的期数相同。
描述的步骤。
设备和参与设备可以是智能手机、个人计算机和服务器等设备。在本实施例中,所述横向联
邦学习系统优化方法包括:
相同或相似结构的该神经网络模型,也可以是由协调设备构建神经网络模型后发送给各个
参与设备。各个参与设备本地拥有用于训练神经网络模型的训练数据。
的连接权重值,最后得到符合质量要求的神经网络模型。一次全局模型更新中,各个参与设
备采用各自本地的训练数据对本地的神经网络模型进行本地训练,得到本地模型参数更
新,本地模型参数更新可以是用于更新模型参数的梯度信息,也可以是本地更新后的模型
参数;各个参与设备将各自的本地模型参数更新发送给协调设备;协调设备对各个本地模
型参数更新进行融合,如进行加权平均,得到全局模型参数更新,并发送给各个参与设备;
各个参与设备采用全局模型参数更新来更新本地的神经网络模型的模型参数,即对本地的
神经网络模型进行模型更新,即完成了一次全局模型更新。每一次全局模型更新后,各个参
与设备本地的神经网络模型的模型参数是同步的。
网络模型中有多个神经元,神经元启闭模式是表示神经网络模型中各个神经元是开启状态
还是关闭状态的一种组合模式,在神经元启闭模式下神经网络模型的部分神经元是处于关
闭状态的;神经元处于关闭状态可以是该神经元的输出被置为0,或者是该神经元不输出到
下一个神经元,或者是该神经元与下游神经元断开连接。若一个神经元处于关闭状态,那么
该神经元在神经网络模型中将不发挥作用。也即,由协调设备随机确定各个参与设备在本
地训练时神经网络模型中哪个神经元应该关闭,哪个神经元应该开启。
相互作用,检测器相互作用是指某些检测器依赖其他检测器才能发挥作用,从而使得训练
得到的神经网络模型不会太依赖某些局部的特征,提高模型泛化能力,避免了过拟合现象。
需要说明的是,不管神经网络模型的输出层(也称为最后一层)的神经元的个数是1个或者
多个,对输出层都不做随机选择,也即上述神经元启闭模式中不包括输出层神经元;而对于
神经网络模型的输入层(也称为第一层)的神经元是可以进行随机选择的,即随机选择哪些
特征作为输入。
更新中神经网络模型的神经元启闭模式。需要说明的是,每一次都是随机确定的,因此各次
全局模型更新中神经网络模型的神经元启闭模式不一定相同。
将该随机数与一个预设值进行比较,若大于该预设值,就确定关闭该神经元,若不大于该预
设值,则确定不关闭该神经元。
经网络模型进行本地训练,得到本地模型参数更新并返回;
中各个神经元的编号,协调设备向参与设备发送需要关闭的神经元的编号。各个参与设备
在接收到神经元启闭模式后,在对各自本地的神经网络模型进行本地训练之前,先按照神
经元启闭模式对神经网络模型中的各个神经元进行启闭处理。具体地,神经元启闭模式中
指示关闭的神经元,就进行关闭处理,未指示关闭的神经元或指示开启的神经元,就不进行
关闭处理。启闭处理后,参与设备再对处理后的神经网络模型进行本地训练,得到本地模型
参数更新。具体地,参与设备可以是将本地的训练数据输入当前的神经网络模型,得到模型
输出;根据模型输出和参与设备本地的数据标签计算损失函数,再计算损失函数对模型参
数的梯度信息,将梯度信息作为本地模型参数更新发送给协调设备。也可以是参与设备将
本地的训练数据输入当前的神经网络模型,得到模型输出;根据模型输出和参与设备本地
的数据标签来计算损失函数,再计算损失函数对模型参数的梯度,再采用梯度来更新模型
参数,将更新后的模型参数作为本地模型参数更新发送给协调设备。
出设置为0。在一次本地模型参数更新过程中,那些被选择断开的连接对应的连接权重也被
置为0(即对应的模型参数也被置为0),与断开的连接对应的梯度也被置为0。如果参与设备
是向协调设备发送梯度信息,则被置为0的梯度信息可以不用传输给协调设备。
的神经网络模型中神经元的启闭状态也是对齐的。如图4所示,参与设备A(图中参与者A)和
参与设备B(图中参与者B),处理后的神经网络模型中神经元的启闭状态是对齐的。从而保
证了同一次全局模型更新中各个参与设备都采用相同的随机选择的结果,避免各个参与设
备的随机选择结果不统一而造成随机选择神经元关闭的策略失去统计意义。
时,再对神经网络模型进行启闭处理,也即多次启闭处理不是叠加的。
地的所述神经网络模型进行模型更新。
权平均,权重值可以根据各个参与设备的具体情况来设置,如可以是根据各个参与设备本
地训练数据的数据量的比例来设置。协调设备将全局模型参数更新发送给各个参与设备。
各个参与设备根据全局模型参数更新对各自本地的神经网络模型进行模型更新。具体地,
若接收到的全局模型参数更新是梯度信息,则参与设备采用梯度信息和本地的神经网络模
型当前的模型参数计算更新后的模型参数,将更新后的模型参数作为最新的模型参数,即
完成了一次全局模型更新。若接收到的全局模型参数更新是模型参数,则参与设备采用该
模型参数作为最新的模型参数,即完成了一次全局模型更新。
足条件时即停止训练,例如可以是损失函数收敛、迭代次数大于一个设定的次数或训练时
间大于一个设定的时间等。
闭处理,再对处理后的神经网络模型进行本地训练,使得在联邦学习的各次全局模型更新
中,神经网络模型中的各个神经元随机关闭,减少了神经元节点之间的相互作用,使得训练
得到的神经网络模型不会太依赖某些局部的特征,提高模型泛化能力。并且,由于是由协调
设备随机确定神经元启闭模式,并统一发送给各个参与设备,使得各个参与设备本地训练
时对神经元的关闭处理是对齐的,从而避免了各个参与设备的随机选择结果不统一而造成
随机选择神经元关闭的策略失去统计意义。并且,本发明实施例中所采用的随机选择神经
元关闭的策略,相对于现有的避免过拟合现象的方案,能够很好地与联邦学习结合,不会带
来过多额外的时间成本和计算资源消耗。
行的设备,各自在本地拥有多个用户的样本数据,协调设备是独立于多家银行的第三方服
务器。协调设备与各个参与设备按照上述实施例中联邦学习的过程进行神经网络模型的训
练,得到最终用于信贷风险预测的神经网络模型。各家银行可采用训练得到的神经网络模
型来对用户的信贷风险进行预测,将用户的特征数据输入训练好的模型中,得到该用户的
风险评分。由于协调设备在训练过程中随机确定神经网络模型的神经元启闭模式发送给各
个参与设备,各个参与设备按照神经元启闭模式对本地的神经网络进行神经元启闭处理后
再进行本地训练,进而完成模型训练,使得训练得到的神经网络模型泛化能力提高,对训练
数据以外的新用户数据也具备较好的信贷风险预测能力。并且,联邦学习的过程也不会为
各家银行带来较多的时间成本,也节省了各家银行设备的计算资源。
被划分为相同批数的多个小批训练数据,参与设备遍历一次本地的训练数据为一期,各参
与设备本地训练的期数相同。
行多期本地训练,参与设备遍历完一次本地的训练数据为一期,各个参与设备在同一次全
局模型更新中进行本地训练的期数相同。遍历的过程中,参与设备每次采用一批小批训练
数据对本地的神经网络模型进行一次本地模型更新,那么在一次全局模型更新中,一个参
与设备要进行的本地模型更新的次数是本地小批训练数据的批数乘以本地训练的期数。各
个参与设备可以协商确定小批训练数据的批数以及本地训练的期数;也可以是由协调设备
根据各个参与设备本地的训练数据的数据量统一确定批数和期数,再发送给各个参与设
备。
成处理器崩溃或计算时间过长。参与设备进行多期的本地训练可以使得参与设备本地的训
练数据得到充分利用,从而减少全局模型参数更新的次数,进而减少协调设备和参与设备
的通信消耗。
发送给各个参与设备。
的神经元启闭模式一并发送给各个参与设备,此时发送的是下一次全局模型更新中每一期
遍历下采用每一批小批训练数据进行本地模型更新时需要的神经元启闭模式。需要说明的
是,协调设备可以是在发送神经元启闭模式时,携带指示信息,用于指示各个参与设备该神
经元启闭模式是用于哪一次的本地模型更新。采用各小批训练数据进行本地模型更新时,
可以采用相同的神经元启闭模式,也可以采用不相同的神经元启闭模式,也即,协调设备可
以确定每一期遍历中的两个或者多个小批训练数据对应的一个神经元启闭模式,而不一定
要为每一期遍历下每一小批训练数据都分别确定一个神经元启闭模式。
的神经网络模型进行本地模型更新。若参与设备接收到的是一次全局模型更新中所需要的
所有神经元启闭模式,则参与设备一次使用各神经元启闭模式进行各次本地模型更新。
备在各次本地模型更新时的神经元启闭模式,从而避免各个参与设备的神经元随机选择结
果不统一而使得神经元随机关闭的策略失去统计意义,保证了训练得到的神经网络模型的
泛化能力。
中神经元的个数,所述矩阵中各个元素的值用于指示对应神经元的启闭状态。
是神经网络模型中神经元的个数,该矩阵中各个元素的值用于指示对应神经元的启闭状
态。协调设备和参与设备可以预先协商确定矩阵中各个元素的取值,并规定不同的取值所
代表的含义,例如,该矩阵中各个元素的取值可以是0和1,0表示对应的神经元关闭,1表示
对应的神经元开启。
据进行的本地模型更新。矩阵的第一维有K行,分别对应K个期的本地训练。
进而对神经网络模型的神经元进行启闭处理,以完成各次本地训练。例如,在一次全局模型
更新中,在进行第一期遍历,采用第一小批训练数据进行本地训练,更新模型参数时,参与
设备获取矩阵中第(1,1,1)个元素到第(1,1,N)个元素的值,也就是获取了N个元素的值,分
别根据这N个元素的值,对应确定N个神经元的启闭状态。
的该随机数大于该概率P,则协调设备将该矩阵的第(k,m,n)个元素设置为1;否则,协调设
备将该矩阵的第(k,m,n)个元素设置为0。其中,k=1,2,…,K;m=1,2,…,M;n=1,2,…,N。
经元启闭模式,但保证了各个参与设备神经元启闭模式的对齐。
行神经元启闭操作。
况下,协调设备可以为各个参与设备设置不同的学习率,以使得各个参与设备本地训练的
进度能够保持同步。
呈正比,例如,协调设备可以为其中一个参与设备设置一个学习率,如0.01,再计算其他参
与设备对应的数据量与该参与设备的数据量的比例,将计算得到的比例乘该学习率,就得
到了其他参与设备的学习率。例如,参与设备1中小批训练数据的数据量是1000,参与设备2
中小批训练数据的数据量是2000,若设置参与设备1的学习率为0.01,则计算得到参与设备
2的学习率为0.02。参与设备按照协调设备设置的学习率进行本地模型更新。
对应的所述学习率计算得到。
中所采用的各个参与设备的权重可以是根据各个参与设备对应的学习率计算得到的。
备与学习率关联的权重,采用与学习率关联的权重对本地模型参数更新进行加权平均,得
到全局模型参数更新。
与设备本地训练数据对联邦学习的贡献,从而在整体上提高训练得到的神经网络模型的质
量。
习的参与设备,参与设备与参与横向联邦学习的协调设备通信连接,本发明实施例协调设
备和参与设备可以是智能手机、个人计算机和服务器等设备。在本实施例中,横向联邦学习
系统优化方法包括以下步骤:
络模型的部分神经元处于关闭状态,各参与设备在对所述神经网络模型的各次本地训练
中,对应采用相同的所述生成器参数输入相同的所述随机数生成器;
相同或相似结构的该神经网络模型,也可以是由协调设备构建该神经网络模型后发送给各
个参与设备。各个参与设备本地拥有用于训练该神经网络模型的训练数据。
的连接权重值,最后得到符合质量要求的神经网络模型。一次全局模型更新中,各个参与设
备采用各自本地的训练数据对本地的神经网络模型进行本地训练,得到本地模型参数更
新,本地模型参数更新可以是用于更新模型参数的梯度信息,也可以是本地更新后的模型
参数;各个参与设备将各自的本地模型参数更新发送给协调设备;协调设备对各个本地模
型参数更新进行融合,如进行加权平均,得到全局模型参数更新,并发送给各个参与设备;
各个参与设备采用全局模型参数更新来更新本地的神经网络模型的模型参数,即对本地的
神经网络模型进行模型更新,即完成了一次全局模型更新。每一次全局模型更新后,各个参
与设备本地的神经网络模型的模型参数是同步的。
闭。神经元处于关闭状态可以是该神经元的输出被置为0,或者是该神经元不输出到下一个
神经元,或者是该神经元与下游神经元断开连接。
练得到的神经网络模型不会太依赖某些局部的特征,提高模型泛化能力,避免了过拟合现
象。
个参与设备,以保证各个参与设备中的随机数发生器相同。
产生一个随机数。需要说明的是,两个相同的随机数生成器,若分别输入相同的生成器参
数,所产生的随机数是相同的。
是开启状态还是关闭状态的一种组合模式,在神经元启闭模式下神经网络模型的部分神经
元是处于关闭状态的。若一个神经元处于关闭状态,那么该神经元在神经网络模型中将不
发挥作用。
对应采用相同的生成器参数输入各自本地的随机数生成器,以保证在一次全局模型更新
中,各个参与设备对本地的神经网络模型进行本地训练时所采用的神经元启闭模式是相同
的,即保证了同一次全局模型更新中各个参与设备都采用相同的随机选择的结果,避免各
个参与设备的随机选择结果不统一而造成随机选择神经元关闭的策略失去统计意义。
别对应N个神经元,将这个N个随机数与一个预设的值进行比较,若大于该预设的值,就确定
关闭对应的神经元,若不大于,则确定不关闭对应的神经元。
调设备;
经元启闭模式中指示关闭的神经元,就进行关闭处理,未指示关闭的神经元或指示开启的
神经元,就不进行关闭处理。启闭处理后,参与设备再对处理后的神经网络模型进行本地训
练,得到本地模型参数更新。具体地,参与设备可以是将本地的训练数据输入当前的神经网
络模型,得到模型输出;根据模型输出和参与设备本地的数据标签计算损失函数,再计算损
失函数对模型参数的梯度信息,将梯度信息作为本地模型参数更新发送给协调设备。也可
以是参与设备将本地的训练数据输入当前的神经网络模型,得到模型输出;根据模型输出
和参与设备本地的数据标签来计算损失函数,再计算损失函数对模型参数的梯度,再采用
梯度来更新模型参数,将更新后的模型参数作为本地模型参数更新发送给协调设备。
权平均,权重值可以根据各个参与设备的具体情况来设置,如可以是根据各个参与设备本
地训练数据的数据量的比例来设置。协调设备将全局模型参数更新发送给各个参与设备。
的。
到的所述全局模型参数更新。
参与设备采用梯度信息和本地的神经网络模型当前的模型参数,计算更新后的模型参数,
将更新后的模型参数作为最新的模型参数,即完成了一次全局模型更新。若接收到的全局
模型参数更新是模型参数,则参与设备采用该模型参数作为最新的模型参数,即完成了一
次全局模型更新。
需要设置的条件,满足条件时即停止训练,例如可以是损失函数收敛、迭代次数大于一个设
定的次数或训练时间大于一个设定的时间等。
对神经网络模型中的神经元进行启闭处理,再对处理后的神经网络模型进行本地训练,使
得在联邦学习的各次全局模型更新中,神经网络模型中的各个神经元随机关闭,减少了神
经元节点之间的相互作用,使得训练得到的神经网络模型不会太依赖某些局部的特征,提
高模型泛化能力。并且,由于是各个参与设备在各次本地训练中,对应采用相同生成器参数
输入相同的随机数生成器,根据输出结果来确定神经元启闭模式,使得各个参与设备本地
训练时对神经元的关闭处理是对齐的,从而避免了各个参与设备的随机选择结果不统一而
造成随机选择神经元关闭的策略失去统计意义。并且,本发明实施例中中所采用的随机选
择神经元关闭的策略,相对于现有的避免过拟合现象的方案,能够很好地与联邦学习结合,
不会带来过多额外的时间成本和计算资源消耗。
期本地训练,参与设备遍历完一次本地的训练数据为一期,各个参与设备在同一次全局模
型更新中进行本地训练的期数相同。遍历的过程中,参与设备每次采用一批小批训练数据
对本地的神经网络模型进行一次本地模型更新,那么在一次全局模型更新中,一个参与设
备要进行的本地模型更新的次数是本地小批训练数据的批数乘以本地训练的期数。各个参
与设备可以协商确定小批训练数据的批数以及本地训练的期数;也可以是由协调设备根据
各个参与设备本地的训练数据的数据量统一确定批数和期数,再发送给各个参与设备。
理器崩溃或计算时间过长。参与设备进行多期的本地训练可以使得参与设备本地的训练数
据得到充分利用,从而减少全局模型参数更新的次数,进而减少协调设备和参与设备的通
信消耗。
与设备将全局模型更新的迭代索引、本地训练的期索引、小批训练数据的批索引和所述神
经网络模型的神经元索引输入随机数生成器,获得一个随机数,参与设备根据该随机数来
确定各个索引对应的神经元的启闭状态。
随机数生成器,随机数生成器生成一个0到1之间的随机数ρ,如果ρ大于一个设定的值P,如
0.5,则参与设备确定关闭第n个神经元,若ρ不大于P,则参与设备确定不关闭第n个神经元。
生成器和生成器参数,方便地统一各个参与设备在各次本地模型更新时的神经元启闭模
式,从而避免各个参与设备的神经元随机选择结果不统一而使得神经元随机关闭的策略失
去统计意义,保证了训练得到的神经网络模型的泛化能力。
的横向联邦学习系统优化方法的步骤。
且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有
的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该
要素的过程、方法、物品或者装置中还存在另外的相同要素。
前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做
出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质
(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服
务器,空调器,或者网络设备等)执行本发明各个实施例所述的方法。
术领域,均同理包括在本发明的专利保护范围内。