一种基于Bagging和长短期记忆网络的信道盲均衡方法及系统转让专利

申请号 : CN202110520590.0

文献号 : CN113259284B

文献日 :

基本信息:

PDF:

法律信息:

相似专利:

发明人 : 黄志武朱志腾李飞李烁蒋富杨迎泽彭军刘伟荣李恒张晓勇程亦君顾欣陈彬张瑞

申请人 : 中南大学

摘要 :

本发明公开了一种基于Bagging和长短期记忆网络的信道盲均衡方法及系统,该方法包括如下步骤,建立基于长短期记忆网络的信道盲均衡模型;采用Bagging算法对长短期记忆网络盲均衡模型进行优化;对得到的模型进行训练,得到最佳的参数设置;利用训练好的盲均衡模型对新数据进行均衡。在保证神经网络对非线性良好的拟合前提下,通过引入长短期记忆网络解决了神经网络盲均衡过程中参数寻优困难和易于陷入局部最优解的问题。此外,基于改进常模算法MCMA消除了信道对于传输信号在幅值和相位两个方面的影响,使得本发明技术方案更具适应性,适用的信道环境更广,能够提升神经网络类均衡器在时变信道的均衡性能。

权利要求 :

1.一种基于Bagging和长短期记忆网络的信道盲均衡方法,其特征在于,包括:步骤1:将接收的通信信号分离成实部同相信号和虚部正交信号;

步骤2:构建基于长短期记忆网络的信道盲均衡模型,采用改进常模算法MCMA对长短期记忆网络的输出建立损失函数;

所述长短期记忆网络的信道盲均衡模型包括并联的实部子模型和虚部子模型,其中,实部子模型和虚部子模型是由多个长短期记忆网络单元级联而成,将所述实部子模型和虚部子模型的输出结果叠加作为所述长短期记忆网络的信道盲均衡模型的输出结果,且所述实部子模型和虚部子模型均采用长短期记忆网络;

步骤3:模型训练;

将实部同相信号样本和虚部正交信号样本分别输入实部子模型和虚部子模型,基于设定的损失函数值进行梯度下降更新实部子模型和虚部子模型中的权重参数与偏置,直到实部子模型和虚部子模型的损失函数均小于误差设定值;

步骤4:将实时接收的通信信号,输入训练好的基于长短期记忆网络的信道盲均衡模型,实现信号均衡。

2.根据权利要求1所述的方法,其特征在于,在模型训练过程中,采用加权Bagging算法对实部子模型和虚部子模型的各样本输出结果分别进行组合,得到加权后的实部同相均衡信号与虚部正交均衡信号。

3.根据权利要求2所述的方法,其特征在于,各样本的学习器权重按以下公式设置:

其中,ej表示第j个弱学习器的错误率,emax和emin表示所有弱学习器中错误率的最大值和最小值,将采用各样本进行模型训练,模型的损失函数收敛时的损失函数值作为各样本对应的弱学习器的错误率;T是弱学习器的个数。

4.根据权利要求1所述的方法,其特征在于,所述长短期记忆网络中的损失函数如下:i=r或z

其中, 为长短期记忆网络中实部子模型或虚部子模型的t时刻的输出信号,

当i取值为r时,Rr表示发送信号s对应的实部sr的统计信息,etr表示实部子模型的损失函数值;当i取值为z时,Rz表示发送信号s对应的虚部sz的统计信息,etz表示虚部子模型的损失函数值。

5.根据权利要求1所述的方法,其特征在于,所述实部子模型和虚部子模型中长短期记忆网络单元的数量与可接收到的信号中最大延时部分的信号数量相同。

6.根据权利要求5所述的方法,其特征在于,所述长短期记忆网络单元的数量取值为4。

7.根据权利要求1所述的方法,其特征在于,所述长短期记忆网络单元的表达式如下:其中,it、ft、 ct、ot、ht分别表示t时刻的长短期记忆网络的输入门、遗忘门、输入产生的信息、单元状态、输出门、隐含层输出,xt和 分别表示t时刻的长短期记忆网络的输入和输出,ct‑1和ht‑1分别表示t‑1时刻网络单元状态和隐含层输出的值,σ表示sigmoid函数;

ωxi、ωxf、ωxo、ωxc分别为输入层到长短期记忆网络输入门、遗忘门、输出门、单元状态中输入信息的权重矩阵,ωhi、ωhf、ωho、ωhc和ωhy分别为隐含层到长短期记忆网络输入门、遗忘门、输出门、单元状态中输入信息和输出层的权重矩阵,bi、bf、bo、bc分别为输入门、遗忘门、输出门和单元状态中sigmoid激活函数运算时的偏置,by是隐含层到输出层的偏置。

8.根据权利要求1所述的方法,其特征在于,所述基于设定的损失函数的长短期记忆网络单元的权重参数和偏置更新方法如下:2

a(u)=1‑[tanh(u)]

其中,ωxi,t+1、ωxf,t+1、ωxo,t+1、ωxc,t+1分别为t+1时刻的输入层到长短期记忆网络输入门、遗忘门、输出门、单元状态中输入信息的权重矩阵,ωhi,t+1、ωhf,t+1、ωho,t+1、ωhc,t+1和ωhy,t+1分别为t+1时刻的隐含层到长短期记忆网络输入门、遗忘门、输出门、单元状态中输入信息和输出层的权重矩阵;ωxi,t、ωxf,t、ωxo,t、ωxc,t分别为t时刻的输入层到长短期记忆网络输入门、遗忘门、输出门、单元状态中输入信息的权重矩阵,ωhi,t、ωhf,t、ωho,t、ωhc,t和ωhy,t分别为t时刻的隐含层到长短期记忆网络输入门、遗忘门、输出门、单元状态中输入信息和输出层的权重矩阵;bi,t+1、bf,t+1、bo,t+1、bc,t+1分别为t+1时刻的输入门、遗忘门、输出门和单元状态中sigmoid激活函数运算时的偏置,by,t+1是t+1时刻的隐含层到输出层的偏置;bi,t、bf,t、bo,t、bc,t分别为t时刻的输入门、遗忘门、输出门和单元状态中sigmoid激活函数运算时的偏置,by,t是t时刻的隐含层到输出层的偏置;et为t时刻的损失函数值,ct‑1和ht‑1分别为t‑1时刻的长短期记忆网络的单元状态、输出门、隐含层输出,R表示发送信号s的统计信息,η和μ分别为更新权重和偏置时的学习率。

9.根据权利要求1所述的方法,其特征在于,所述误差设定值的取值为0.01。

10.一种基于Bagging和长短期记忆网络的信道盲均衡系统,其特征在于,包括:信号划分单元:用于将接收的通信信号分离成实部同相信号和虚部正交信号;

模型与损失函数构建单元:构建基于长短期记忆网络的信道盲均衡模型,采用改进常模算法MCMA对长短期记忆网络的输出建立损失函数;

所述长短期记忆网络的信道盲均衡模型包括并联的实部子模型和虚部子模型,其中,实部子模型和虚部子模型是由多个长短期记忆网络单元级联而成,将所述实部子模型和虚部子模型的输出结果叠加作为所述长短期记忆网络的信道盲均衡模型的输出结果,且所述实部子模型和虚部子模型均采用长短期记忆网络;

模型训练单元:用于将实部同相信号样本和虚部正交信号样本分别输入实部子模型和虚部子模型,基于设定的损失函数值进行梯度下降更新实部子模型和虚部子模型中的权重参数与偏置,直到实部子模型和虚部子模型的损失函数均小于误差设定值;

均衡单元:用于将实时接收的通信信号,输入训练好的基于长短期记忆网络的信道盲均衡模型,实现信号均衡。

说明书 :

一种基于Bagging和长短期记忆网络的信道盲均衡方法及

系统

技术领域

[0001] 本发明属于信道均衡技术领域,特别涉及一种基于Bagging和长短期记忆网络的信道盲均衡方法及系统。

背景技术

[0002] 在无线通信过程中,每一个符号都按照一定的时间间隔进行传输。然而在此过程中,接收到的符号之间经常会因为无线传输信道的频率响应不理想、多径效应以及噪声等因素而产生交叠,这种现象称为符号间干扰(inter‑symbol interference,ISI),这是影响接收信号正确性的主要因素。为了降低符号间干扰这种因素对接收信号的影响,提升通信质量,通常会在接收端加入一个均衡器进行弥补,这一过程称为信道均衡。
[0003] 信道均衡技术按是否需要提前发送训练序列可分为自适应均衡技术和盲均衡技术。自适应均衡是指根据提前发送的已知训练序列进行学习,按照接收信号的误差自适应地调节均衡器抽头系数。而盲均衡是指不需要这样的训练序列,而直接根据接收到的信号统计特性对均衡器进行调整。加入训练序列挤占有限的频谱资源,会引起无线通信的传输率,而且一些通信环境经常变化的场景下,已知的训练序列是很难获得的。因此,盲均衡技术的发展显得尤为重要。盲均衡技术按照算法可分为基于高阶统计信息的盲均衡算法、基于最大似然准则的盲均衡算法和基于随机梯度下降的盲均衡算法。前两种算法由于算法结构等原因导致计算量过大而没有得到广泛应用,基于随机梯度下降的盲均衡算法中构造的代价函数多为关于均衡器的非凸非线性函数,以线性滤波器构建的均衡器对此不能实现较好的均衡效果,近几年的主要方法是用神经网络代替线性滤波器构建均衡器。
[0004] 盲均衡要解决的问题就是对接收信号进行解卷积运算得到发送信号,而神经网络由于可以逼近任意的非线性函数等特点,使得该技术在盲均衡问题上具有较好的应用前景。信道盲均衡在引入神经网络代替线性滤波器构建均衡器时,会遇到收敛速度慢或者是易于陷入局部最优解的问题。

发明内容

[0005] 本发明针对现有技术中,信道盲均衡在引入神经网络代替线性滤波器构建均衡器时,会遇到收敛速度慢或者是易于陷入局部最优解的问题;选择循环神经网络中记录历史信息的长短期记忆网络,并且为当前的均衡提供额外信息从而进一步提高均衡效果。此外,用MCMA 算法构造损失函数解决信道对于传输信号在幅值和相位两个方面的影响。
[0006] 本发明提供的技术方案如下:
[0007] 一方面,一种基于Bagging和长短期记忆网络的信道盲均衡方法,包括:
[0008] 步骤1:将接收的通信信号分离成实部同相信号和虚部正交信号;
[0009] 步骤2:构建基于长短期记忆网络的信道盲均衡模型,采用改进常模算法MCMA对长短期记忆网络的输出建立损失函数;
[0010] 所述长短期记忆网络的信道盲均衡模型包括并联的实部子模型和虚部子模型,其中,实部子模型和虚部子模型是由多个长短期记忆网络单元级联而成,将所述实部子模型和虚部子模型的输出结果叠加作为所述长短期记忆网络的信道盲均衡模型的输出结果,且所述实部子模型和虚部子模型均采用长短期记忆网络;
[0011] 步骤3:模型训练;
[0012] 将实部同相信号样本和虚部正交信号样本分别输入实部子模型和虚部子模型,基于设定的损失函数值进行梯度下降更新实部子模型和虚部子模型中的权重参数与偏置,直到实部子模型和虚部子模型的损失函数均小于误差设定值;
[0013] 步骤4:将实时接收的通信信号,输入训练好的基于长短期记忆网络的信道盲均衡模型,实现信号均衡。
[0014] 进一步地,在模型训练过程中,采用加权Bagging算法对实部子模型和虚部子模型的各样本输出结果分别进行组合,得到加权后的实部同相均衡信号与虚部正交均衡信号。
[0015] 进一步地,各样本的学习器权重按以下公式设置:
[0016]
[0017] 其中,ej表示第j个弱学习器的错误率,emax和emin表示所有弱学习器中错误率的最大值和最小值,将采用各样本进行模型训练,模型的损失函数收敛时的损失函数值作为各样本对应的弱学习器的错误率。
[0018] 进一步地,所述长短期记忆网络中的损失函数如下:
[0019] 或z
[0020] 其中, 为长短期记忆网络中实部子模型或虚部子模型的t时刻的输出信号,当i取值为r时,Rr表示发送信号s对应的实部sr的统计信息,etr表示实部子模型的损失函数值;当i取值为z时,Rz表示发送信号s对应的虚部sz的统计信息,etz表示虚部子模型的损失函数值。
[0021] 进一步地,所述实部子模型和虚部子模型中长短期记忆网络单元的数量与可接收到的信号中最大延时部分的信号数量相同。
[0022] 进一步地,所述长短期记忆网络单元的数量取值为4。
[0023] 进一步地,所述长短期记忆网络单元的表达式如下:
[0024]
[0025] 其中,it、ft、 ct、ot、ht分别表示t时刻的长短期记忆网络的输入门、遗忘门、输入产生的信息、单元状态、输出门、隐含层输出,xt和 分别表示t时刻的长短期记忆网络的输入和输出,ct‑1和ht‑1分别表示t‑1时刻网络单元状态和隐含层输出的值,σ表示sigmoid函数;ωxi、ωxf、ωxo、ωxc分别为输入层到长短期记忆网络输入门、遗忘门、输出门、单元状态中输入信息的权重矩阵,ωhi、ωhf、ωho、ωhc和ωhy分别为隐含层到长短期记忆网络输入门、遗忘门、输出门、单元状态中输入信息和输出层的权重矩阵,bi、bf、bo、bc分别为输入门、遗忘门、输出门和单元状态中sigmoid激活函数运算时的偏置,by是隐含层到输出层的偏置。
[0026] 进一步地,所述基于设定的损失函数的长短期记忆网络单元的权重参数和偏置更新方法如下:
[0027]
[0028]
[0029]
[0030]
[0031]
[0032]
[0033]
[0034]
[0035]
[0036]
[0037]
[0038]
[0039]
[0040]
[0041] a(u)=1‑[tanh(u)]2
[0042]
[0043] 其中,ωxi,t+1、ωxf,t+1、ωxo,t+1、ωxc,t+1分别为t+1时刻的输入层到长短期记忆网络输入门、遗忘门、输出门、单元状态中输入信息的权重矩阵,ωhi,t+1、ωhf,t+1、ωho,t+1、ωhc,t+1和ωhy,t+1分别为t+1时刻的隐含层到长短期记忆网络输入门、遗忘门、输出门、单元状态中输入信息和输出层的权重矩阵;ωxi,t、ωxf,t、ωxo,t、ωxc,t分别为t时刻的输入层到长短期记忆网络输入门、遗忘门、输出门、单元状态中输入信息的权重矩阵,ωhi,t、ωhf,t、ωho,t、ωhc,t和ωhy,t分别为t 时刻的隐含层到长短期记忆网络输入门、遗忘门、输出门、单元状态中输入信息和输出层的权重矩阵;bi,t+1、bf,t+1、bo,t+1、bc,t+1分别为t+1时刻的输入门、遗忘门、输出门和单元状态中 sigmoid激活函数运算时的偏置,by,t+1是t+1时刻的隐含层到输出层的偏置;bi,t、bf,t、bo,t、 bc,t分别为t时刻的输入门、遗忘门、输出门和单元状态中sigmoid激活函数运算时的偏置,by,t是t时刻的隐含层到输出层的偏置;et为t时刻的损失函数值,ct‑1和ht‑1分别为t‑1时刻的长短期记忆网络的单元状态、输出门、隐含层输出,R表示发送信号s的统计信息,η和μ分别为更新权重和偏置时的学习率。
[0044] 进一步地,所述权重系数η和偏置μ的学习率均可设置为0.005。
[0045] 进一步地,所述误差设定值的取值为0.01。
[0046] 另一方面,一种基于Bagging和长短期记忆网络的信道盲均衡系统,包括:
[0047] 信号划分单元:用于将接收的通信信号分离成实部同相信号和虚部正交信号;
[0048] 模型与损失函数构建单元:构建基于长短期记忆网络的信道盲均衡模型,采用改进常模算法MCMA对长短期记忆网络的输出建立损失函数;
[0049] 所述长短期记忆网络的信道盲均衡模型包括并联的实部子模型和虚部子模型,其中,实部子模型和虚部子模型是由多个长短期记忆网络单元级联而成,将所述实部子模型和虚部子模型的输出结果叠加作为所述长短期记忆网络的信道盲均衡模型的输出结果,且所述实部子模型和虚部子模型均采用长短期记忆网络;
[0050] 模型训练单元:用于将实部同相信号样本和虚部正交信号样本分别输入实部子模型和虚部子模型,基于设定的损失函数值进行梯度下降更新实部子模型和虚部子模型中的权重参数与偏置,直到实部子模型和虚部子模型的损失函数均小于误差设定值;
[0051] 均衡单元:用于将实时接收的通信信号,输入训练好的基于长短期记忆网络的信道盲均衡模型,实现信号均衡。
[0052] 有益效果
[0053] 本发明技术方案提供了一种基于Bagging和长短期记忆网络的信道盲均衡方法及系统,该方法包括如下步骤,建立基于长短期记忆网络的信道盲均衡模型;采用Bagging算法对长短期记忆网络盲均衡模型进行优化;对得到的模型进行训练,得到最佳的参数设置;利用训练好的盲均衡模型对新数据进行均衡。在保证神经网络对非线性良好的拟合前提下,通过引入长短期记忆网络解决了神经网络盲均衡过程中参数寻优困难和易于陷入局部最优解的问题。此外,基于改进常模算法MCMA消除了信道对于传输信号在幅值和相位两个方面的影响,使得本发明技术方案更具适应性,适用的信道环境更广,能够提升神经网络类均衡器在时变信道的均衡性能。

附图说明

[0054] 图1为本发明实例所述方法的整体框图;
[0055] 图2长短期记忆网络的单元级联示意图;
[0056] 图3长短期记忆网络内部示意图;
[0057] 图4Bagging算法示意图。

具体实施方式

[0058] 下面将结合附图说明的图片对本发明进行更为清楚、完整地说明。
[0059] 如图1所示,一种基于Bagging和长短期记忆网络的信道盲均衡方法,包括以下步骤:
[0060] 步骤1:信号接收与处理;
[0061] 接收信号x的产生。经过调制后的发送信号s经过无线信道a和该过程的噪声n干扰,使得接收端最终接收到的信号x为以下形式:
[0062] x=a×s+n
[0063] 数据的预处理。在将接收数据导入长短期记忆网络之前,需要对数据进行预处理,这主要是因为长短期记忆网络中的sigmoid函数和tanh函数对于大数的敏感性,而这对于收敛速度的影响是巨大的,甚至于无法收敛。这里采用的数据预处理方式为归一化,具体方式如下:
[0064]
[0065] 其中,xk为归一化后的数据,即长短期记忆网络的输入,xmax,xmin分别为接收信号x中的最大值和最小值。此外,考虑到接收信号为复数形式,为了避免在复数领域函数可能会遇到导数不存在等问题,故采用分离型复数神经网络的思路,将接收信号进行分离,得到其实部xk,r (信号的同相成分)和虚部xk,z(信号的正交成分)。即使用两套长短期记忆网络分别接收归一化后数据的同相部分和正交部分,以代替直接用一个长短期记忆网络接收未分离实、虚部的复数数据。
[0066] 步骤2:构建基于长短期记忆网络的信道盲均衡模型;
[0067] 以归一化后数据的同相部分xk,r进行说明,而正交部分xk,z的处理原理相同。
[0068] 将同相部分作为长短期记忆网络的一维输入序列(以t时刻的输入序列进行说明),该序列不仅包括t时刻的同相部分,还包括一直到(t‑l)时刻的同相延时信号,即 xk,r=(xk,r(t),xk,r(t‑1),xk,r(t‑2),...,xk,r(t‑l))。得到输入数据,并根据改进常模算法MCMA构建的损失函数后,长短期记忆网络会通过反向传播算法将每次迭代的值回溯到长短期记忆网络中,再依据梯度下降法,来调整长短期记忆网络的权重参数和偏置,直至误差小于给定值。
[0069] 为了讲清楚如何构建长短期记忆网络,将结合其相关理论说明。长短期记忆神经网络由多个单元级联组成,图2展示的是长短期记忆网络的单元级联示意图。长短期记忆网络作为一种特殊的循环神经网络(Recurrent Neural Network,RNN)是一种具有记忆能力的网络,不仅继承了RNN的记忆功能,即在时间方向上将前一时刻隐藏层的激活值反馈给下一时刻,与当前时刻的信号输入共同作为当前时刻的输入,共同训练每级的网络,而且通过引入新的状态变量ct专门进行循环信息传递,同时输出信息给隐藏层的另一状态变量ht。此外,长短期记忆网络引入门控机制来控制信息传递的路径。
[0070] 然后依托长短期记忆网络算法建立模型,如下:
[0071]
[0072] 其中,it、ft、 ct、ot、ht分别表示t时刻的长短期记忆网络的输入门、遗忘门、输入产生的信息、单元状态、输出门、隐含层输出,xt和 分别表示t时刻的长短期记忆网络的输入和输出,ct‑1和ht‑1分别表示t‑1时刻网络单元状态和隐含层输出的值,σ表示sigmoid函数。ωxi、ωxf、ωxo、ωxc分别为输入层到长短期记忆网路输入门、遗忘门、输出门、单元状态中输入信息的权重矩阵,ωhi、ωhf、ωho、ωhc和ωhy分别为隐含层到长短期记忆网络输入门、遗忘门、输出门、单元状态中输入信息和输出层的权重矩阵,bi、bf、bo、bc分别为输入门、遗忘门、输出门和单元状态中sigmoid激活函数运算时的偏置,by是隐含层到输出层的偏置。
[0073] 图3展示的是某一个长短期记忆网络单元的内部示意图,结合t时刻的同相部分序列为例对上述公式进行说明,一个长短期记忆网络模型有(l+1)个输入端,每个输入端对应输入序列 xk,r=(xk,r(t),xk,r(t‑1),xk,r(t‑2),...,xk,r(t‑l))的一个值,如第1个输入端x1对应(t‑l)时刻的同相部分xk,r(t‑l),第(l+1)个输入端xl+1对应t时刻的同相部分xk,r(t)。结合输入数据和长短期记忆网络单元各个门结构的作用,对前向传播算法的公式进行说明,为方便起见,将xk,r(t)简写成xt:
[0074] 1)遗忘门:
[0075] 在t时刻,长短期记忆网络单元有两个输入,输入数据xt和上一时刻t‑1的隐含层输出 ht‑1。进入长短期记忆网络单元的第一步是决定对输入中的哪些信息进行“遗忘”,依据是:
[0076] ft=σ(ωxfxt+ωhfht‑1+bf)
[0077] 通过当前时刻t的输入xt和上一时刻的隐含层输出ht‑1进行sigmoid函数运算,根据结果来对长短期记忆网络中单元状态单元储存的上一时刻的信息进行控制。当ft=1,表示“接受”,即t时刻的输入xt会被计算入该时刻的单元状态;当ft=0,表示“遗忘”,即t时刻的输入xt不会被计算入该时刻的单元状态。因此,整个网络前后的单元状态单元可以储存时间跨度很大的信息,故而认为长短期记忆网络可以记录历史信息,但是这种储存是可选择的,而非固定的。
[0078] 2)输入门:
[0079] 长短期记忆网络的第二步是要确定对于单元状态中的哪些新信息进行“保存”以及如何根据这些信息对单元状态进行更新,依据是:
[0080]
[0081] 上式中的第一个等式通过一个sigmoid函数来确定哪些信息需要更新,第二个等式通过一个tanh函数来创建一个新的备选值向量 ,可以用来添加到单元状态,第三个等式表达了对于旧的状态乘上遗忘门ft,用来遗忘确定不需要的信息,在加上新的备选值,完成状态更新。这一部分反映了输入门的作用是通过计算对当前时刻的输入信息进行筛选并更新单元状态。
[0082] 3)输出门:
[0083] 长短期记忆网络的第三步是确定输出值,依据是:
[0084]
[0085] 长短期记忆网络的输出依赖于单元状态,但是其中存在着“过滤”。上式中的第一个等式表示通过sigmoid运算来确定单元状态中的哪些信息可以输出。第二个等式表示把单元状态通过tanh变换到[‑1,1]之间,再和第一个等式的输出值相乘,这样就可以输出想要输出的信息。
[0086] 步骤3:模型训练;
[0087] 将作为训练数据的发送数据平均分割成若干个训练样本(个数与长短期记忆网络的个数设置一致)。对样本进行数据处理和实部虚部的分离,然后分别送入各个长短期记忆网络进行训练。根据损失函数计算前向传播算法产生的误差,并根据这个误差利用梯度下降更新长短期记忆网络的权重参数和偏置,直至误差小于给定值。
[0088] 基于长短期记忆网络的信道盲均衡模型的参数训练算法为反向传播算法。对于这类反向传播算法,它们遵循的流程主要有如下三个步骤:
[0089] 步骤A、根据前向传播算法计算每个神经元的输出值。对于长短期记忆网络而言,依据前面介绍的流程,按部就班地分别计算出it、ft、 ct、ot、ht和
[0090] 步骤B、确定损失函数。在训练早期,输出值和预期值会不一致,于是可计算每个神经元的误差项值,借此构造出损失函数。在本发明中采用改进常模算法MCMA对长短期记忆网络的输出建立损失函数,进行评估。对于由接收信号实部建立的长短期记忆网络模型而言,损失函数如下:
[0091]
[0092] 其中, 为实部长短期记忆网络模型的t时刻的输出信号,Rr是一种包含有发送信号s中实部sr的统计信息,其具体表达式为:
[0093]
[0094] 对于虚部长短期记忆网络模型的损失函数的处理也类似的。
[0095] 步骤C、根据损失函数的梯度指引,更新网络权值参数。与传统RNN类似,长短期记忆网络误差项的反向传播包括两个层面:一个是空间上层面的,将误差项向网络的上一层传播。
[0096] 另一个是时间层面上的,沿时间反向传播,即从当前t时刻开始,计算每个时刻的误差。
[0097]
[0098]
[0099]
[0100]
[0101]
[0102]
[0103]
[0104]
[0105]
[0106]
[0107]
[0108]
[0109]
[0110]
[0111] a(u)=1‑[tanh(u)]2
[0112]
[0113] 其中,其中,ωxi,t+1、ωxf,t+1、ωxo,t+1、ωxc,t+1分别为t+1时刻的输入层到长短期记忆网络输入门、遗忘门、输出门、单元状态中输入信息的权重矩阵,ωhi,t+1、ωhf,t+1、ωho,t+1、ωhc,t+1和ωhy,t+1分别为t+1时刻的隐含层到长短期记忆网络输入门、遗忘门、输出门、单元状态中输入信息和输出层的权重矩阵;ωxi,t、ωxf,t、ωxo,t、ωxc,t分别为t时刻的输入层到长短期记忆网络输入门、遗忘门、输出门、单元状态中输入信息的权重矩阵,ωhi,t、ωhf,t、ωho,t、ωhc,t和ωhy,t分别为t时刻的隐含层到长短期记忆网络输入门、遗忘门、输出门、单元状态中输入信息和输出层的权重矩阵;bi,t+1、bf,t+1、bo,t+1、bc,t+1分别为t+1时刻的输入门、遗忘门、输出门和单元状态中sigmoid激活函数运算时的偏置,by,t+1是t+1时刻的隐含层到输出层的偏置;bi,t、bf,t、 bo,t、bc,t分别为t时刻的输入门、遗忘门、输出门和单元状态中sigmoid激活函数运算时的偏置,by,t是t时刻的隐含层到输出层的偏置;et为t时刻的损失函数值,ct‑1和ht‑1分别为t‑1时刻的长短期记忆网络的单元状态、输出门、隐含层输出,R表示发送信号s的统计信息,η和μ分别为更新权重和偏置时的学习率,一般均可设置为0.005。然后返回步骤1,直至模型损失函数的值小于给定值,一般设置为0.01。
[0114] 步骤4、用Bagging算法对长短期记忆网络的输出进行加权组合,如图4所示,具体为:
[0115]
[0116] 其中, 是第j个长短期记忆网络的输出,也是Bagging算法中的第j个弱学习器,λj是各个弱学习器的权重,y是最终的均衡器输出,T是弱学习器的个数。其中,权重λj可根据各弱学习器的准确度来设置,如下:
[0117]
[0118] 其中,ej表示第j个弱学习器的错误率,emax和emin表示所有弱学习器中错误率的最大值和最小值。权重λj在每次长短时记忆网络输出时都会更新。
[0119] 步骤5:将实时接收的通信信号,输入训练好的基于长短期记忆网络的信道盲均衡模型,实现信号均衡。
[0120] 基于上述方法,本发明实施例还提供一种基于Bagging和长短期记忆网络的信道盲均衡系统,包括:
[0121] 信号划分单元:用于将接收的通信信号分离成实部同相信号和虚部正交信号;
[0122] 模型与损失函数构建单元:构建基于长短期记忆网络的信道盲均衡模型,采用改进常模算法MCMA对长短期记忆网络的输出建立损失函数;
[0123] 所述长短期记忆网络的信道盲均衡模型包括并联的实部子模型和虚部子模型,其中,实部子模型和虚部子模型是由多个长短期记忆网络单元级联而成,将所述实部子模型和虚部子模型的输出结果叠加作为所述长短期记忆网络的信道盲均衡模型的输出结果,且所述实部子模型和虚部子模型均采用长短期记忆网络;
[0124] 模型训练单元:用于将实部同相信号样本和虚部正交信号样本分别输入实部子模型和虚部子模型,基于设定的损失函数值进行梯度下降更新实部子模型和虚部子模型中的权重参数与偏置,直到实部子模型和虚部子模型的损失函数均小于误差设定值;
[0125] 均衡单元:用于将实时接收的通信信号,输入训练好的基于长短期记忆网络的信道盲均衡模型,实现信号均衡。
[0126] 应当理解,本发明各个实施例中的功能单元模块可以集中在一个处理单元中,也可以是各个单元模块单独物理存在,也可以是两个或两个以上的单元模块集成在一个单元模块中,可以采用硬件或软件的形式来实现。
[0127] 本发明实施例还提供一种可读存储介质,包括计算机程序指令,所述计算机程序指令被处理终端执行时使所述处理终端执行所述一种基于Bagging和长短期记忆网络的信道盲均衡方法,其有益效果参见方法部分的有益效果,在此不再赘述。
[0128] 本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD‑ROM、光学存储器等)上实施的计算机程序产品的形式。
[0129] 本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/ 或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/ 或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
[0130] 这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
[0131] 这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
[0132] 最后应当说明的是:以上实施例仅用以说明本发明的技术方案而非对其限制,尽管参照上述实施例对本发明进行了详细的说明,所属领域的普通技术人员应当理解:依然可以对本发明的具体实施方式进行修改或者等同替换,而未脱离本发明精神和范围的任何修改或者等同替换,其均应涵盖在本发明的权利要求保护范围之内。