基于抗拟合深度学习的MIMO信道状态信息反馈方法转让专利

申请号 : CN202010745080.9

文献号 : CN111901024B

文献日 :

基本信息:

PDF:

法律信息:

相似专利:

发明人 : 李鑫滨赵海红韩赵星于海峰骆曦

申请人 : 燕山大学

摘要 :

本发明公开了一种基于抗拟合深度学习的MIMO道状态信息反馈方法,属于通信领域,包括以下步骤:首先,构建Anti‑overfitting CSI net模型,将信道矩阵分为实部和虚部分别输入进用户端的编码器,编码器包含卷积层、全连接层,数据经过编码经过反馈链路,到达接收端,在接收端的解码器包含抗拟合层,全连接层、RefineNet层、卷积层,最终输出预测的信道矩阵。模型构建完成后,将模型进行离线训练,首先初始化模型参数,误差收敛后保存模型,最后将训练好保存的模型在线进行预测信道状态信息。本发明可以进一步提高信息矩阵的恢复精度,保证系统发射端得到准确的信道状态信息,提高系统的通信质量。

权利要求 :

1.基于抗拟合深度学习的MIMO信道状态信息反馈方法,其特征在于包括以下步骤:(1)构建Anti‑overfitting CSI net模型,利用卷积神经网络作为编码器和解码器,卷积神经网络通过加强相邻层神经元之间的局部连接模式来利用空间局部相关性,信道矩阵H的实部和虚部作为Anti‑overfitting CSI net模型的输入;

(2)信道矩阵H数据进入编码器,编码器位于发送数据的用户端,将信道矩阵H编码为一个低维度的数据,编码器包含卷积层和全连接层;

(3)数据经过编码后进入反馈链路,到达接收端;

(4)在接收端的基站,解码器开始进行译码,将编码端低维的数据进行从新构建;接收端的解码器包含抗拟合层、全连接层、RefineNet层、卷积层,输出预测的信道矩阵;

(5)Anti‑overfitting CSI net模型构建完成后,将模型进行离线训练,首先初始化模型参数,误差收敛后保存模型,最后将训练好保存的Anti‑overfitting CSI net模型在线进行预测信道状态信息;

步骤(4)所述的解码器工作流程表示为:在接收端获得码字s,随后利用卷积神经网络将其映射回通道矩阵H;解码器的第一层为抗拟合层,我们加入随机失活算法,其方法为在每一个训练周期随机丢掉一定比例的节点信息,也就是将一定比例的上一层输出在这次的训练阶段变零,让下一层的节点根据剩下的信息决定数值;第二层是一个以经过随机失活处理的s为输入,输出两个大小为Nc×Nt的矩阵的全连通层,作为H的实部和虚部的初始估计,其中:Nc为接收天线数,Nt为发射天线数;然后,初始估计数被输入到几个不断细化重建的细分网络单元中;RefineNet层包括多个RefineNet单元,每个RefineNet单元由四层组成,在RefineNet单元中,第一层是输入层,所有剩下的3层使用3×3个内核;第二层和第三层分别生成8和16个特征图,最后一层生成H的最终重构;通过适当的补零,将三个卷积层生成的特征图设置为与输入通道矩阵大小Nc×Nt相同的大小;选取ReLU(x)=max(x,0)作为激活函数,对每一层进行批量归一化处理;

通过一系列RefineNet单元对信道矩阵进行细化后,将信道矩阵输入到最终的卷积层,使用sigmoid函数将值缩放到[0,1]范围;

步骤(5)包括以下内容:

为了训练Anti‑overfitting CSI net,我们对编码器和解码器的所有内核和偏置值使用端到端学习;参数集记为Θ={Θen,Θde},其中Θen为编码参数集,Θde为解码参数集;Anti‑overfitting CSI net的输入为Hi,重构的信道矩阵为其中,Hi为真实的信道矩阵,fde为解码函数,fen为编码函数,si为第i个信道矩阵的压缩后的码字;值得注意的是,Anti‑overfitting CSI net的输入和输出都是归一化的通道矩阵,其元素在[0,1]范围内缩放;损失函数为均方误差(mean squared error,MSE),计算方法如下:

其中||·||2是欧几里得范数,T是在训练集的样本总数。

2.根据权利要求1所述的基于抗拟合深度学习的MIMO信道状态信息反馈方法,其特征在于:步骤(2)包括:

在编码器的卷积层,这一层使用尺寸为的内核来生成两个特征图;在卷积层之后,我们将特征图重塑成一个向量,并使用一个全连接层来生成码字s,这是一个大小为的向量;卷积层和全连接层模拟压缩感知的投影并充当编码器。

3.根据权利要求1所述的基于抗拟合深度学习的MIMO信道状态信息反馈方法,其特征在于:随机失活算法原理数据经过输入层、多层隐藏层、输出层;在正常数据传输过程中,每一层的神经元与下一层神经元都进行全部连接,随机失活算法将每一层与下一层进行相连的神经元进行随机失活,使神经元与下一层的神经元断开;随机失活算法在训练时将神经元随机失活,得到训练好的模型后,在测试时所有神经元将又重新连接在一起。

说明书 :

基于抗拟合深度学习的MIMO信道状态信息反馈方法

技术领域

[0001] 本发明涉及通信领域,尤其是一种基于抗拟合深度学习的大规模MIMO道状态信息反馈方法。

背景技术

[0002] 大规模多输入多输出(MIMO)技术作为第五代(5G)通信系统的关键技术,具有频谱效率高、系统容量大、系统鲁棒性强等优点,为保障信道估计得到的信道状态信息能够精确
的反馈到发送端,MIMO系统相对于OFDM系统具有更高的数据传输速率,并且提高了系统的
可靠性。因此,大规模的MIMO技术越来越受到工业界和学术界的关注。然而,大规模MIMO技
术的显著优势在很大程度上取决于发射机可以获得下行链路的信道状态信息。在频分双工
大规模MIMO系统中,基站需要通过接收端的反馈来获取下行CSI。然而,大规模天线阵列的
使用导致了信道反馈开销的急剧增加。
[0003] 在MIMO无线通信系统中,传统的信道状态信息反馈方法存在严重的缺点。目前MIMO信道状态信息反馈中传统的研究方法,这些传统方法已广泛应用到通信中,但存在很
多缺点。首先,它们严重依赖于假设信道是稀疏的。然而,通道在任何基础上都不是完全稀
疏的,甚至可能没有可解释的结构。其次,压缩感知算法使用随机投影,没有充分利用信道
结构。并且现有的信号重构算法多为迭代法,重构速度较慢。
[0004] 为了实现精度高和高效率的信道反馈方法,基于深度学习的反馈方案被提出,深度学习在信道反馈中的应用,具有良好的反馈效果,使得通信具有良好性能,保障了系统的
稳定性。采用深度学习理论在通信系统的接收端对信道信息进行离线训练数据,在线恢复
数据,极大减轻反馈链路的负担,提高了恢复信道状态信息的精度。但目前这些研究未考虑
深度学习方法在信道信息反馈中存在过拟合的问题,过拟合会导致预测性能降低,模型训
练结果下降等问题,导致最终预测的信道状态信息精度不足,通信无法保证质量。因此,如
何找到一种可以提高恢复速度与精度的深度学习算法是信道信息反馈方案的关键。

发明内容

[0005] 本发明需要解决的技术问题是提供一种基于抗拟合深度学习的MIMO信道状态信息反馈方法,解决目前深度学习方法存在过拟合导致预测信道状态信息精度不足的问题。
[0006] 为解决上述技术问题,本发明所采用的技术方案是:
[0007] 基于抗拟合深度学习的MIMO信道状态信息反馈方法,包括以下步骤:
[0008] (1)构建Anti‑overfitting CSI net模型,利用卷积神经网络作为编码器和解码器,卷积神经网络可以通过加强相邻层神经元之间的局部连接模式来利用空间局部相关
性,信道矩阵H的实部和虚部作为Anti‑overfitting CSI net模型的输入;
[0009] (2)信道矩阵H数据进入编码器,编码器位于发送数据的用户端,将信道矩阵H编码为一个低维度的数据,编码器包含卷积层和全连接层;
[0010] (3)数据经过编码后进入反馈链路,到达接收端;
[0011] (4)在接收端的基站,解码器开始进行译码,将编码端低维的数据进行从新构建Anti‑overfitting CSI net模型;接收端的解码器包含抗拟合层,全连接层、RefineNet层、
卷积层,输出预测的信道矩阵;
[0012] (5)Anti‑overfitting CSI net模型构建完成后,将模型进行离线训练,首先初始化模型参数,误差收敛后保存模型,最后将训练好保存的Anti‑overfitting CSI net模型
在线进行预测信道状态信息。
[0013] 本发明技术方案的进一步改进在于:步骤(2)所述包括:
[0014] 在编码器的卷积层,这一层使用尺寸为3×3的内核来生成两个特征图;在卷积层之后,我们将特征图重塑成一个向量,并使用一个全连接层来生成码字s,这是一个大小为M
×1的向量;卷积层和全连接层模拟压缩感知的投影并充当编码器。
[0015] 本发明技术方案的进一步改进在于:步骤(4)所述的解码器工作流程表示为:
[0016] 在接收端获得码字s,随后使用神经网络层(作为解码器)将其映射回通道矩阵H;解码器的第一层为抗拟合单元,我们加入随机失活(Dropout)算法,其方法为在每一个训练
周期随机丢掉一定比例的节点信息,也就是将一定比例的上一层输出在这次的训练阶段变
零,让下一层的节点根据剩下的信息决定数值;第二层是一个以经过随机失活处理的s为输
入,输出两个大小为Nc×Nt的矩阵的全连通层,作为H的实部和虚部的初始估计;然后,初始
估计数被输入到几个不断细化重建的细分网络单元中;RefineNet层包括多个RefineNet单
元,每个RefineNet单元由四层组成,在RefineNet单元中,第一层是输入层,所有剩下的3层
使用3×3个内核;第二层和第三层分别生成8和16个特征图,最后一层生成H的最终重构;通
过适当的补零,将三个卷积层生成的特征图设置为与输入通道矩阵大小Nc×Nt相同的大小;
选取ReLU(x)=max(x,0)作为激活函数,对每一层进行批量归一化处理;
[0017] 通过一系列RefineNet单元对信道矩阵进行细化后,将信道矩阵输入到最终的卷积层,使用sigmoid函数将值缩放到[0,1]范围。
[0018] 本发明技术方案的进一步改进在于:步骤(5)包括以下内容:
[0019] 为了训练Anti‑overfitting CSI net,我们对编码器和解码器的所有内核和偏置值使用端到端学习;参数集记为Θ={Θen,Θde};Anti‑overfitting CSI net的输入为Hi,
重构的信道矩阵为 值得注意的是,Anti‑
overfitting CSI net的输入和输出都是归一化的通道矩阵,其元素在[0,1]范围内缩放;
与自动编码器类似,Anti‑overfitting CSI net是一种无监督学习算法;损失函数为均方
误差(mean squared error,MSE),计算方法如下:
[0020]
[0021] 其中||·||2是欧几里得范数,T是在训练集的样本总数。
[0022] 本发明技术方案的进一步改进在于:随机失活算法原理数据经过输入层、多层隐藏层、输出层;在正常数据传输过程中,每一层的神经元与下一层神经元都进行全部连接,
这样当大量数据进行训练时,经常会造成过拟合的现象,因此,随机失活算法被提了出来,
它将每一层与下一层进行相连的神经元进行随机失活,使神经元与下一层的神经元断开,
这样做的目的减少训练数据,达到防止过拟合的目的;随机失活算法只是在训练时将神经
元随机失活,得到训练好的模型后,在测试时所有神经元将又重新连接在一起,经过神经网
络的计算,最终输出高精度的计算结果,使之获得完整的信道状态信息。
[0023] 由于采用了上述技术方案,本发明取得的技术进步是:
[0024] 本发明提供一种基于抗拟合深度学习的大规模MIMO信道状态信息反馈方法,解决目前深度学习方法存在过拟合导致预测信道状态信息精度不足的问题,进一步提高信息矩
阵的恢复精度,保证系统发射端得到准确的信道状态信息,提高系统的通信质量。

附图说明

[0025] 图1为本发明的Anti‑overfitting CSI net模型构建和训练流程图;
[0026] 图2为本发明的Anti‑overfitting CSI net模型网络架构图;
[0027] 图3为本发明的神经网络正常训练示意图;
[0028] 图4为本发明的加入抗拟合单元训练示意图。

具体实施方式

[0029] 下面结合实施例对本发明做进一步详细说明:
[0030] 如图1所示,一种基于抗拟合深度学习的MIMO道状态信息反馈方法,包括以下步骤:
[0031] (1)构建AOCN(Anti‑overfitting CSI net,AOCN)模型,利用卷积神经网络作为编码器和解码器,卷积神经网络可以通过加强相邻层神经元之间的局部连接模式来利用空间
局部相关性,信道矩阵H的实部和虚部作为它的输入;
[0032] (2)信道矩阵H数据进入编码器,编码器位于发送数据的用户端,将信道矩阵H编码为一个低维度的数据,编码器包含卷积层和全连接层。包括以下内容:在编码器的卷积层,
这一层使用尺寸为3×3的内核来生成两个特征图。在卷积层之后,我们将特征图重塑成一
个向量,并使用一个全连接层来生成码字s,这是一个大小为M×1的向量。前两层模拟压缩
感知的投影并充当编码器;
[0033] (3)数据经过编码后进入反馈链路,到达接收端;
[0034] (4)在接收端的基站,解码器开始进行译码,将编码端低维的数据进行从新构建。接收端的解码器包含抗拟合层,全连接层、RefineNet层、卷积层,输出预测的信道矩阵。解
码器工作流程表示为:在接收端获得码字s,随后使用神经网络层(作为解码器)将其映射回
通道矩阵H。解码器的第一层我们加入随机失活(Dropout)算法。
[0035] 随机失活算法原理如图3和图4所示,随机失活算法原理数据经过输入层、多层隐藏层、输出层。在正常数据传输过程中,数据如图3进行传输,每一层的神经元与下一层神经
元都进行全部连接,这样当大量数据进行训练时,经常会造成过拟合的现象,因此,随机失
活算法被提了出来,它将每一层与下一层进行相连的神经元进行随机失活,使神经元与下
一层的神经元断开,这样做的目的减少训练数据,达到防止过拟合的目的。随机失活算法只
是在训练时将神经元随机失活,得到训练好的模型后,在测试时所有神经元将又重新连接
在一起,经过神经网络的计算,最终输出高精度的计算结果,使之获得完整的信道状态信
息。
[0036] 第二层是一个以经过随机失活处理的s为输入,输出两个大小为Nc×Nt的矩阵的全连通层,作为H的实部和虚部的初始估计。然后,初始估计数被输入到几个不断细化重建的
细分网络单元中。每个RefineNet单元由四层组成,在RefineNet单元中,第一层是输入层,
所有剩下的3层使用3×3个内核。第二层和第三层分别生成8和16个特征图,最后一层生成H
的最终重构。通过适当的补零,将三个卷积层生成的特征图设置为与输入通道矩阵大小Nc
×Nt相同的大小。选取ReLU(x)=max(x,0)作为激活函数,对每一层进行批量归一化处理。
[0037] 通过一系列RefineNet单元对信道矩阵进行细化后,将信道矩阵输入到最终的卷积层,使用sigmoid函数将值缩放到[0,1]范围。
[0038] (5)Anti‑overfitting CSI net模型构建完成,如图2所示,然后将模型进行离线训练,首先初始化模型参数,误差收敛后保存模型,最后将训练好保存的Anti‑overfitting 
CSI net模型在线进行预测信道状态信息。为了训练Anti‑overfitting CSI net,我们对编
码器和解码器的所有内核和偏置值使用端到端学习。参数集记为Θ={Θen,Θde}。Anti‑
overfitting CSI net的输入为Hi,重构的信道矩阵为 值得
注意的是,Anti‑overfitting CSI net的输入和输出都是归一化的通道矩阵,其元素在[0,
1]范围内缩放。与自动编码器类似,Anti‑overfitting CSI net是一种无监督学习算法。损
失函数为均方误差(mean squared error,MSE),计算方法如下:
[0039]
[0040] 其中||·||2是欧几里得范数,T是在训练集的样本总数。
[0041] 以上所述的实施例仅仅是对本发明的优选实施方式进行描述,并非对本发明的范围进行限定,在不脱离本发明设计精神的前提下,本领域普通技术人员对本发明的技术方
案做出的各种变形和改进,均应落入本发明权利要求书确定的保护范围内。