一种基于深度学习信道预测的预编码方法转让专利

申请号 : CN202110362761.1

文献号 : CN113162665B

文献日 :

基本信息:

PDF:

法律信息:

相似专利:

发明人 : 杨悦张海鹏宋瑞良李捷

申请人 : 中国电子科技集团公司第五十四研究所

摘要 :

本发明公开了一种基于深度学习信道预测的预编码方法,属于信道预编码技术领域。该方法包括:分别对上行信道和下行信道进行F范数标准化以实现数据预处理;构建神经网络的输入输出方案:采用上行信道作为模型输入,以下行信道作为模型输出;采用损失函数计算网络损失;利用反向传播对所设计的网络模型进行参数更新,并重复该步骤;将网络预测输出的下行信道通过WMMSE计算得到预编码矩阵。本发明能实现利用有限的上行信道信息对下行信道进行预编码,从而避免大量的通信开销和时间延迟。

权利要求 :

1.一种基于深度学习信道预测的预编码方法,其特征在于,包括以下步骤:步骤1,采样并生成信道的原始数据集,对原始数据集中上行信道的原始矩阵和下行信道的原始矩阵均进行F范数数据预处理以及相位旋转处理,得到上行信道矩阵和下行信道矩阵;其中,F范数数据预处理的具体方式为:式中, 为原始矩阵,为经过F范数数据预处理后的矩阵;

相位旋转处理的具体方式为:

式中, 为经过F范数数据预处理后的矩阵, 表示 中第一行第一列元素所对应的相位角, 运算符表示将运算符之前矩阵中的每一个元素都除以运算符之后的值, 表示处理后的矩阵;

步骤2,构建神经网络模型,设定 为接收端天线数量, 为发射端天线的数量,以大小为 的上行信道的相关矩阵作为神经网络模型的输入,并以大小为 的下行信道的相关矩阵作为神经网络模型的输出;

步骤3,以真实下行信道的相关矩阵作为标签,定义损失函数L:其中,上标H表示矩阵的共轭转置, 为真实的下行信道矩阵, 为神经网络模型预测输出的下行信道矩阵, 为 的相关矩阵, 为 的相关矩阵,为F范数;

步骤4,利用反向传播对神经网络模型进行参数更新,参数的更新方式如下:其中,为神经网络模型的参数,为学习率, 为损失函数L对w的导数;

重复该步骤直到损失函数收敛,得到训练完成的神经网络模型;

步骤5,通过训练完成的神经网络模型预测下行信道矩阵,然后利用下式将其系数还原:

式中, 为系数还原后的下行信道矩阵, 为上行信道矩阵;

步骤6,将系数还原后的下行信道矩阵 代入到WMMSE最小化加权均方误差预编码算法中,对预编码矩阵进行迭代计算,直至其收敛,得到最终的预编码矩阵,完成下行信道的预编码;具体方式为:

步骤601,采用随机初始化或迫零算法得到用户的预编码矩阵V的初始值;

步骤602,根据预编码矩阵V计算该用户的MMSE最小化均方误差接收机矩阵U以及该用户的加权矩阵W:

其中,m为求和变量,下标m和k均表示用户序号,1≤k≤K,K为用户总数,I为单位矩阵,H表示系数还原后的下行信道矩阵 ,E为用户的均方误差矩阵,上标H表示矩阵的共轭转置,Tr为矩阵的迹,上标‑1表示对矩阵求逆;

步骤603,根据步骤602求得的U和W,依据下式更新V的值:其中,m为求和变量,下标m和k均表示用户序号, 为用户的权重;

步骤604,以迭代方式重复步骤602和603,直至V收敛,得到相应用户的预编码矩阵,完成下行信道的预编码。

说明书 :

一种基于深度学习信道预测的预编码方法

技术领域

[0001] 本发明涉及信道预编码技术领域,具体为一种基于深度学习信道预测的预编码方法。

背景技术

[0002] 大多数对于波束赋形方法的科学研究都是基于一个基本前提条件,即拥有精确和完整的下行信道。然而在实际系统中,由于通常无法获得完美的下行信道状态信息
(Channel State Information,CSI),所以实际的波束赋形算法是基于估计的CSI进行计算
的。特别是在频分双工(Frequency‑Division Duplexing,FDD)系统中,需要将完整的下行
信道CSI发送回基站(Base Station,BS),从而面临着大量的通信开销和时间延迟,这是5G 
FDD系统实时通信的一个重大挑战。为此,越来越多的研究者开始研究如何利用有限的信息
来预测下行信道并进行预编码。
[0003] 通过将降噪卷积神经网络(Denoising Convolutional Neural Network)与信号恢复算法相结合,He等人于2018年提出了一种基于降噪的近似消息传递网络,该网络可以
利用部分射频链信息取得良好的性能。Soltani等人于2019年提出了ChannelNet,其将衰落
信道的时频响应视为一个二维图像,并应用超分辨率和图像恢复(IR)算法根据部分已知导
频值获得完整的CSI信息。然而这些信道预测方法通常关注于预测信道响应值中的未知部
分,这意味着仍然存在发送下行信道的主要部分而导致的时间延迟。与上述方法不同,
Arnold等人于2019发表了论文“Enabling FDD Massive MIMO through Deep Learning‑
based Channel Prediction”(以下简称Arnold2019),其通过深度神经网络以实现在SISO
和MIMO场景中仅仅利用上行CSI来估计下行CSI,从而克服FDD大规模MIMO需要大量信道反
馈的限制。而通过神经网络来对信道进行预测,可以不需要任何先验知识的储备。
[0004] 然而,当前技术方法在信道预测问题上有两个方面的技术缺陷和不足:
[0005] 1)信道系数的较大差异使得网络难以快速稳定得训练和收敛;
[0006] 2)需要构建更直观的信道预测和预编码之间的问题关联。

发明内容

[0007] 本发明的目的在于针对现有技术的不足,提供一种基于深度学习信道预测的预编码方法。该方法利用上下行信道数据集,构建深度学习模型,从而利用有限的上行信道信息
对下行信道进行预测和预编码。
[0008] 本发明的目的是通过以下技术方案来实现的:
[0009] 一种基于深度学习信道预测的预编码方法,包括以下步骤:
[0010] 步骤1,采样并生成信道的原始数据集,对原始数据集中上行信道的原始矩阵和下行信道的原始矩阵均进行F范数数据预处理以及相位旋转处理,得到上行信道矩阵和下行
信道矩阵;
[0011] 步骤2,构建神经网络模型,设定NR为接收端天线数量,NT为发射端天线的数量,以大小为(NR,NT)的上行信道的相关矩阵作为神经网络模型的输入,并以大小为(NR,NT)的下
行信道的相关矩阵作为神经网络模型的输出;
[0012] 步骤3,以真实下行信道的相关矩阵作为标签,定义损失函数L:
[0013]
[0014] 其中,上标H表示矩阵的共轭转置, 为真实的下行信道矩阵,HDL为神经网络模型预测输出的下行信道矩阵, 为 的相关矩阵, 为HDL的相关矩阵,|| |
|F为F范数;
[0015] 步骤4,利用反向传播对神经网络模型进行参数更新,参数的更新方式如下:
[0016]
[0017] 其中,w为神经网络模型的参数,α为学习率, 为损失函数L对w的导数;
[0018] 重复该步骤直到损失函数收敛,得到训练完成的神经网络模型;
[0019] 步骤5,通过训练完成的神经网络模型预测下行信道矩阵,然后利用下式将其系数还原:
[0020]
[0021] 式中, 为系数还原后的下行信道矩阵,HUL为上行信道矩阵;
[0022] 步骤6,将系数还原后的下行信道矩阵 代入到WMMSE最小化加权均方误差预编码算法中,对预编码矩阵进行迭代计算,直至其收敛,得到最终的预编码矩阵,完成下行信
道的预编码。
[0023] 进一步的,步骤1中F范数数据预处理的具体方式为:
[0024]
[0025] 式中,H″为原始矩阵,H′为经过F范数数据预处理后的矩阵。
[0026] 进一步的,步骤1中相位旋转处理的具体方式为:
[0027] Hd=H′./H′P   (1,1)
[0028] 式中,H′为经过F范数数据预处理后的矩阵,H′P(1,1)表示H′中第一行第一列元素所对应的相位角,./运算符表示将运算符之前矩阵中的每一个元素都除以运算符之后的
d
值,H表示处理后的矩阵。
[0029] 进一步的,步骤6的具体方式为:
[0030] 步骤601,采用随机初始化或迫零算法得到用户的预编码矩阵V的初始值;
[0031] 步骤602,根据预编码矩阵V计算该用户的MMSE最小化均方误差接收机矩阵U以及该用户的加权矩阵W:
[0032]
[0033]
[0034] 其中,m为求和变量,下标m和k均表示用户序号,1≤k≤K,K为用户总数,I为单位矩阵,H表示系数还原后的下行信道矩阵 E为用户的均方误差矩阵,上标H表示矩阵的共
轭转置,Tr为矩阵的迹,上标‑1表示对矩阵求逆;
[0035] 步骤603,根据步骤602求得的U和W,依据下式更新V的值:
[0036]
[0037] 其中,m为求和变量,下标m和k均表示用户序号,α为用户的权重;
[0038] 步骤604,以迭代方式重复步骤602和603,直至V收敛,得到相应用户的预编码矩阵,完成下行信道的预编码。
[0039] 本发明的有益效果在于:
[0040] 1、通过使用本发明中所提供的方法,可以缓解信道数据尺度差异的问题。
[0041] 2、在实际场景下,利用预测得到的预编码矩阵计算出的信道容量性能要远优于现有论文Arnold2019,也就意味着本发明在性能有所保证的同时可以避免信息反馈而导致的
时间延迟。

附图说明

[0042] 图1是本发明一个实施例的网络结构图;
[0043] 图2是本发明一个实施例的具体实施流程图;
[0044] 图3是本发明一个实施例与Arnold2019在理想信道容量上的性能对比图。

具体实施方式

[0045] 下面结合附图和具体实施方式对本发明的技术方案和效果进行详细描述。
[0046] 一种基于深度学习信道预测的预编码方法,包括以下步骤:
[0047] 步骤1,采样并生成信道的原始数据集,对原始数据集中上行信道的原始矩阵和下行信道的原始矩阵均进行F范数数据预处理以及相位旋转处理,得到上行信道矩阵和下行
信道矩阵;
[0048] 步骤2,构建神经网络模型,设定NR为接收端天线数量,NT为发射端天线的数量,以大小为(NR,NT)的上行信道的相关矩阵作为神经网络模型的输入,并以大小为(NR,NT)的下
行信道的相关矩阵作为神经网络模型的输出;
[0049] 步骤3,以真实下行信道的相关矩阵作为标签,定义损失函数L:
[0050]
[0051] 其中,上标H表示矩阵的共轭转置, 为真实的下行信道矩阵,HDL为神经网络模型预测输出的下行信道矩阵, 为 的相关矩阵, 为HDL的相关矩阵,|| |
|F为F范数;
[0052] 步骤4,利用反向传播对神经网络模型进行参数更新,参数的更新方式如下:
[0053]
[0054] 其中,w为神经网络模型的参数,α为学习率, 为损失函数L对w的导数;
[0055] 重复该步骤直到损失函数收敛,得到训练完成的神经网络模型;
[0056] 步骤5,通过训练完成的神经网络模型预测下行信道矩阵,然后利用下式将其系数还原:
[0057]
[0058] 式中, 为系数还原后的下行信道矩阵,HUL为上行信道矩阵;
[0059] 步骤6,将系数还原后的下行信道矩阵 代入到WMMSE最小化加权均方误差预编码算法中,对预编码矩阵进行迭代计算,直至其收敛,得到最终的预编码矩阵,完成下行信
道的预编码。
[0060] 进一步的,步骤1中F范数数据预处理的具体方式为:
[0061]
[0062] 式中,H″为原始矩阵,H′为经过F范数数据预处理后的矩阵。
[0063] 进一步的,步骤1中相位旋转处理的具体方式为:
[0064] Hd=H′./H′P   (1,1)
[0065] 式中,H′为经过F范数数据预处理后的矩阵,H′P(1,1)表示H′中第一行第一列元素所对应的相位角,./运算符表示将运算符之前矩阵中的每一个元素都除以运算符之后的
d
值,H表示处理后的矩阵。
[0066] 进一步的,步骤6的具体方式为:
[0067] 步骤601,采用随机初始化或迫零算法得到用户的预编码矩阵V的初始值;
[0068] 步骤602,根据预编码矩阵V计算该用户的MMSE最小化均方误差接收机矩阵U以及该用户的加权矩阵W:
[0069]
[0070]
[0071] 其中,m为求和变量,下标m和k均表示用户序号,1≤k≤K,K为用户总数,I为单位矩阵,H表示系数还原后的下行信道矩阵 E为用户的均方误差矩阵,上标H表示矩阵的共
轭转置,Tr为矩阵的迹,上标‑1表示对矩阵求逆;
[0072] 步骤603,根据步骤602求得的U和W,依据下式更新V的值:
[0073]
[0074] 其中,m为求和变量,下标m和k均表示用户序号,α为用户的权重;
[0075] 步骤604,以迭代方式重复步骤602和603,直至V收敛,得到相应用户的预编码矩阵,完成下行信道的预编码。
[0076] 本方法能实现利用有限的上行信道信息对下行信道进行预编码,从而避免大量的通信开销和时间延迟。
[0077] 如图1所示为在NR=2,NT=32情况下的一个具体的网络结构,其中考虑到输入上行信道复数矩阵,因而将其视为图像的两通道;Conv2D对应二维卷积操作,用以提取上行信道
的特征信息;Batch Normalization为批标准化,用以确保每一层神经网络的输入保持相同
分布;Relu为本模型所选取的激活函数。网络最终的输出维度同输入一致,均为(NR,NT,2)。
[0078] 图2所示为一个具体的下行信道推断方法,其包括以下步骤:
[0079] 第一步,对原始数据集进行F范数数据预处理和相位旋转处理:
[0080] 给定上行信道HUL和下行信道HDL,特别是当下行载波fDL与上行载波fUL之间的频带间隔,即Δf=fDL‑fUL变大时,需要采用F范数标准化来应对数据尺度上的影响。
[0081] 此外,为避免信道相位旋转的影响,还需要对信道进行旋转,以确保首位元素为实数。
[0082] 第二步,构建神经网络(Neural Network,NN)的输入输出方案。
[0083] 采用大小为(NR,NT)的上行信道HUL作为模型输入,将大小为(NR,NT)的下行信道HDL作为模型输出(其中NT为发射端天线的数量,NR为接收端天线数量)。
[0084] 第三步,以真实下行信道的相关矩阵作为标签,采用CME(Correlation Matrix Error,相关矩阵误差)定义损失函数。
[0085] 第四步,利用反向传播对所设计的网络模型进行参数更新,直到损失函数收敛。
[0086] 第五步,通过训练完成的网络模型预测下行信道矩阵HDL,并将其系数还原。
[0087] 第六步,将还原后的下行信道HDL代入到预编码算法WMMSE(WeightedMinimum Mean Squared Error,最小化加权均方误差)中,对预编码矩阵Vk进行迭代计算,直至收敛,得到
最终的预编码矩阵,完成下行信道的预编码。
[0088] 图3是本方法与Arnold2019的效果比较。比较结果分析如下:
[0089] 图3(a)给出了测试的四个实验场景,主要关注频带间隔,采样范围,以及信道模型的差异。
[0090] 图3(b)给出了本方法在上述四个场景中与Arnold2019在理想信道容量上的对比。可以发现,在采用F范数标准化,并以CME作为损失函数的情况下,本方法在所有场景的性能
都要优于Arnold2019算法,尤其是随着实验场景的复杂化(例如频带间隔Δf增加,采样距
离范围变大),本方法的性能优势更为显著。这是因为,本方法中的F范数标准化能缓解信道
尺度的影响,CME则能使得预测信道更关注于特征向量信息。
[0091] 需要说明的是,本发明不仅局限于上述具体实施方式,本领域一般技术人员根据本发明公开的内容,可以采用其它多种具体实施方案实施本发明。因此,凡是采用本发明的
设计结构和思路,做一些简单的变化或更改的设计,都落入本发明保护范围。