一种基于复数编码器混合神经网络的CSI反馈方法及系统转让专利

申请号 : CN202310504649.6

文献号 : CN116505989B

文献日 :

基本信息:

PDF:

法律信息:

相似专利:

发明人 : 潘绯赵肖宇张博达

申请人 : 四川农业大学

摘要 :

本发明公开了一种基于复数编码器混合神经网络的CSI反馈方法及系统,所述方法包括S1.对下行信道矩阵 进行二维的离散傅里叶变换,并截断前Na行非零值;S2.生成复数位置编码的信道矩阵的向量H_com;S3.构建TEncoder模块,对H_com进行训练并输出结果;S4.构建卷积神经网络En_Multi_CNN,对TEncoder模块的输出结果进行训练;S5.获取CSI反馈的Encoder部分的输出结果v;S6.构建TDecoder模块,对v进行处理;S7.构建卷积神经网络De_Multi_CNN,对TDecoder的输出结果进行卷积,经过训练得到S8.对 进行零值填充,再使用二维离散傅里叶逆变换得到CSI反馈结果 本发明有效降低了反馈开销,提高了反馈精度。

权利要求 :

1.一种基于复数编码器混合神经网络的CSI反馈方法,其特征在于:包括以下步骤:S1.接收端对来自于发射端的下行信道矩阵 进行二维的离散傅里叶变换得到H,并截断前Na行非零值,得到信道矩阵H_a;

S2.通过复数编码器对得到的信道矩阵H_a进行初步处理,生成复数位置编码的信道矩阵的向量表示为H_com;

所述步骤S2包括:

定义输入复数编码函数 ε>0,x表示为信道矩阵中的每一个复数元素,x=a+bi,其中实部和虚部分别由a、b表示,ε>0是为了防止公式分母零值的情况引入的常数;

循环记住每个元素地方位置索引,取出其实部和虚部,根据复数编码函数求得实部和虚部的线性表示的矩阵f(·),实部矩阵、虚部矩阵以及f(·)矩阵维度、形状一致,对三个矩阵进行拼接,得到矩阵其中,Nt表示发射天线数;

然后将矩阵 输入已有Transformer框架中,进行Embedding和位置编码得到一个矩阵H_com:Embedding是将离散的数据元素转换成连续的向量表示,用于表示输入序列中每个数据元素的位置信息;然后采用Transformer的位置编码函数PE对于每个数据元素的位置信息进行处理,使得每个数据元素得到一个额外的位置信息,将每个数据元素得到的额外位置信息组成一个向量,与Embedding转换得到的向量相加得到矩阵H_com;

S3.构建带多头自注意力机制、前馈全连接层归一化以及残差连接的TEncoder模块,对H_com进行训练并输出结果;

所述步骤S3包括:

根据Transformer注意力机制得到注意力结果,然后经过层归一化和残差连接之后传入前馈全连接部分,前馈全连接输出结果再进行层归一化之后,与多头自注意力机制部分输入以及第一次层归一化与残差连接的输出进行残差连接得到TEncoder模块的输出;

S4.构建双路径,不同分辨率的Encoder部分的卷积神经网络En_Multi_CNN,对TEncoder模块的输出结果进行训练;

所述步骤S4包括:

构建两个不同卷积核大小的卷积路径,其中一条卷积路径为一个大小3×3的单卷积核路径,另一条采用三个大小分别为3×3、1×9、9×1的多卷积核路径,其中每次卷积过后都使用激活函数LeakyReLU进行激活,最后对两个路径训练得到的特征图进行连接,然后经过一次全连接层,改变其维度得到En_Multi_CNN部分的输出结果;

S5.将卷积神经网络En_Multi_CNN的输出再经历一次TEncoder模块并最终得到CSI反馈的Encoder部分的输出结果v;

S6.构建带掩码的多头注意力机制、前馈全连接层归一化以及残差连接的TDecoder模块,对v进行处理,并得到结果;

所述步骤S6包括:

构建掩码多头注意力机制,根据已有的Transformer架构的掩码注意力机制计算规则得到结果,然后经过层归一化和残差连接之后传入前馈全连接部分,前馈全连接输出结果再进行层归一化之后,与掩码多头注意力机制部分输入以及第一次层归一化与残差连接的输出进行残差连接;

随即再经过一次多头注意力机制计算并得到结果,然后经过层归一化和残差连接之后传入前馈全连接部分,前馈全连接输出结果再进行层归一化之后,与掩码多头注意力机制输入以及第二次层归一化与残差连接的输出进行残差连接得到TDecoder模块的结果;

S7.构建双路径,不同分辨率的Decoder部分的卷积神经网络De_Multi_CNN,对TDecoder的输出结果进行一次卷积操作,并使用激活函数,最后经过输出复数编码函数训练得到所述步骤S7包括:

构建两个不同卷积核大小的卷积路径,其中一条卷积路径为一个大小1×5、5×1的双卷积核路径,另一条采用三个大小分别为3×3、1×9、9×1的卷积核路径,再经过多路径卷积之前先对TDecoder模块的结果进行一次5×5的卷积,其中每次卷积后仍然使用LeakyReLU激活函数;最后先对两个路径训练得到的特征图进行连接,得到De_Multi_CNN部分的输出结果,然后对其结果进行1×1卷积并经过sigmoid函数激活得到矩阵为了恢复复数元素x=a+bi的形式,根据复数编码函数 以及训练得到的矩阵 求得实部 和虚部 得到

最终得到

S8.对 进行零值填充,再使用二维离散傅里叶逆变换得到CSI反馈结果

2.根据权利要求1所述的一种基于复数编码器混合神经网络的CSI反馈方法,其特征在于:所述步骤S1包括:将下行信道 描述为:

Nt表示发射天线数,Nc表示子载波数;

根据DFT公式计算得到矩阵H:

其中DFT是指离散傅里叶变换;

截断前Na行非零值得到矩阵H_a:

3.一种基于复数编码器混合神经网络的CSI反馈系统,基于权利要求1~2中任意一项所述的方法,其特征在于:包括信息矩阵处理模块、CSI反馈的Encoder模块、Decoder模块、和CSI反馈信息恢复模块;

所述CSI信道信息矩阵处理模块:利用二维离散傅里叶变换(DFT)对下行信道信息矩阵进行变换得到H,并截断前Na行非零值,得到H_a;

所述CSI反馈的Encoder模块:利用CSI信道信息矩阵处理模块的输出结果,将H_a进行训练并压缩得到v;

所述CSI反馈的Decoder模块:通过反馈链路接受来自Encoder模块的压缩结果,然后对其进行训练并恢复得到所述CSI反馈信息恢复模块:将得到的 进行二维离散傅里叶逆变换,并对其零值填充得到

说明书 :

一种基于复数编码器混合神经网络的CSI反馈方法及系统

技术领域

[0001] 本发明涉及CSI反馈,特别是涉及一种基于复数编码器混合神经网络的CSI反馈方法及系统。

背景技术

[0002] 在无线通信系统中,BS(Base Station,基站)能够在低信噪比的情况下恢复从用户设备接收到的信息,同时为多个用户提供服务。然而,BS需要获取瞬时CSI(Channel State Information,信道状态信息)才能获得这些增益,而获得的CSI的准确性直接影响到通信系统的性能。对于上行链路,只需要用户端发送训练导频,BS就可以通过终端发送的导频来准确估计CSI,而下行链路的CSI获取很难实现,这也是在当前通信技术中需要解决的问题。
[0003] 在TDD(Time Division Duplex,时分双工)模式中,BS通过接收上行链路的训练导频进行信道估计,再利用信道互易性推断出下行链路的CSI。而在FDD(Frequency Division Duplex,频分双工)模式中存在弱互易性,这使得通过观察上行链路CSI来推断下行链路的CSI变得困难。在传统的通信系统中,FDD系统的下行链路CSI首先由用户端通过下行导频估计获取后反馈给BS,同时采用基于码本或者采用矢量量化的方法来减小反馈开销。但随着MIMO(Multiple Input Multiple Output,多输入多输出)的普及,BS和终端的天线数量增大,这大大增加了CSI矩阵的维数,使得码本的反馈量和设计复杂度也显著提升。
[0004] 为了降低反馈难度,必须设计复杂度低、精度高的反馈算法。CSI反馈技术包括基于码本的CSI反馈方法、基于CS(Compressed Sensing,压缩感知)的CSI反馈方法、基于深度学习的CSI反馈方法(CsiNet)以及其延伸出来的一系列CsiNet+算法、基于LSTM(Long Short‑Term Memory,长短期记忆网络)的CSI反馈方法(CsiNet‑LSTM)等。
[0005] 此外,还有多种基于神经网络的CSI反馈方法,包括利用卷积神经网络对信道状态信息进行特征提取,压缩反馈信息的数据量,来降低反馈成本;利用多分辨率路径,对稀疏性矩阵进行不同感受野的采样,来提高反馈精度;采用LSTM方法,利用信道信息的时序性,通过先验信息,在信道矩阵压缩时保留更多更重要的信道特征,以提升反馈精度;采用注意力机制,从全局考虑信道矩阵,关注信道矩阵各个节点的信息关联性,从而提高反馈精度。
[0006] 全卷积神经网络的单一卷积通道在处理信道状态信息时会丢失大量信道信息,造成信道矩阵特征提取的缺失。针对此问题,可以利用角域中信道矩阵的稀疏性,采用多分辨率通道来弥补此缺失。还可以使用注意力机制,例如使用Transformer架构,从全局关注信道矩阵各元素之间的关联性,从而提高反馈精度。但由于信道矩阵为复数矩阵,现有的卷积网络或者Transformer架构要么将实部和虚部分开计算,做两遍相同的处理,要么直接丢弃掉虚部,只关注实部所携带的信息。如此,可能会使得CSI反馈开销过高、时效性差,或丢失虚部携带的信道信息,反馈精度降低。

发明内容

[0007] 本发明的目的在于克服现有技术的不足,提供一种基于复数编码器混合神经网络的CSI反馈方法及系统,有效降低了反馈开销,提高了反馈精度。
[0008] 本发明的目的是通过以下技术方案来实现的:一种基于复数编码器混合神经网络的CSI反馈方法,包括以下步骤:
[0009] S1、对CIS反馈系统在接收端对来自于发射端的下行信道矩阵 进行二维离散傅里叶变换(DFT)得到H,并截断前Na行非零值,得到H_a
[0010] S2、通过输入复数编码器对得到的信道矩阵H_a进行初步处理,生成复数位置编码的信道矩阵的向量表示H_com。
[0011] S3、构建带多头自注意力机制、前馈全连接层归一化以及残差连接的TEncoder模块,对H_com进行训练并输出结果。
[0012] S4、构建双路径,不同分辨率的Encoder部分的卷积神经网络En_Multi_CNN,对TEncoder的输出结果进行训练。
[0013] S5、En_Multi_CNN的输出再经历一次TEncoder并最终得到CSI反馈系统的Encoder部分的输出结果v。
[0014] S6、构建带掩码的多头注意力机制、前馈全连接层归一化以及残差连接的TDecoder模块,对v进行处理,并得到结果。
[0015] S7、构建双路径,不同分辨率的Decoder部分的卷积神经网络De_Multi_CNN,对TDecoder的输出结果进行一次卷及操作,并使用激活函数,最后经过输出复数编码函数训练得到
[0016] S8、对 进行零值填充,再使用二维离散傅里叶逆变换(IDFT)得到CSI反馈结果[0017] 进一步,步骤S1中,对CIS反馈系统在接收端对来自于发射端的下行信道矩阵 进行二维离散傅里叶变换(DFT)得到H,并截断前Na行非零值,得到H_a,具体包括:下行信道可以描述为 Nt表示发射天线,Nc表示子载波数,根据已有的DFT公式计算得到矩阵 在H中几乎所有非
零 值都 集 中 在 前 Na 行 ,为 了 降 低 反馈 成 本 ,截 断 前N a 行 得 到 矩阵[0018] 进一步,步骤S2中,通过复数编码器对得到的信道矩阵H_a进行初步处理,生成复数编码信道矩阵的向量表示H_com,具体包括:定义输入复数编码函数
表示为信道矩阵中的每一个复数元素,x=a+bi其中部和虚
部分别由a、b表示,为了防止公式分母零值的情况引入一个较小的常数ε>0。循环记住每个元素地方位置索引,取出其实部、和虚部,根据复数编码函数求得实部和虚部的线性表示的矩阵f(·)。实部矩阵、虚部矩阵以及f(·)矩阵维度、形状一致,对三个矩阵进行拼接,得到矩阵
[0019]
[0020] 然后将 进行输入已有Transformer框架中Embedding和位置编码得到一个H_com:
[0021] Embedding是将离散的数据元素转换成连续的向量表示,用于表示输入序列中每个数据元素的位置信息;然后采用Transformer的位置编码函数PE对于每个数据元素的位置信息进行处理,使得每个数据元素得到一个额外的位置信息,将每个数据元素得到的额外位置信息组成一个向量,与Embedding转换得到的向量相加得到H_com。
[0022] 优选地,已有Transformer位置编码函数PE如下
[0023]
[0024]
[0025] 通过位置编码函数PE处理使得每个数据元素都有一个额外的位置信息,公式中pos表示每个数据元素的位置,i表示向量中是维度,计算分为sin、cos两部分对应于每个数据元素的位置,经过PE函数后得到一个向量,将这个向量加在Embedding处理得到的向量上得到一个H_com。
[0026] 进一步,步骤S3中,构建带多头自注意力机制、前馈全连接层归一化以及残差连接的TEncoder模块,对H_com进行训练并输出结果,具体包括:根据已有的Transformer注意力计算规则得到注意力结果,然后经过层归一化和残差连接之后传入前馈全连接部分,前馈全连接输出结果再进行层归一化之后,与多头自注意部分输入以及第一次层归一化与残差连接的输出进行残差连接得到TEncoder模块的输出。
[0027] 进一步,步骤S4中,构建双路径,不同分辨率的Encoder部分的卷积神经网络En_Multi_CNN,对TEncoder的输出结果进行训练,具体包括:构建两个不同卷积核大小的卷积路径,其中从一条卷积路径为一个大小3×3的单卷积核路径,另一条采用三个大小分别为3×3、1×9、9×1的多卷积核路径,其中每次卷积过后都使用激活函数LeakyReLU进行激活。最后对两个路径训练得到的特征图进行连接。然后经过一次全连接层,改变其维度得到En_Multi_CNN部分的输出结果。
[0028] 进一步,步骤S5中,En_Multi_CNN的输出再经历一次TEncoder并最终得到CSI反馈系统的Encoder部分的输出结果v,具体包括:将En_Multi_CNN的输出结果送入TEncoder,此时TEncoder的输入为En_Multi_CNN的输出,最终得到Encoder部分的输出结果v。
[0029] 进一步,步骤S6中,构建带掩码的多头注意力机制、前馈全连接、层归一化以及残差连接的TDecoder模块,对 进行处理,并得到结果,具体包括:构建掩码多头注意机制,根据已有的Transformer架构的掩码注意力计算规则得到结果,然后经过层归一化和残差连接之后传入前馈全连接部分,前馈全连接输出结果再进行层归一化之后,与掩码多头注意部分输入以及第一次层归一化与残差连接的输出进行残差连接。随即再经过一次多头自注意力机制计算并得到结果,然后经过层归一化和残差连接之后传入前馈全连接部分,前馈全连接输出结果再进行层归一化之后,与掩码多头注意部分输入以及第二次层归一化与残差连接的输出进行残差连接得到TDecoder模块的结果。
[0030] 进一步,步骤S7中,构建双路径,不同分辨率的Decoder部分的卷积神经网络De_Multi_CNN,对TDecoder的输出结果进行一次卷及操作,并使用激活函数,最后经过输出复数编码训练得到 具体包括:构建两个不同卷积核大小的卷积路径,其中从一条卷积路径为一个大小1×5、5×1的双卷积核路径,另一条采用三个大小分别为3×3、1×9、9×1的卷积核路径,再经过多路径卷积之前先对TDecoder模块的结果进行一次5×5的卷积,其中每次卷积后仍然使用LeakyReLU激活函数。最后先对两个路径训练得到的特征图进行连接。得到De_Multi_CNN部分的输出结果,然后对其结果进行1×1卷积并经过sigmoid函数激活得到矩阵 为了恢复复数元素x=a+bi的形式,根据复数编码函数
以及训练得到的矩阵 求
得实部 和虚部 得到 最终得到
[0031] 进一步,步骤S8中,对 进行零值填充,再使用二维离散傅里叶逆变换(IDFT)得到CSI反馈结果 具体包括:对得到的 是通过矩阵H截断前Na行后,在经过网络模型得到的训练结果,因此再恢复过程中对其零值填充,再使用二维离散傅里叶逆变换(IDFT)得到CSI反馈结果
[0032] 一种基于复数编码器混合神经网络的CSI反馈系统,包括接收端来自发射端的CSI信道信息矩阵处理模块、CSI反馈的Encoder模块、Decoder模块、CSI反馈信息恢复模块。
[0033] 所述CSI信道信息矩阵处理模块:利用二维离散傅里叶变换(DFT)对下行信道信息矩阵 进行变换得到H,并截断前Na行非零值,得到H_a。
[0034] 所述CSI反馈的Encoder模块:利用CSI信道信息矩阵处理模块的输出结果,将H_a进行训练并压缩得到v。
[0035] 所述CSI反馈的Decoder模块:通过反馈链路接受来自Encoder模块的压缩结果,然后对其进行训练并恢复得到
[0036] 所述CSI反馈信息恢复模块:将得到的 进行二维离散傅里叶逆变换,并对其零值填充得到
[0037] 该系统中,CSI信道信息矩阵处理模块、CSI反馈的Encoder模块、Decoder模块、CSI反馈信息恢复模块涉及到下行信道矩阵初步压缩、Encoder、Decoder、信道矩阵恢复的计算,具体过程为:
[0038] (1)下行信道矩阵初步压缩过程
[0039] 下行信道矩阵 通过二维离散傅里叶变换(DFT) 得到信道矩阵
经过傅里叶变换H在角域中呈现稀疏性,几乎所有
非零值都集中在前Na行,截断H的前Na行获得初步压缩矩阵
[0040] (2)Encoder部分计算过程
[0041] Encoder部分由复数编码、TEncoder、En_Multi_CNN组成。复数编码部分,通过输入复数函数 对输入的H_a进行处理,随后进入输入Embedding和位置编码,最后得到复数编码器部分的结果。然后将复数编码部分的结果输入TEncoder,经过多头自注意力计算得到注意力张量,然后经过第一次层归一化和残差连接;随即经过前馈层,然后经过第二次层归一化和残差连接,随即完成第一个TEncoder的计算。将第一个TEncoder的计算结果输入到En_Multi_CNN,经过En_Multi_CNN的双路径卷积计算,得到不同分辨率通道的训练结果,将两个通道的训练结果进行拼接得到En_Multi_CNN部分的输出,并将其输入到第二个TEncoder中进行计算得到压缩矩阵v。
[0042] (3)Decoder部分计算过程
[0043] Decoder由、TDecoder、De_Multi_CNN、一个单卷积、Sigmoid激活函数和输出复数编码组成。通过上行链路接受来自Encoder的压缩矩阵v,然后传给TDecoder。进入TDecoder首先进行掩码多头注意力机制进行计算得到注意力张量,然后经过第一次层归一化和残差连接;随即经过一次多头自注意力机制以及第二次层归一化和残差连接;最后经过前馈层和第三次层归一化和残差连接得到TDecoder部分计算结果,然后对结果先进行一次全连接神经网络计算改变其维度和形状,再做一次卷积操作之后得到一个高纬度的矩阵结果。然后将其传入De_Mutli_CNN双路径卷积计算,得到不同分辨率通道的训练结果,将两个通道的训练结果进行拼接得到De_Multi_CNN部分的计算结果,并将其进行一次卷积操作并使用Sigmoid激活,经过输出复数函数求得实部 和虚部 得到 最终得到
[0044] (4)信道矩阵恢复过程
[0045] 对从Decoder部分计算得到的 进行零值填充,恢复到截断前的行数,再进行一次二维离散傅里叶逆变换(IDFT)得到恢复后的信道矩阵
[0046] 本发明的有益效果是:本发明首先利用二维离散傅里叶变换(DFT)对CSI反馈矩阵进行计算,得到呈现稀疏性、非零值集中在矩阵前Na行的信道矩阵,,再对其进行截断,从而降低压缩及恢复的时间成本。复数编码混合神经网络,利用复数编码函数取出数据样本元素的实部和虚部,根据复数编码函数求得实部和虚部的线性表示的矩阵f(·),实部矩阵、虚部矩阵以及f(·)矩阵维度、形状一致,对三个矩阵进行拼接得到一个全新矩阵首先通过由多头自注意机制、前馈全连接、层归一化和残差连接的第一个TEncoder,多分辨率,双通道卷积的En_Multi_CNN以及第二个TEncoder组成的Encoder部分。再通过由掩码多头注意力机制、多头自注意力机制、前馈全连接、层归一化和残差连接的TDecoder,全连接层,单卷积,多分辨率,双通道卷积的De_Multi_CNN组成的Decoder部分,最终计算得到CSI反馈矩阵。相较于普通文本嵌入和位置编码的神经网络,复数编码混合神经网络对经过复数编码处理得到的向量进行全局关注,并由多分辨率通道对信道矩阵特征进行全面提取,然后对其进行恢复,因此复数编码混合神经网络能够降低反馈成本提高反馈精度。

附图说明

[0047] 图1为本发明的CSI反馈网络原理示意图;
[0048] 图2为复数编码器结构示意图;
[0049] 图3为En_Multi_CNN网络的结构示意图;
[0050] 图4为De_Multi_CNN网络的结构示意图。

具体实施方式

[0051] 下面结合附图进一步详细描述本发明的技术方案,但本发明的保护范围不局限于以下所述。
[0052] 在本申请的实施例中,假设在BS处Nt=32。对于FDD系统,在频域取子载波数Nc=1024。在角域中取Na=32。
[0053] 如图1所示,首先,对下行信道矩阵 进行二维离散傅里叶变换,得到在角域中呈现稀疏性的信道矩阵H,再对其前Na行截断得到截断矩阵Ha(此案例Nc=Na):
[0054]
[0055] 并将其送入Encoder部分进行编码处理。
[0056] 如图2所示,为复数编码器的原理示意图,由于数据样本元素是复数形式,一般的嵌入编码和位置编码只针对实数样本。在本申请中将复数信道矩阵元素,通过输入复数编码函数:
[0057]
[0058] 计算得到b和a+ε的夹角。循环记住每个元素地方位置索引,取出其实部、和虚部,根据复数编码函数求得实部和虚部的线性表示的矩阵f(·)。实部矩阵、虚部矩阵以及f(·)矩阵维度、形状一致,对三个矩阵进行拼接,得到矩阵 然后将 进行输入Embedding和位置编码处理得到一个H_com。
[0059] 然后将H_com作为第一个TEncoder的输入,经过第一个TEncoder内部的多头自注意力机制,得到注意力张量,为了更网络更好的收敛、更快的得到梯度,再进行一次层归一化和残差连接。然后经过前馈全连接层,最后进行第二次得到层归一化和残差连接。其中前馈全连接层由两个线性层组成,第一个线性层输出后使用激活函数Relu:
[0060]
[0061] 进行非线性处理,x表示数据样本元素。
[0062] 如图3所示,为En_Multi_CNN的结构示意图,将第一个TEncoder得到的结果作为En_Multi_CNN的输入,En_Multi_CNN由两条不同卷积个数组成的双路径卷积,两条卷积路径的结果最后经过Concat函数:
[0063] AConcat=Xi*Yi*Ci+Xj*Yj*Ci
[0064] 进行通道数拼接,Xi*Yi和Xj*Yj表示两个卷积路径的输出,Ci和Ci分别表示两个卷积路径输出结果的通道数,在通道数上进行拼接。其中每次卷积操作后都对其使用激活函数LeakyReLU:
[0065]
[0066] x表示数据样本元素,当x<0时得到一个正梯度。
[0067] 然后经过一次全连接层将其维度变为与输入第一个TEncoder的输入维度一致,作为En_Multi_CNN的输出结果。
[0068] En_Multi_CNN的输出结果作为第二个TEncoder的输入,同第一个TEncoder的操作、计算方式一致,然后得到Encoder部分的输出结果
[0069] 在本申请的实施案例中,下行信道估计和上行链路反馈是理想的,通过反馈链路在Decoder部分得到的 与Encoder的输出一致。
[0070] 在Decoder中首先经过TDecoder内部的掩码多头注意力机制并得到注意张量,然后经过多头自注意机制。为了网络的收敛,在掩码多头注意力机制和多头自注意机制后都进行层归一化和残差连接。最后经过前馈全连接层,TDecoder的前馈全连接层结构与TEncoder结构一致,在第一个线性层之后仍然使用Relu激活函数。
[0071] 为了更好的恢复压缩矩阵,将TDecoder的输出结果作为输入,先进行一次卷积操作,卷积操作之后使用LeakyReLU激活函数,然后将其传入双路径卷积De_Multi_CNN,如图4所示,为De_Multi_CNN的结构示意图,每个路径的卷积操作之后也使用LeakyReLU激活函数。最后经过一次卷积和Sigmoid激活得到 根据复数编码函数 以及训练得到的矩阵 求得实部 和虚部 得到 最终得到
[0072] 最后对 进行零值填充,再使用二维离散傅里叶逆变换(IDFT)得到CSI反馈结果[0073] 根据上述计算方法,对混合神经网络进行初始化。在本申请案例中,将130000个独立生成的信道的数据样本以10:3划分为训练集、验证集,批量大小(Batch Size)为200。复数编码器的混合神经网络的训练分为以下几个步骤:
[0074] 1、首先用训练集训练模型,利用损失函数计算损失,然后通过反向传播更新模型权重和偏置,具体过程如下:每次训练网络将读取200个数据样本作为训练数据,训练集一次训练共迭代500次。Loss函数使用MSELoss均方损失函数。在网络的不同部分使用对应的激活函数,在TEncoder和TDecoder的前馈全连接层部分使用上诉的Relu激活函数,En_Multi_CNN和De_Multi_CNN部分每次卷积操作后使用上述的LeakyReLU激活函数,网络最后一次卷积后使用Sigmoid激活函数。
[0075] 2、然后用验证集验证模型,根据验证结果,调整模型训练的过程中的超参数,例如学习率,优化器参数。
[0076] 3记录模型调整后的信息,再重复上述步骤,经过一定次数的训练后,得到训练完成的复数编码器混合神经网络,在本申请案例,训练轮数设置为500轮。经过训练后,在线的反CSI馈过程可以使用离线权重快速进行CSI反馈。在线CSI反馈与离线CSI反馈过程类似,接收端对来自于发射端的下行信道矩阵,然后对其进行二维离散傅里叶变换,截断前Na行,然后复数编码混合神经网络加载离线训练权重信息对数据进行压缩、重构得到信道信息矩阵
[0077] 尽管为了说明的目的,已描述了本发明的示例性实施方式,但是本领域的技术人员将理解,不脱离所附权利要求中公开的发明的范围和精神的情况下,可以在形式和细节上进行各种修改、添加和替换等的改变,而所有这些改变都应属于本发明所附权利要求的保护范围,并且本发明要求保护的方法中的各个步骤,可以以任意组合的形式组合在一起。因此,对本发明中所公开的实施方式的描述并非为了限制本发明的范围,而是用于描述本发明。相应地,本发明的范围不受以上实施方式的限制,而是由权利要求或其等同物进行限定。