首页 / 专利库 / 数学与统计 / 优化算法 / 梯度下降法 / 一种采用比特级优化网络的信道信息压缩反馈方法

一种采用比特级优化网络的信道信息压缩反馈方法

阅读:1026发布:2021-02-11

专利汇可以提供一种采用比特级优化网络的信道信息压缩反馈方法专利检索,专利查询,专利分析的服务。并且本 发明 公开了一种采用比特级优化网络的信道信息压缩反馈方法,首先使用二维傅里叶变换将频域的信道矩阵转化到 角 度-时延域,然后将复数矩阵拆分成两个实数子矩阵并拼接;编码网络通过一个复合残差网络来 抽取 信道特征,并通过全连接网络压缩信道特征维度,最终通过量化器将每个实数量化为4比特二进制符号;解码网络将接收到的二进制比特流映射成实数码字,接着通过一个全连接网络来进行维度扩充,最后通过两个复合残差网络来恢复信道信息;本发明方法引入了复合残差网络,并提供了比特级优化的网络训练方法,有效改善了信道信息的压缩及恢复性能,经过训练的比特级优化的神经网络能够更高效地进行信道压缩反馈,具有明显的性能优势。,下面是一种采用比特级优化网络的信道信息压缩反馈方法专利的具体信息内容。

1.一种采用比特级优化网络的信道信息压缩反馈方法,其特征在于,包括以下步骤:
预处理步骤:
在一个正交频分复用OFDM的通信系统中,用户将不同子载波上的信道响应向量拼接成一个信道信息矩阵H;
对H依次进行零值裁剪、二维离散傅里叶变化、复数拆分操作和归一化操作得到预处理后的矩阵
编码步骤:
在用户侧,使用编码网络,通过特征提取、压缩和量化操作,将 转化成二进制比特流;
解码步骤:
在基站侧,使用解码网络,通过比特码字映射、维度恢复和信道恢复操作将接收到的比特流恢复成信道矩阵。
2.根据权利要求1所述的采用比特级优化网络的信道信息压缩反馈方法,其特征在于,具体包括如下步骤:
1)对于一个子载波数目为Nc的OFDM系统,基站配置Nt根天线,用户配置单根天线,用户侧获得完整的信道信息矩阵,记为H,其维度大小为Nt×Nc;
2)对H依次进行二维离散傅里叶变换、零值裁剪、复数拆分操作和归一化操作得到预处理后的矩阵 其中各步骤的具体操作分别为:
二维离散傅里叶变换:H1=AHB*,其中A和B分别为Nt×Nt和Nc×Nc的傅里叶矩阵,上标*表示矩阵的共轭转置,H1表示处理后的信道矩阵;
零值裁剪:对H1进行裁剪,保留H1中包含非零元素的前 列,得到裁剪后的矩阵H2;
复数拆分操作:将H2拆分成实部矩阵和虚部矩阵两部分,并在第三个维度上将此两部分拼接得到一个大小为 的三维矩阵H3;
归一化操作:对H3进行均值为0.5,最小值和最大值为别为0和1的归一化操作,得到预处理后的矩阵
3)将矩阵 输入三个级联的复合卷积,三个复合卷积大小分别为3×3×2×8、3×3×8×16和3×3×16×2,将第一个复合卷积的输入与第三个复合卷积的输出进行相加,在第一个复合卷积和第二个复合卷积后使用ELU()激活函数以及批规范化层,令x为ELU()函数输入,定义ELU()函数如下:
令x和y分别为卷积操作的输入和输出特征图,则有:
其中W和b为卷积核的参数,下标(a,b,c,d)代表卷积参数W中位置为(a,b,c,d)的元素索引,下标(i+a,j+b,c)代表卷积输入特征图x中位置为(i+a,j+b,c)的元素索引,下标d代表卷积参数b中第d个元素索引,下标(i,j,d)代表卷积输出特征图y中位置为(i,j,d)的元素索引;
5)在复合残差网络之后使用ELU()激活函数以及批规范化层,并将规范化后的特征图通过维度重构模,得到大小为 的一维特征图;
6)将该一维特征图输入一个全连接神经网络,在全连接神经网络后使用一个双曲正切函数层,令x和y分别为全连接神经网络的输入和输出特征图,则全连接神经网络输出如下式:
其中W和b表示全连接神经网络的参数,yi和bi表示y和b的第i个元素,xj表示x的第i个元素,Wi,j表示W中位置为(i,j)的元素;
7)将全连接层的输出通过一个4比特量化器将所有数值以4比特进行量化;令x和y分别为该4比特量化器的输入和输出,则有:
其中round()为取整数函数,该函数输出最接近输入的整数;最后将量化器输出值用该
4位二进制比特作为索引建立码本,将量化器的所有输出均用4比特的索引代替,形成编码网络最终的输出比特信息,并将该信息反馈给基站;
8)基站侧比特流信息解量化模块通过码本映射,将比特流信息转化成实数特征图,接着使用一个全连接神经网络将特征图恢复成维度为 的图,并通过维度重构出维度为的三维特征图,最后使用两个复合残差网络来进行信道信息恢复,其中在第二个复合残差网络之后使用逻辑斯蒂激活函数层;
9)训练开始前设置4比特量化器模块的梯度为1并随机初始化网络参数,训练过程中利用梯度下降法最小化输入编码网络的实际信道矩阵与解码网络恢复出信道矩阵之间的均方误差。
3.根据权利要求2所述的采用比特级优化网络的信道信息压缩反馈方法,其特征在于,所述步骤3)中每个复合卷积由三排并联的卷积组成,任意给定正整数m,k,n,则对于一个大小为m×m×k×n的复合卷积,其中第一排卷积由两个大小分别为1×m×k×n和m×1×n×n的卷积级联组成,每个卷积层后使用ELU()激活函数以及批规范化层;第二排卷积由两个大小分别为m×1×k×n和1×m×n×n的卷积级联组成,每个卷积层后使用ELU()激活函数以及批规范化层;第三排卷积由一个大小为m×m×k×n,卷积层后使用ELU()激活函数以及批规范化层,将三排卷积的输出特征图进行拼接,得到大小为 的特征图,对该特征图使用一个大小为1×1×3n×n的卷积,将该卷积的输出作为复合卷积的输出。
4.一种神经网络,包括编码网络和解码网络,其特征在于,所述编码网络包括依次连接的复合残差网络、维度重构模块、全连接网络和4比特量化器;所述复合残差网络由3排不同的复合卷积并联构成,复合残差网络之后还包括ELU()激活函数以及批规范化层;维度重构模块用于将输入转化为一维输出,全连接神经网络之后还包括一个双曲正切函数层,4比特量化器将所有数值以4比特进行量化;解码网络由比特流信息解量化模块、全连接神经网络模块以及两个复合残差网络模块级联组成;比特流信息解量化模块用于将比特流信息转化成实数特征图,两个复合残差网络用于进行信道信息恢复,第二个复合残差网络之后还包括逻辑斯蒂激活函数层。
5.根据权利要求4所述的神经网络,其特征在于,所述复合残差网络包括三个级联的大小分别为3×3×2×8、3×3×8×16和3×3×16×2的复合卷积,第一个复合卷积的输入与第三个复合卷积的输出进行相加,在第一个复合卷积和第二个复合卷积后使用ELU()激活函数以及批规范化层,三排卷积的输出特征拼接后利用一个卷积核进行特征压缩得到复合卷积的最终输出。
6.根据权利要求5所述的神经网络,其特征在于,每个复合卷积由三排并联的卷积组成,任意给定正整数m,k,n,则对于一个大小为m×m×k×n的复合卷积,其中第一排卷积由两个大小分别为1×m×k×n和m×1×n×n的卷积级联组成,每个卷积层后使用ELU()激活函数以及批规范化层;第二排卷积由两个大小分别为m×1×k×n和1×m×n×n的卷积级联组成,每个卷积层后使用ELU()激活函数以及批规范化层;第三排卷积由一个大小为m×m×k×n,卷积层后使用ELU()激活函数以及批规范化层,将三排卷积的输出特征图进行拼接,得到大小为 的特征图,对该特征图使用一个大小为1×1×3n×n的卷积,将该卷积的输出作为复合卷积的输出。
7.一种神经网络的构建方法,其特征在于,包括如下步骤:
1)对于一个子载波数目为Nc的OFDM系统,基站配置Nt根天线,用户配置单根天线;用户侧获得完整的信道信息矩阵,记为H,其维度大小为Nt×Nc;
2)对H依次进行二维离散傅里叶变换、零值裁剪、复数拆分操作和归一化操作得到预处理后的矩阵 其中各步骤的具体操作分别为:
二维离散傅里叶变换:H1=AHB*,其中A和B分别为Nt×Nt和Nc×Nc的傅里叶矩阵,上标*表示矩阵的共轭转置,H1表示处理后的信道矩阵;
零值裁剪:对H1进行裁剪,保留H1中包含非零元素的前 列,得到裁剪后的矩阵H2;
复数拆分操作:将H2拆分成实部矩阵和虚部矩阵两部分,并在第三个维度上将此两部分拼接得到一个大小为 的三维矩阵H3;
归一化操作:对H3进行均值为0.5,最小值和最大值为别为0和1的归一化操作,得到预处理后的矩阵
3)在用户侧构造一个编码网络,用于将信道矩阵量化成二进制比特流,编码网络包括一个复合残差网络、一个全连接网络和一个4比特量化器;
4)将三个大小分别为3×3×2×8、3×3×8×16和3×3×16×2的复合卷积进行级联,并且将第一个复合卷积的输入与第三个复合卷积的输出进行相加,在第一个复合卷积和第二个复合卷积后使用ELU()激活函数以及批规范化层;令x为ELU()函数输入,定义ELU()函数如下:
上述每个复合卷积由三排并联的卷积组成;任意给定正整数m,k,n,则对于一个大小为m×m×k×n的复合卷积,其中第一排卷积由两个大小分别为1×m×k×n和m×1×n×n的卷积级联组成,每个卷积层后使用ELU()激活函数以及批规范化层;第二排卷积由两个大小分别为m×1×k×n和1×m×n×n的卷积级联组成,每个卷积层后使用ELU()激活函数以及批规范化层;第三排卷积由一个大小为m×m×k×n,卷积层后使用ELU()激活函数以及批规范化层;将三排卷积的输出特征图进行拼接,得到大小为 的特征图,对该特征图使用一个大小为1×1×3n×n的卷积,将该卷积的输出作为复合卷积的输出;
令x和y分别为卷积操作的输入和输出特征图,则有:
其中W和b为卷积核的参数,下标(a,b,c,d)代表卷积参数W中位置为(a,b,c,d)的元素索引,下标(i+a,j+b,c)代表卷积输入特征图x中位置为(i+a,j+b,c)的元素索引,下标d代表卷积参数b中第d个元素索引,下标(i,j,d)代表卷积输出特征图y中位置为(i,j,d)的元素索引;
5)在复合残差网络之后使用ELU()激活函数以及批规范化层,并将规范化后的特征图通过维度重构模块,得到大小为 的一维特征图;
6)将该一维特征图输入一个全连接神经网络,在全连接神经网络后使用一个双曲正切函数层;令x和y分别为全连接神经网络的输入和输出特征图,则有:
其中W和b表示全连接神经网络的参数,yi和bi表示y和b的第i个元素,xj表示x的第i个元素,Wi,j表示W中位置为(i,j)的元素;
7)将全连接层的输出通过一个4比特量化器将所有数值以4比特进行量化;令x和y分别为该4比特量化器的输入和输出,则有:
其中round()为取整数函数,该函数输出最接近输入的整数;最后将量化器输出值用该
4位二进制比特作为索引建立码本,将量化器的所有输出均用4比特的索引代替,形成编码网络最终的输出比特信息,并将该信息反馈给基站;
8)在基站侧构造一个编码网络,该网络由比特流信息解量化模块、全连接神经网络模块以及两个复合残差网络模块级联组成;比特流信息解量化模块通过码本映射,将比特流信息转化成实数特征图,接着使用一个全连接神经网络将特征图恢复成维度为 的图,并通过维度重构出维度为 的三维特征图;最后使用两个复合残差网络来进行信道信息恢复,其中在第二个复合残差网络之后使用逻辑斯蒂激活函数层;
9)训练开始前设置4比特量化器模块的梯度为1并随机初始化网络参数,训练过程中利用梯度下降法最小化输入编码网络的实际信道矩阵与解码网络恢复出信道矩阵之间的均方误差;
10)将训练完成的编码网络和解码网络分别部署在用户侧和基站侧。

说明书全文

一种采用比特级优化网络的信道信息压缩反馈方法

技术领域

[0001] 本发明属于压缩感知、信道信息恢复技术领域,涉及道信息压缩反馈网络方法,具体涉及一种采用比特级优化网络的信道信息压缩反馈方法。

背景技术

[0002] 在大规模MIMO中,基站配备了大量的天线数,使得上行链路的信道信息反馈需要消耗大量资源。通常情况下,大规模MIMO的信道信息矩阵十分稀疏,对其进行高效的压缩能够很好地降低反馈的成本。而传统的基于码本的方法由于其计算和存储成本与反馈比特数呈指数关系,在信道矩阵十分庞大情况下已经无法使用;基于压缩感知的方法在反馈比特较少的情况下,很难恢复出良好的信道信息;而目前基于神经网络的压缩反馈方法在高压缩比情况下具备一定的优势,但是其尚未进行比特级的码字优化,并且所使用的卷积不能最大限度地抽取信道特征。

发明内容

[0003] 为解决上述问题,本发明公开了一种采用比特级优化网络的信道信息压缩反馈方法,设计了更高效的卷积结构,并且采用了比特级优化的网络设计,从而使得网络性能有较大提升,能够解决现有方法在信道压缩反馈问题上反馈精度较低的问题。
[0004] 为了达到上述目的,本发明提供如下技术方案:
[0005] 一种采用比特级优化网络的信道信息压缩反馈方法,包括以下步骤:
[0006] 预处理步骤:
[0007] 在一个正交频分复用OFDM的通信系统中,用户将不同子载波上的信道响应向量拼接成一个信道信息矩阵H;
[0008] 对H依次进行零值裁剪、二维离散傅里叶变化、复数拆分操作和归一化操作得到预处理后的矩阵
[0009] 编码步骤:
[0010] 在用户侧,使用编码网络,通过特征提取、压缩和量化操作,将 转化成二进制比特流;
[0011] 解码步骤:
[0012] 在基站侧,使用解码网络,通过比特码字映射、维度恢复和信道恢复操作将接收到的比特流恢复成信道矩阵。
[0013] 进一步的,具体包括如下步骤:
[0014] 1)对于一个子载波数目为Nc的OFDM系统,基站配置Nt根天线,用户配置单根天线,用户侧获得完整的信道信息矩阵,记为H,其维度大小为Nt×Nc;
[0015] 2)对H依次进行二维离散傅里叶变换、零值裁剪、复数拆分操作和归一化操作得到预处理后的矩阵 其中各步骤的具体操作分别为:
[0016] 二维离散傅里叶变换:H1=AHB*,其中A和B分别为Nt×Nt和Nc×Nc的傅里叶矩阵,上标*表示矩阵的共轭转置,H1表示处理后的信道矩阵;
[0017] 零值裁剪:对H1进行裁剪,保留H1中包含非零元素的前 列,得到裁剪后的矩阵H2;
[0018] 复数拆分操作:将H2拆分成实部矩阵和虚部矩阵两部分,并在第三个维度上将此两部分拼接得到一个大小为 的三维矩阵H3;
[0019] 归一化操作:对H3进行均值为0.5,最小值和最大值为别为0和1的归一化操作,得到预处理后的矩阵
[0020] 3)将矩阵 输入三个级联的复合卷积,三个复合卷积大小分别为3×3×2×8、3×3×8×16和3×3×16×2,将第一个复合卷积的输入与第三个复合卷积的输出进行相加,在第一个复合卷积和第二个复合卷积后使用ELU()激活函数以及批规范化层,令x为ELU()函数输入,定义ELU()函数如下:
[0021]
[0022] 令x和y分别为卷积操作的输入和输出特征图,则有:
[0023]
[0024] 其中W和b为卷积核的参数,下标(a,b,c,d)代表卷积参数W中位置为(a,b,c,d)的元素索引,下标(i+a,j+b,c)代表卷积输入特征图x中位置为(i+a,j+b,c)的元素索引,下标d代表卷积参数b中第d个元素索引,下标(i,j,d)代表卷积输出特征图y中位置为(i,j,d)的元素索引;
[0025] 5)在复合残差网络之后使用ELU()激活函数以及批规范化层,并将规范化后的特征图通过维度重构模,得到大小为 的一维特征图;
[0026] 6)将该一维特征图输入一个全连接神经网络,在全连接神经网络后使用一个双曲正切函数层,令x和y分别为全连接神经网络的输入和输出特征图,则全连接神经网络输出如下式:
[0027]
[0028] 其中W和b表示全连接神经网络的参数,yi和bi表示y和b的第i个元素,xj表示x的第i个元素,Wi,j表示W中位置为(i,j)的元素;
[0029] 7)将全连接层的输出通过一个4比特量化器将所有数值以4比特进行量化;令x和y分别为该4比特量化器的输入和输出,则有:
[0030]
[0031] 其中round()为取整数函数,该函数输出最接近输入的整数;最后将量化器输出值用该4位二进制比特作为索引建立码本,将量化器的所有输出均用4比特的索引代替,形成编码网络最终的输出比特信息,并将该信息反馈给基站;
[0032] 8)基站侧比特流信息解量化模块通过码本映射,将比特流信息转化成实数特征图,接着使用一个全连接神经网络将特征图恢复成维度为 的图,并通过维度重构出维度为 的三维特征图,最后使用两个复合残差网络来进行信道信息恢复,其中在第二个复合残差网络之后使用逻辑斯蒂激活函数层;
[0033] 9)训练开始前设置4比特量化器模块的梯度为1并随机初始化网络参数,训练过程中利用梯度下降法最小化输入编码网络的实际信道矩阵与解码网络恢复出信道矩阵之间的均方误差。
[0034] 进一步的,所述步骤3)中每个复合卷积由三排并联的卷积组成,任意给定正整数m,k,n,则对于一个大小为m×m×k×n的复合卷积,其中第一排卷积由两个大小分别为1×m×k×n和m×1×n×n的卷积级联组成,每个卷积层后使用ELU()激活函数以及批规范化层;第二排卷积由两个大小分别为m×1×k×n和1×m×n×n的卷积级联组成,每个卷积层后使用ELU()激活函数以及批规范化层;第三排卷积由一个大小为m×m×k×n,卷积层后使用ELU()激活函数以及批规范化层,将三排卷积的输出特征图进行拼接,得到大小为的特征图,对该特征图使用一个大小为1×1×3n×n的卷积,将该卷积的输出作为复合卷积的输出。
[0035] 本发明还提供了一种神经网络,包括编码网络和解码网络,所述编码网络包括依次连接的复合残差网络、维度重构模块、全连接网络和4比特量化器;所述复合残差网络由3排不同的复合卷积并联构成,复合残差网络之后还包括ELU()激活函数以及批规范化层;维度重构模块用于将输入转化为一维输出,全连接神经网络之后还包括一个双曲正切函数层,4比特量化器将所有数值以4比特进行量化;解码网络由比特流信息解量化模块、全连接神经网络模块以及两个复合残差网络模块级联组成;比特流信息解量化模块用于将比特流信息转化成实数特征图,两个复合残差网络用于进行信道信息恢复,第二个复合残差网络之后还包括逻辑斯蒂激活函数层。
[0036] 进一步的,复合残差网络包括三个级联的大小分别为3×3×2×8、3×3×8×16和3×3×16×2的复合卷积,第一个复合卷积的输入与第三个复合卷积的输出进行相加,在第一个复合卷积和第二个复合卷积后使用ELU()激活函数以及批规范化层,三排卷积的输出特征拼接后利用一个卷积核进行特征压缩得到复合卷积的最终输出。
[0037] 进一步的,每个复合卷积由三排并联的卷积组成,任意给定正整数m,k,n,则对于一个大小为m×m×k×n的复合卷积,其中第一排卷积由两个大小分别为1×m×k×n和m×1×n×n的卷积级联组成,每个卷积层后使用ELU()激活函数以及批规范化层;第二排卷积由两个大小分别为m×1×k×n和1×m×n×n的卷积级联组成,每个卷积层后使用ELU()激活函数以及批规范化层;第三排卷积由一个大小为m×m×k×n,卷积层后使用ELU()激活函数以及批规范化层,将三排卷积的输出特征图进行拼接,得到大小为 的特征图,对该特征图使用一个大小为1×1×3n×n的卷积,将该卷积的输出作为复合卷积的输出。
[0038] 本发明还提供了上述神经网络的构建方法,包括如下步骤:
[0039] 1)对于一个子载波数目为Nc的OFDM系统,基站配置Nt根天线,用户配置单根天线;用户侧获得完整的信道信息矩阵,记为H,其维度大小为Nt×Nc;
[0040] 2)对H依次进行二维离散傅里叶变换、零值裁剪、复数拆分操作和归一化操作得到预处理后的矩阵 其中各步骤的具体操作分别为:
[0041] 二维离散傅里叶变换:H1=AHB*,其中A和B分别为Nt×Nt和Nc×Nc的傅里叶矩阵,上标*表示矩阵的共轭转置,H1表示处理后的信道矩阵;
[0042] 零值裁剪:对H1进行裁剪,保留H1中包含非零元素的前 列,得到裁剪后的矩阵H2;
[0043] 复数拆分操作:将H2拆分成实部矩阵和虚部矩阵两部分,并在第三个维度上将此两部分拼接得到一个大小为 的三维矩阵H3;
[0044] 归一化操作:对H3进行均值为0.5,最小值和最大值为别为0和1的归一化操作,得到预处理后的矩阵
[0045] 3)在用户侧构造一个编码网络,用于将信道矩阵量化成二进制比特流,编码网络包括一个复合残差网络、一个全连接网络和一个4比特量化器;
[0046] 4)将三个大小分别为3×3×2×8、3×3×8×16和3×3×16×2的复合卷积进行级联,并且将第一个复合卷积的输入与第三个复合卷积的输出进行相加,在第一个复合卷积和第二个复合卷积后使用ELU()激活函数以及批规范化层;令x为ELU()函数输入,定义ELU()函数如下:
[0047]
[0048] 上述每个复合卷积由三排并联的卷积组成;任意给定正整数m,k,n,则对于一个大小为m×m×k×n的复合卷积,其中第一排卷积由两个大小分别为1×m×k×n和m×1×n×n的卷积级联组成,每个卷积层后使用ELU()激活函数以及批规范化层;第二排卷积由两个大小分别为m×1×k×n和1×m×n×n的卷积级联组成,每个卷积层后使用ELU()激活函数以及批规范化层;第三排卷积由一个大小为m×m×k×n,卷积层后使用ELU()激活函数以及批规范化层;将三排卷积的输出特征图进行拼接,得到大小为 的特征图,对该特征图使用一个大小为1×1×3n×n的卷积,将该卷积的输出作为复合卷积的输出;
[0049] 令x和y分别为卷积操作的输入和输出特征图,则有:
[0050]
[0051] 其中W和b为卷积核的参数,下标(a,b,c,d)代表卷积参数W中位置为(a,b,c,d)的元素索引,下标(i+a,j+b,c)代表卷积输入特征图x中位置为(i+a,j+b,c)的元素索引,下标d代表卷积参数b中第d个元素索引,下标(i,j,d)代表卷积输出特征图y中位置为(i,j,d)的元素索引;
[0052] 5)在复合残差网络之后使用ELU()激活函数以及批规范化层,并将规范化后的特征图通过维度重构模块,得到大小为 的一维特征图;
[0053] 6)将该一维特征图输入一个全连接神经网络,在全连接神经网络后使用一个双曲正切函数层;令x和y分别为全连接神经网络的输入和输出特征图,则有:
[0054]
[0055] 其中W和b表示全连接神经网络的参数,yi和bi表示y和b的第i个元素,xj表示x的第i个元素,Wi,j表示W中位置为(i,j)的元素;
[0056] 7)将全连接层的输出通过一个4比特量化器将所有数值以4比特进行量化;令x和y分别为该4比特量化器的输入和输出,则有:
[0057]
[0058] 其中round()为取整数函数,该函数输出最接近输入的整数;最后将量化器输出值用该4位二进制比特作为索引建立码本,将量化器的所有输出均用4比特的索引代替,形成编码网络最终的输出比特信息,并将该信息反馈给基站;
[0059] 8)在基站侧构造一个编码网络,该网络由比特流信息解量化模块、全连接神经网络模块以及两个复合残差网络模块级联组成;比特流信息解量化模块通过码本映射,将比特流信息转化成实数特征图,接着使用一个全连接神经网络将特征图恢复成维度为的图,并通过维度重构出维度为 的三维特征图;最后使用两个复合残差网络来进行信道信息恢复,其中在第二个复合残差网络之后使用逻辑斯蒂激活函数层;
[0060] 9)训练开始前设置4比特量化器模块的梯度为1并随机初始化网络参数,训练过程中利用梯度下降法最小化输入编码网络的实际信道矩阵与解码网络恢复出信道矩阵之间的均方误差;
[0061] 10)将训练完成的编码网络和解码网络分别部署在用户侧和基站侧。
[0062] 与现有技术相比,本发明具有如下优点和有益效果:
[0063] 本发明引入了复合残差网络,并提供了比特级优化的网络训练方法,有效改善了信道信息的压缩及恢复性能,经过训练的比特级优化的神经网络能够更高效地进行信道压缩反馈,具有明显的性能优势。本发明原理和实现方法简单,计算复杂度低,易于应用。附图说明
[0064] 图1为本发明方法的神经网络框图
[0065] 图2为复合卷积模块框图。
[0066] 图3为在COST2100室内信道条件下,传统神经网络CsiNet和本发明的性能表现示意图。
[0067] 图4为在COST2100室外信道条件下,传统神经网络CsiNet和本发明的性能表现示意图。

具体实施方式

[0068] 以下将结合具体实施例对本发明提供的技术方案进行详细说明,应理解下述具体实施方式仅用于说明本发明而不用于限制本发明的范围。
[0069] 本发明方法基于如图1所示的神经网络架构实现,该网络由编码网络和解码网络组成,其中编码网络将信道矩阵量化成比特信息流,解码网络根据反馈得到的比特信息流恢复出原始信道矩阵。编码网络包括一个复合残差网络、一个维度重构模块、一个全连接网络和一个4比特量化器。如图2所示,复合残差网络由3排不同的复合卷积并联构成,三排卷积的输出特征拼接后利用一个卷积核进行特征压缩得到复合卷积的最终输出(复合残差网络的具体结构在构建方法步骤4)中有详细说明)。复合残差网络之后还有ELU()激活函数,并且使用规范化层用于保持网络的稳定性和鲁棒性,维度重构模块用于将输入转化为一维输出,全连接神经网络之后还包括一个双曲正切函数层,将输出幅度限制在(-1,1)之间,4比特量化器将所有数值以4比特进行量化。解码网络由比特流信息解量化模块、全连接神经网络模块以及两个复合残差网络模块级联组成。比特流信息解量化模块用于将比特流信息转化成实数特征图,两个复合残差网络用于进行信道信息恢复,第二个复合残差网络之后还包括逻辑斯蒂激活函数层,将输出幅度限制在(0,1)之间。
[0070] 本发明提供的神经网络的构建方法,包括如下步骤:
[0071] 1)对于一个子载波数目为Nc的OFDM系统,基站配置Nt根天线,用户配置单根天线。用户侧获得完整的信道信息矩阵,记为H,其维度大小为Nt×Nc;
[0072] 2)对H依次进行二维离散傅里叶变换、零值裁剪、复数拆分操作和归一化操作得到预处理后的矩阵 其中各步骤的具体操作分别为:
[0073] 二维离散傅里叶变换:H1=AHB*,其中A和B分别为Nt×Nt和Nc×Nc的傅里叶矩阵,上标*表示矩阵的共轭转置,H1表示处理后的信道矩阵;
[0074] 零值裁剪:对H1进行裁剪,保留H1中包含非零元素的前 列,得到裁剪后的矩阵H2;
[0075] 复数拆分操作:将H2拆分成实部矩阵和虚部矩阵两部分,并在第三个维度上将此两部分拼接得到一个大小为 的三维矩阵H3;
[0076] 归一化操作:对H3进行均值为0.5,最小值和最大值为别为0和1的归一化操作,得到预处理后的矩阵
[0077] 3)在用户侧构造一个编码网络,用于将信道矩阵量化成二进制比特流。编码网络由一个复合残差网络、一个全连接网络和一个4比特量化器组成;
[0078] 4)将三个大小分别为3×3×2×8、3×3×8×16和3×3×16×2的复合卷积进行级联,并且将第一个复合卷积的输入与第三个复合卷积的输出进行相加,在第一个复合卷积和第二个复合卷积后使用ELU()激活函数以及批规范化层。令x为ELU()函数输入,定义ELU()函数如下:
[0079]
[0080] 上述每个复合卷积由三排并联的卷积组成。任意给定正整数m,k,n,则对于一个大小为m×m×k×n的复合卷积,其中第一排卷积由两个大小分别为1×m×k×n和m×1×n×n的卷积级联组成,每个卷积层后使用ELU()激活函数以及批规范化层;第二排卷积由两个大小分别为m×1×k×n和1×m×n×n的卷积级联组成,每个卷积层后使用ELU()激活函数以及批规范化层;第三排卷积由一个大小为m×m×k×n,卷积层后使用ELU()激活函数以及批规范化层。将三排卷积的输出特征图进行拼接,得到大小为 的特征图,对该特征图使用一个大小为1×1×3n×n的卷积,将该卷积的输出作为复合卷积的输出。
[0081] 令x和y分别为卷积操作的输入和输出特征图,则有:
[0082]
[0083] 其中W和b为卷积核的参数,下标(a,b,c,d)代表卷积参数W中位置为(a,b,c,d)的元素索引,下标(i+a,j+b,c)代表卷积输入特征图x中位置为(i+a,j+b,c)的元素索引,下标d代表卷积参数b中第d个元素索引,下标(i,j,d)代表卷积输出特征图y中位置为(i,j,d)的元素索引;
[0084] 5)在复合残差网络之后使用ELU()激活函数以及批规范化层,并将规范化后的特征图通过维度重构模块,得到大小为 的一维特征图;
[0085] 6)将该一维特征图输入一个全连接神经网络,在全连接神经网络后使用一个双曲正切函数层。令x和y分别为全连接神经网络的输入和输出特征图,则有:
[0086]
[0087] 其中W和b表示全连接神经网络的参数,yi和bi表示y和b的第i个元素,xj表示x的第i个元素,Wi,j表示W中位置为(i,j)的元素;
[0088] 7)将全连接层的输出通过一个4比特量化器将所有数值以4比特进行量化。令x和y分别为该4比特量化器的输入和输出,则有:
[0089]
[0090] 其中round()为取整数函数,该函数输出最接近输入的整数。最后将量化器输出值用该4位二进制比特作为索引建立码本,将量化器的所有输出均用4比特的索引代替,形成编码网络最终的输出比特信息,并将该信息反馈给基站;
[0091] 8)在基站侧构造一个编码网络,该网络由比特流信息解量化模块、全连接神经网络模块以及两个复合残差网络模块级联组成。比特流信息解量化模块通过码本映射,将比特流信息转化成实数特征图,接着使用一个全连接神经网络将特征图恢复成维度为的图,并通过维度重构出维度为 的三维特征图。最后使用两个复合残差网络来进行信道信息恢复,其中在第二个复合残差网络之后使用逻辑斯蒂激活函数层;
[0092] 9)训练开始前设置4比特量化器模块的梯度为1并随机初始化网络参数,训练过程中利用梯度下降法最小化输入编码网络的实际信道矩阵与解码网络恢复出信道矩阵之间的均方误差;
[0093] 10)将训练完成的编码网络和解码网络分别部署在用户侧和基站侧;
[0094] 部署好网络之后,即可实现本发明提供的采用比特级优化网络的信道信息压缩反馈方法,具体包括:
[0095] 预处理步骤:首先使用二维傅里叶变换将频域的信道矩阵转化到度-时延域,然后将复数矩阵拆分成两个实数子矩阵并拼接。具体同上述构建方法中的步骤1)和步骤2)。
[0096] 编码步骤:在用户侧,使用编码网络,通过特征提取、压缩和量化操作,将 转化成二进制比特流;
[0097] 解码步骤:在基站侧,使用解码网络,通过比特码字映射、维度恢复和信道恢复操作将接收到的比特流恢复成信道矩阵;
[0098] 其中,编码步骤包括:通过一个复合残差网络来抽取信道特征,并通过全连接网络压缩信道特征维度,最终通过量化器将每个实数量化为4比特二进制符号。具体步骤同上述构建方法中的步骤4)-步骤7)。
[0099] 解码步骤包括:首先将接收到的二进制比特流映射成实数码字,接着通过一个全连接网络来进行维度扩充,最后通过两个复合残差网络来恢复信道信息。具体步骤同上述构建方法中的步骤8)和步骤9)中除构建解码网络以外的部分。
[0100] 图3和图4分别为在COST2100室内、外信道条件下,传统神经网络CsiNet和本发明的性能表现,很显然,本发明方法在不同的压缩比特下相较于不进行比特级优化的CsiNet方法有明显的性能增益。
[0101] 本发明方案所公开的技术手段不仅限于上述实施方式所公开的技术手段,还包括由以上技术特征任意组合所组成的技术方案。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也视为本发明的保护范围。
高效检索全球专利

专利汇是专利免费检索,专利查询,专利分析-国家发明专利查询检索分析平台,是提供专利分析,专利查询,专利检索等数据服务功能的知识产权数据服务商。

我们的产品包含105个国家的1.26亿组数据,免费查、免费专利分析。

申请试用

分析报告

专利汇分析报告产品可以对行业情报数据进行梳理分析,涉及维度包括行业专利基本状况分析、地域分析、技术分析、发明人分析、申请人分析、专利权人分析、失效分析、核心专利分析、法律分析、研发重点分析、企业专利处境分析、技术处境分析、专利寿命分析、企业定位分析、引证分析等超过60个分析角度,系统通过AI智能系统对图表进行解读,只需1分钟,一键生成行业专利分析报告。

申请试用

QQ群二维码
意见反馈