基于深度学习的1-比特超大规模MIMO 信道估计*

2021-08-29 07:00蒲旭敏小珑
电子技术应用 2021年8期
关键词:导频复杂度比特

蒲旭敏 ,吴 超 ,杨 小珑

(1.重庆邮电大学 通信与信息工程学院,重庆 400065;2.重庆邮电大学 移动通信技术重庆市重点实验室,重庆 400065)

0 引言

大规模多输入多输出(Multiple Input Multiple Output,MIMO)技术是第五代(Fifth Generation,5G)移动通信的关键技术之一。随着天线阵列尺寸数量级的增加,形成了超大规模MIMO系统。通过增加天线阵列的尺寸,可以提升频谱效率、能量效率和空间分辨率等,还有望获取超高的数据速率和系统吞吐量。超大规模MIMO 技术也因此成为第六代(Sixth Generation,6G)移动通信关键技术的候选[1]。然而,大口径阵列的使用会造成不同的信道条件。当整个阵列的孔径有限并且服务相同的用户时,空间稳定性是成立的。但是,对于大孔径阵列,由于天线阵列不同区域所服务的用户不同,接收功率的级别也因此不同,这称为空间非平稳性[2]。因此,可以引入子阵列和用户可见区域(Visibility Region,VR)来描述信道非平稳性[3]。

常见的超大规模MIMO系统中存在两个严重的问题。一个是由于阵列体积较大,空间非平稳性和固有的高矩阵维数对性能和计算复杂度带来了负面影响[4];另一个是由于接收机中配备的高精度模数转换器(Analogto-Digital Converters,ADC)消耗了相当多的功率,导致硬件成本和功耗增加[5]。虽然1-比特ADC 可以显著降低功耗,但是性能较差。因此,需要在超大规模MIMO系统中利用非平稳性来描述信道模型,并采用低精度的量化方式来降低功耗,在服务大量用户时寻求性能和计算复杂度间的良好平衡。

随着计算能力的提升,深度学习方法已被广泛应用于大规模MIMO系统中,尤其是与信道估计相关的研究[6-7]。在1-比特ADC 大规模MIMO系统中,通过应用神经网络可以在相同导频数量下获得更好的信道估计性能,从而在计算复杂度和导频数量间取得折中[8-9]。然而,这些研究并没有考虑天线阵列增大时出现的信道非平稳特性。虽然文献[10]提出了子阵列和散射体两种信道估计方法来估计非平稳信道,但是并未考虑ADC 功耗问题。在此基础上,本文通过子阵列与用户之间的映射来描述非平稳信道,设计了一种新的生成式监督深度神经网络(Deep Neural Network,DNN),并对配置1-比特ADC的基站接收机子阵列开展了信道估计的相关研究。该网络可以采用较少的导频进行训练,能在使用较少导频的条件下取得良好的信道估计性能。

1 系统模型

本文考虑一个单小区超大规模MIMO 上行传输系统,如图1 所示。该基站有M 根均匀线性阵列天线,每根天线配置一对1-比特ADC,为K 个单天线用户提供服务。将基站的天线阵列均匀分成S 个不相关的子阵列,每个子阵列的天线数为N=M/S,并且每组子阵列都有用于信道估计的本地处理单元。为了保证多用户MIMO系统的效能,假定N≥K,则子阵列s 对应的第p个导频接收信号为:

图1 单小区1-比特ADC 超大规模MIMO系统架构

其中,Rk∈RM×M表示捕获空间信道相关效应的对称半正定矩阵,Dk∈{0,1}M×M是通过可见区域概念建模的包含非平稳特性的对角矩阵。

1.1 VR 建模

VR 描述了阵列中被每个用户“看见”的部分,即用户大部分能量集中的部分。特别地,本文采用了文献[4]中描述的模型,其中每个用户都有一个由两个参数识别的VR。因此,将VR的中心建模为ck~U(0,L),L 为超大规模MIMO 阵列的物理长度,VR的长度建模为lk~LN(μl,σl)。设Dk表示服 务用户k的天线数量,定义为[ck-lk,ck+lk] 所划定的物理区域内阵列天线的总和。因此,式(3)的对角矩阵Dk中有Dk个非零对角元素。本文以非平稳信道的范数小于或等于平稳信道的情况为例,在这种情况下满足

1.2 1-比特ADC 超大规模MIMO 信号分析

将式(14)代入到式(9)即得证。

引理1 为本文生成的一个监督表达式,由引理1 知道,在已知瞬时子阵列信道、导频和噪声三者功率的情况下,在每个信道相干时间间隔内发送大量导频,可以很好地估计出1-比特ADC 超大规模MIMO的子阵列信道。

2 生成式监督学习模型

如果在每个信道相干时间内,除了瞬时子阵列信道、导频和噪声三者功率外,还有许多导频,则可以很好地估计出信道。但是导频的数量过大,不但会导致导频资源匮乏,而且会带来额外的计算复杂度。所以应尽量减少导频的数量来控制带宽和功率。另外,知道瞬时子阵列信道功率也不切实际。因此,基于DNN 监督学习的思想,本文根据引理1 构造了一个生成式的监督学习模型,其目的在于充分利用DNN 泛化能力,以少量的导频得到较好的信道估计性能。

本文所提的生成式监督DNN的各层神经元数量分别为2K、4K、2K、2K、4K、2K、2NK,中间隐藏层使用Leaky ReLU 作为加快收敛的激活函数,并在每一层之间增加了批处理规范化(Batch-Normalization,BN),使网络中的数据前馈更加有效。由于这个过程是一个回归任务,因此输出层使用linear 激活函数,两层之间的权值由矩阵指定。由于现有的软件库实现的神经网络并不支持复数的操作,因此需要将复数形式导频的实部和虚部提取出来连接成一个2K×1 维实数向量。同样地,标签为2NK×1 维。

其中,M 为随机生成输出样本总数,对M 除了处理复杂度之外,没有任何限制。

值得一提的是,与传统的DNN结构相比,本文增加了两个shortcut 连接,其目的是为了减少DNN中常出现的梯度消失或梯度爆炸问题[13]。理论研究发现,神经元数量足够大的单个隐藏层可以提供与两个隐藏层相同的性能,但是单个隐藏层带来的计算复杂度却大得多[14]。为了降低计算复杂度,在每个shortcut 连接中设置了两个隐藏层。该估计模型的总体计算复杂度由训练DNN模型和从训练的DNN 中生成随机样本两部分组成。第一阶段训练神经网络产生的计算复杂度为O(NtΘ2),其中Θ=(36+4N)K2为神经网络的总共的可训练参数,平方项来自反向传播。shortcut 连接既不引入额外参数,也不引入计算复杂度。第二阶段的复杂度相对较低,来自于矩阵向量乘法。所以本文中生成式监督DNN的计算复杂度为O(NtΘ2)。

图2 本文所提的生成式监督DNN 模型结构

3 仿真结果和分析

为了验证本文所提的生成式监督DNN 模型在1-比特ADC 超大规模MIMO系统中的信道估计性能,本节进行了两组仿真实验。表1 列出了相关仿真参数,并且定义归一化均方误差(Normalized Mean Square Error,NMSE)来描述信道估计性能:

基于表1 所给参数构建子阵列信道模型,然后用Nt={8,15,25}3 种不同数量的导频来训练估计网络。在训练中,采用梯度下降和自适应学习率,通过反向传播算法寻找梯度因子,借助Adam 优化器获得初始学习率为0.001的自适应学习率。DNN 训练完成后,随机生成M=10 000 个样本并输入到训练好的DNN 模型中,对其10 000 个输出样本取平均值,得到对应子阵列的信道估计。值得注意的是,当导频数量足够大时,M的数量可以远小于10 000。

表1 仿真参数列表

图3 展示了由3 个不同导频数训练得到的生成式监督DNN的估计NMSE。从图中可以看出,随着信噪比(Signal to Noise Ratio,SNR)增加,决定模型效率的关键参数是导频数量,当导频数量较少时,信道估计的NMSE处于一个较高的状态,随着导频数量从8 增加到15 后,信道估计性能显著提升。进一步,将导频数量增加到25后,信道估计的性能没有产生太大影响。由此可以推断,在超大规模1-比特ADC系统中,发送长度为15的导频是非常合理的,能有效减少接收端的信道估计复杂度,所以使用生成式监督DNN 模型估计信道时,可以用较少的导频数量得到较好的估计性能。

图3 不同导频数量下生成式监督学习模型的NMSE 性能对比

图4 将导频数量固定Nt=15,对比了不同信道估计模型与本文提出的生成式监督DNN 模型的NMSE 性能。其中BLS 方法来自于文献[15],BLMMSE 方法来自文献[5]。从图4 中可以看出,在任何信噪比下,生成式监督DNN 模型的信道估计性能都优于BLS 和BLMMSE。此外,本文还与未使用1-比特ADC 量化的最小二乘(Least Square,LS)估计进行了对比,有趣的是,所提的信道估计方案在SNR 低于14 dB 时,性能始终优于未量化的LS 估计。

图4 不同信道估计器与生成式监督DNN 模型的NMSE 性能对比

4 结论

采用1-比特ADC 替代高分辨率ADC 可以大幅度降低接收机成本和功耗,但使用传统方法,超大规模MIMO系统基站接收机在信道估计方面会造成严重的性能损失。本文利用生成模型和多层神经网络,提出了一种用于信道估计的生成式监督DNN 模型。仿真结果表明,本文所提出的模型可以利用较少数量的导频得到较好的信道估计性能,即使存在1-比特量化的非线性损害,仍然可以实现可靠的信道估计。

猜你喜欢
导频复杂度比特
一种低复杂度的惯性/GNSS矢量深组合方法
比特币还能投资吗
比特币分裂
求图上广探树的时间复杂度
比特币一年涨135%重回5530元
基于混合遗传算法的导频优化
基于导频的OFDM信道估计技术
某雷达导51 头中心控制软件圈复杂度分析与改进
出口技术复杂度研究回顾与评述
LTE上行块状导频的信道估计研究