雷振汉
(四川大学电子信息学院,成都610065)
相控阵天线的失效阵元会破坏阵列的几何结构特性,从而产生波束指向误差,而阵元位置误差、阵元间互耦误差、阵列幅相误差在实际工程中难以避免的,这些误差会使辐射方向图副瓣电平升高,降低阵列的测角性能。设置校正源对阵列误差校正会增加系统硬件成本,为了改善相控阵天线的系统性能,波束赋形技术得到了快速发展。Capon 在1969 年提出了MVDR(最小方差无失真响应)波束形成器[1],Forst 在1972 年提出一种LCMV 算法来拓展主瓣宽度和抑制干扰[2]。Pal 等人在2010 年设计出嵌套阵列[3]来解决稀疏阵列波束形成时阵列维数较高的问题。
针对局部散射带来的快速衰落问题,Zhang 等人在2012 年提出了一类基于通用信号模型的稳健自适应波束形成算法[4],Yu 在2013 年提出了基于MRC 的MIMO雷达稳健波束形成算法[5]。近几年,深度学习在信号处理领域应用广泛,基于深度学习的阵列波束赋形研究可以学习无线信道的复杂特性,具有一定的鲁棒性和泛化能力,2018 年Alkhateeb 就将深度学习应用到毫米波系统的波束赋形中[6]。模拟波束赋形使用低成本的相移器来控制每个天线发射信号的相位,并在特定方向上形成能量集中的窄波束,毫米波系统很依赖模拟波束赋形。为了在性能损失范围内降低一定的成本,采用混合波束赋形(HBF)来减少RF 链的使用数目,文献[7]分别对数字波束赋形矩阵和模拟波束赋形矩阵优化,提出了一种基于流形的混合波束赋形优化算法。
大多数波束赋形研究通常都是在假设信道是理想状态下进行的,在实际的应用中,时变信道和量化误差总会导致发射机的信道状态信息(CSI)不完整,对波束赋形的系统稳定性造成很大影响。针对以上问题,本文结合深度学习提出了一种基于神经网络的方法来优化阵列波束并提升频谱效率。
假设有L 元等距均匀线性阵列,相邻阵元间距为d,有M 个远场窄带信源s1(t),s2(t),…,sM(t)入射到天线阵列,θi表示第i 个入射的信号,传播信号都含有零均值的加性高斯白噪声,可用N1(t),N2(t),…,NL(t)来表示。天线接收信号可表示为:
其中:
分别表示阵列接收向量、t 时刻入射的单一频率复信号向量、噪声向量、阵列流向矩阵、第i 个信号的导向向量。相控阵天线加权输出信号为:
其中W 是权值向量,可用W=[W1,W2,…,WL]T来表示。
波束赋形是一种基于天线阵列的信号预处理技术,通过调整每个阵元的加权系数,即对阵列采集到的数据进行线性组合处理,得到一个标量波束输出,使波束对准信号方向,零陷对着干扰方向,从而能增强目标信号并抑制干扰信号[8]。为了验证LCMV(线性约束最小方差)、MVDR(最小方差无畸变响应)、LMS(自适应最小均方差)算法的波束赋形能力,分别对其进行了仿真:假设一个20 元均匀线阵,远场入射角度为10°,输入信躁比SNR=10dB,快拍数为100,干燥比INR=10dB,干扰信号方向θi=[-30°,30°],其在理想条件下的LCMV 波束赋形图如图1 所示。
图1 LCMV波束赋形图
假设一个15 元均匀线阵,远场入射角度为10°,输入信躁比SNR=10dB,快拍数为512,干燥比INR=10dB,干扰信号方向为30°和60°,其在理想条件下的MVDR 波束赋形图如图2 所示。
图2 MVDR波束赋形图
假设一个16 元均匀线阵,远场入射角度为0°,输入信躁比SNR=20dB,快拍数为512,干燥比INR=20dB,其在理想条件下的LMS 波束赋形图如图3所示。
图3 LMS波束赋形图
理想的波束赋形效果指能补偿无线传播中的信号衰落与失真,实现空域匹配滤波,从而取得等于阵元数的最大阵增益,产生指向性明确的信号波束。以上几种波束赋形算法在理想情况下有相对强的干扰抑制能力,但在实际系统中,算法对噪声、波束指向误差和阵列流行误差等较为敏感,滤波性能也会随着误差的增加而削弱,研究稳健的相控阵波束赋形算法势在必行。
毫米波具有传输距离短、方向性强、多径效应弱、路径损耗严重等特点,毫米波通信的无线信道质量通常比较差[9],文献[10]提出了基于压缩感知的毫米波信道估计策略。为了解决由于天线数目增加造成的对射频链路需求过多的问题,学者们提出了将部分空间信号转移到模拟域处理的混合波束赋形技术。本文采用基于Saleh-Valenzudel 的信道模型,假设移动端和基站端之间存在N 个散射器,每一个散射器贡献一个传播路径,则离散时间窄带信道H 为:
其中αl、θl、φl分别是第l 条路径的复增益、到达方向角、离开方向角,αr(θl)和αt(φl)分别是基站端和移动端处的归一化天线阵列响应矢量,Mt和Mr分别表示发送天线数目和接收天线数目,对于在y 轴上的均匀线性阵列,其响应矢量可用下式表达:
其中k=λ/2π,λ 为信号波长,d 为相邻天线阵元的间距。
在毫米波通信系统中,波束赋形技术常常和大规模阵列天线相结合。信道估计误差和系统误差会造成信道状态信息不完整,混合波束赋形(HBF)算法的频谱效率会受到影响。
结合上述毫米波的信道模型,整个系统的频谱效率C 可用下式来表示:
其中F 是混合编码矩阵,Ns为发送端的天线数目。
基于CSINN 的相控阵天线多波束赋形方法的系统模型如图4 所示,假设系统中有一个基站(BS)和移动站(MS),并采用Saleh-Valenzudel 的毫米波信道模型,设定接收端只有一个用户和一个RF Chain(射频链)。
图4 基于CSINN的相控阵天线多波束赋形的系统模型
以往的HBF 算法大都以移相器精度足够高为前提,但移相器精度越高消耗的功率和硬件成本也会越高。在高成本、高功率的信号硬件限制和不完整的毫米波信道状态信息情景中,为了优化阵列波束并取得最大化的频谱效率,提出了一种基于信道状态信息的神经网络(CSINN)方法,训练CSINN 来学习毫米波传播信道的复杂特性,克服了单纯模拟波束赋形的硬件约束。
在训练阶段利用软件仿真生成毫米波信道样本和噪声样本,信噪比(SNR)估计值与信道估计值作为输入参数,经过训练后CSINN 将生成优化后的模拟波束赋形矢量。在实际系统测试阶段,使用与训练阶段完全相同的毫米波信道估计器,此时将不完整的CSI 作为输入参数。本文方法的CSINN 网络模型如图5所示。
图5 CSINN的网络模型图
本文所采用的阵列天线是有64 个阵元均匀线性阵,天线之间的间隔d 为,并假设RF 移相器只有量化相位,系统工作频率为28GHz,带宽为100MHz,假定有三条毫米波传输路径,1 条从发射端到接收端的直线LOS 路径和2 条经反射衰减的NLOS 路径。表1 展示了本文使用的训练集、验证集和测试集划分。
表1 数据集划分
本实验采用的是亚马逊AWS 的EC2 中的p2.xlarge 类型主机,这是一款适用于深度学习的云服务器,它的配置情况:4 核CPU、11.75ECU、12G 显存的Tesla K80 显卡、61G 内存。软件环境为集成了Anaconda、Python3、NVIDIA CUDA、Tensorflow GPU、Keras、Docker 和Jupyter Notebook 的映像,在这个平台上训练本文所提的CSINN,并得到最理想的模型。
图6 不同PNR下的SE与SNR的性能分析图
为了评估本文方法的性能,和基于流形优化的传统HBF 算法[7]进行了对比实验,实验硬件配置包括Intel Core i5 处 理 器2.6GHz 和8.00GB RAM,使 用MATLAB R2019b 绘制了实验结果图。图6 展示了在0dB、20dB 和-20dB 导频噪声功率比(PNR)下的频谱效率(SE)与信噪比(SNR)的性能。
从图6 可以看出,在不完整毫米波信道状态信息情形下,本文所提出的方法具有很大的优势,通过大量数据的多次迭代,CSINN 也在不断地学习毫米波的传播通道的特性。在SE=5bits/Hz/s 的情形时,当PNR=20dB 时,和传统HBF 算法相比,本文所提出CSINN 方法在SNR 上实现了约1.1dB 的增益,且随着PNR 值的减小,SNR 的增益也随之增大,如当PNR=-20dB 时,SNR 增益达到了7dB。
本文针对毫米波信道状态信息(CSI)部分已知的情形,提出了一种基于CSINN 的相控阵波束赋形方法。根据系统模型使用Remcom Wireless InSite 软件仿真生成信道样本集,通过CSINN 来学习毫米波复杂的信道传输特性,来完善信道状态信息并优化波束形成器,从而能取得最大化的理想频谱效率(SE),实现阵列信号处理。
仿真结果表明,本文所述方法能够接近理想的频谱效率,与基于流形优化的传统混合波束赋形算法相比,本文方法性能更优,有较强的鲁棒性,降低了复杂度,在降低硬件开销的同时提高了系统性能。毫米波频段能提供极大的频谱带宽,充分利用这些频谱资源不仅能使毫米波通信系统的信道容量得以最大化,而且也满足人们在5G 时代低延迟、高速率的通信需求。对于接下来的工作,可将本文的方法拓展到CSI 完全未知的情景中。为了充分利用空间复用增益,对支持多数据流并行传输的混合波束赋形技术的研究迫在眉睫。