董玉华,张俊星
(大连民族学院信息与通信工程学院,辽宁大连 116605)
修正的解相关前馈神经网络盲均衡算法研究
董玉华,张俊星
(大连民族学院信息与通信工程学院,辽宁大连 116605)
针对基于传统梯度下降算法的前馈神经网络盲均衡在输入线性相关条件下收敛速度慢的问题,提出了一种修正解相关前馈神经网络盲均衡改进算法。对接收观测数据进行解相关处理,使梯度方向保持正交,同时,设定判断阈值,如果前馈神经网络输入相关系数大于阈值,说明输入向量强相关,保持梯度更新大小和方向不变,以克服强相关输入条件下解相关算法收敛停滞的问题。计算机仿真结果表明,文中提出的算法与基于直接梯度下降算法和传统解相关前馈神经网络盲均衡算法相比具有更快的收敛速度,有效提高了均衡性能。
前馈神经网络;盲均衡;解相关;梯度下降算法
盲均衡具有不需要训练序列即可实现对信道的跟踪和补偿,消除由于信道多径时变特性在接收端引起的码间干扰的优点[1],并可防止均衡器失锁,近年来得到了众多专家和学者的关注,在理论和算法研究上取得了大量成果。而以神经网络盲均衡为代表的非线性信道盲均衡算法,可有效解决最小相位信道、非最小相位信道包括非线性信道的均衡问题,具有更好的理论研究意义和工程实用价值。前馈神经网络盲均衡算法中网络权值更新一般以梯度下降算法作为理论依据[2],根据最小均衡梯度下降算法原理可知,为保证算法的稳定收敛,要求均衡器输入向量满足线性无关特性,而实际通信系统中,经信道时延扩展往往使这一条件难以满足,从而导致算法收敛速度变慢,解相关算法可在信号输入均衡器前对信号进行预处理,使更新梯度保持正交[3],从而加快均衡器收敛。但是,传统解相关算法在输入信号相关系数求解、均衡器权值更新上均存在不足,首先,相关系数绝对值无法保证在0到1范围,这是不合理的;此外,如果输入向量强相关,那么权值迭代几乎近于停滞,从数学意义上解释,新输入信号与上次输入信号强相关,没有提供任何梯度新息,导致均衡器权值更新没有明确的梯度方向。文中针对传统解相关算法进行了修正,重新定义了相关系数,并在迭代过程中以阈值方式来控制均衡器权值的迭代更新方式,如果相关系数大于设定阈值,信号强相关,则均衡器权值按上一步梯度矢量进行更新,以防止均衡器权值更新的停滞。将该算法与前馈神经网络进行结合,构成修正的解相关前馈神经网络盲均衡算法,并利用计算机仿真对方法进行了验证。
神经网络盲均衡的基本原理如图1[4],其中x(n)为发送信号序列,发送信号序列经过未知信道h(n)并叠加高斯白噪声,在前馈神经网络盲均衡器前得到观测序列y(n),~x(n)为均衡器的输出。盲均衡技术即是仅仅依赖观测序列y(n)实现对发送信号x(n)的无失真恢复。根据信号传输理论可知
y(n)=x(n)*h(n)+n(n)。 (1)
图1 神经网络盲均衡基本原理
盲均衡的目标就是使均衡器的输出~x(n)成为发送信号x(n)的估计值,即:
其中D为一整数时延,φ为一常数相移,整数时延不影响信号的恢复质量,常数相移可以通过一判决装置去除。以三层前馈神经网络为例来说明前馈神经网络盲均衡器的结构如图2所示[5]。其中wij为输入层至隐层的连接权重,wj为隐层至输出层的连接权重,其中 i=1,2,…,m;j=1,2,…,n。
图2 三层前馈神经网络盲均衡器结构
设隐层的输入为uj(n),输出为Ij(n),输出层的输入为V(n),输出为~x(n),则根据网络的传输公式可以获得网络的状态方程为[6]
其中f(·)表示输出层的输入和输出之间的传递函数,选择传递函数为Sigmoid型函数
为了保证传递函数的单调性,要求传递函数的导函数恒大于零,这就要求调节参数β大于零。根据信号幅度的不同,选取不同的β值,信号幅度大,则选用较大的β,反之,选择较小的β。
结合常数模盲均衡算法,可以设定前馈神经网络盲均衡算法的代价函数[7]式中,Hj(k)=f'[uj(k)]wj(k)H(k)。依据上述迭代公式,就可以用前馈神经网络来进行盲均衡了。
显然,a(n)y(n-1)代表了 y(n)中与y(n-1)相关的部分,如果从y(n)中减去该部分,则这一减法运算相当于“解相关”,此时,可以用解相关的结果作为更新方向向量p(n),即
在相关系数的定义式中,可以看出,a(n)的绝对值并不能严格保证在0到1之间,而这与相关系数的定义是矛盾的,因此,这里重新定义相关系数β(n)如下:
在梯度下降算法中,要求不同时刻n的零均值输入信号向量y(n)是线性无关的,如果这一条件不满足,基于梯度下降算法的性能将明显下降,即收敛速度变慢,且跟踪性能变差,因此,在这种情况下,就需要解除各时刻输入信号向量之间的相关性,这一过程称为解相关,通过解相关处理,可使输入信号尽可能保持统计不相关,能够有效的加快梯度下降算法的收敛速度。传统解相关算法定义y(n)与y(n-1)在n时刻的相关系数为[8]
根据柯西-许瓦兹不等式易知,β(n)的绝对值必然在0到1之间。此外,如果相关系数β(n)为1,则输入信号为相干信号,如果β(n)在0到1之间,为相关信号,如果β(n)为0,那么输入信号统计独立,这样,在正交输入情况下,解相关算法与梯度下降算法是一致的。当信号强相关时,即β(n)较大时,作为更新向量的p(n)接近于0,均衡器权值更新几乎停滞,因此这里设定阈值δ,如果相关系数大于δ,那么均衡器权系数更新依据梯度算法进行,否则,利用解相关算法进行。将上述改进算法称为修正的解相关算法,经过预处理后的输入信号输入神经网络盲均衡器,更新迭代过程依然同梯度下降算法一致,在前馈神经网络盲均衡算法的迭代公式中,对应的输入y(n)修改为p(n)即可。
仿真中发送信号采用最简单二进制等概率序列,调制方式采用BPSK,加上零均值带限高斯白噪声,非线性信道的输出为[9]:
其中y(n)为信道的输出,s(n)为信道的输入,v(n)为带限高斯白噪声。神经网络模型拓扑结构为 (20,15,1),学习步长 μ =0.002,解相关判断阈值为0.6,在相同条件下对梯度下降算法(FNN)、解相关算法(DEFNN)和文中提出的修正的解相关算法(M-DEFNN)进行比较,在信噪比15dB条件下得到的均方误差收敛曲线如图3,不同条件的误码率如图4。从图3中可以看出,修正的解相关前馈神经网络盲均衡算法具有更快的收敛速度,从图4中可以看出,不同信噪比条件下,修正的解相关前馈神经网络盲均衡具有更好的误码性能。
图3 均方误差收敛曲线
图4 不同信噪比下误码率
通过将解相关算法与前馈神经网络盲均衡进行结合,有效提高了前馈神经网络盲均衡的性能,可克服在线性相关输入条件下梯度下降算法收敛速度慢的问题,经过对解相关算法进行修正,进一步保证了解相关算法的稳健性,解相关阈值条件的利用,使算法在强相关条件下依然具有较快的收敛速度。计算机仿真证明了文中提出的算法优于基于梯度下降算法和传统解相关算法的前馈神经网络盲均衡。
[1]SATO.Y.A Method of Self-recovering Equalization for Multi-level amplitude-modulation System[J].IEEE Trans on Communication,1975,COM -23,679 -682.
[2]肖瑛,刘国枝,李振兴,等.遗传优化神经网络的水声信道盲均衡[J].应用声学,2006,25(6):340-345.
[3]林海婵,欧宜贵.关于无线性搜索记忆梯度法的一个修正[J].海南大学学报自然科学版,2009,27(4):336-339.
[4]梁启联,周正,刘泽民.基于递归神经网络盲均衡算法的改进[J].北京邮电大学学报,1997,20(4):6-11.
[5]朱斌,马艳,年华.基于RLS-BP算法的复信道盲均衡技术 [J].系统仿真学报,2009,21(17):5553-5556.
[6]肖瑛,李振兴,刘国枝,等.水声通信中变步长神经网络盲均衡算法研究[J].声学技术,2005,24(3):130-136.
[7]郭莹,邱天爽,唐洪,等.脉冲噪声环境下的恒模盲均衡[J].通信学报,2009,30(4):35-40.
[8]张贤达.矩阵分析与应用[M].北京:清华大学出版社,2004.
[9]范敏毅.水声信道的仿真与应用研究[D].哈尔滨:哈尔滨工程大学,2000.
Study on Blind Equalization by FNN with Modified Decorrelation Algorithm
DONG Yu-hua,ZHANG Jun-xing
(College of Information and Communication Engineering,Dalian Nationalities University,Dalian Liaoning 116605,China)
To solve the problem of slow convergence rate in blind equalization by feedforward neural network(FNN),a modified decorrelation algorithm is proposed and combined with FNN to implement blind equalization.In the algorithm the gradient vector can keep orthogonally by decorrelating to the input signals.Meanwhile,we set a threshold value to the correlate coefficient.If the correlate coefficient of input signals of FNN is bigger than threshold value,then the updating gradient value is kept for overcoming the stagnate of decorrelation algorithm for input signals.Computer simulation shows the effectiveness of the method proposed in this paper.
feedforward neural network;blind equalization;decorrelation;gradient descent algorithm
TN911.5
A
1009-315X(2012)05-0460-03
2011-12-04;最后
2012-03-06
中央高校基本科研业务费专项资金资助项目(DC12010311);辽宁省教育厅科学技术研究项目(2010046)。
董玉华(1978-),女,辽宁大连人,讲师,主要从事通信与信号处理研究。
(责任编辑 刘敏)