戴昌昊,曾贵明,梁 君,张德智
(中国运载火箭技术研究院 研究发展中心,北京 100076)
基于业务流量预测的AOS自适应帧生成算法
戴昌昊,曾贵明,梁 君,张德智
(中国运载火箭技术研究院 研究发展中心,北京 100076)
随着研究的深入,复杂空间系统业务数据流的自相似性逐渐被认识,传统的等时帧生成算法及高效率生成算法越来越难以适应空间系统业务流量的高突发性和高复杂性;基于此,提出了一种基于小波神经网络业务流量预测的自适应帧生成算法,在满足一定延时约束条件下,根据业务流量预测结果,自适应调整成帧时刻;帧复用效率相比等时帧生成算法有显著优势,同时还避免了高效率帧生成算法中存在的帧延时过长的问题。
高级在轨系统;小波神经网络;包流量预测;自适应帧生成
随着我国航天技术的飞速发展,在轨航天器越来越复杂,各分系统需要下传的遥测参数和业务数据越来越多,空间数据管理分系统上承载的业务流量飞速增长;同时,航天器执行的空间任务也越来越复杂,与之相关的业务数据流表现出高度的复杂性,具体表现为高度的突发性和自相似性[1]。
目前世界各国航天器的空间数据管理系统设计大都遵循CCSDS(consultative committee for space data system)标准体系。业务数据的下行传输多采用AOS协议标准(advanced orbiting systems AOS),该协议采用两级信道复用机制,即在包多路复用的层面实现了分系统内部多源数据流的聚合,在虚拟信道复用的层面实现了各分系统数据流的二次聚合,从而满足了航天器上各类数据的下行传输需求。以包多路复接器和虚拟信道复接器为汇聚节点,AOS协议采用树状网络结构对下行数据流进行组织。对于AOS业务数据流量模型的分析可以借鉴地面具有类似拓扑结构的计算机网络中的数据流模型。文献[2]发现了贝尔通信研究中心的地面局域网中网络流量具有自相似性。我们可以推断AOS业务流也具有类似性质。实际上,文献[3]的仿真结果表明低轨卫星网络业务流量的确具有自相似性。
由于AOS业务数据流实际表现出的高度复杂性,传统AOS系统中的等时、高效率成帧算法已难以满足航天器上各类数据的下行传输需求,其性能随着业务流量的突发性、复杂性增大而大幅下降。本文针对AOS自相似业务流量突发性引起虚拟信道调度性能下降问题,在分析现有方法的基础上,结合小波神经网络对业务数据流量的预测结果,提出了基于业务数据流量预测的自适应帧生成算法。仿真结果表明,自适应算法在帧复用效率、及平均延迟总体性能上明显优于传统的帧生成算法。
CCSDS协议体系定义的通信系统采用分层结构,自上至下分别为应用层、传输层、网络层、数据链路层和物理层。其中AOS协议位于数据链路层,链路层利用包信道复用及虚拟信道复用的方法支持多信源多用户信息高效地共用同一个物理信道[4-5]。
其中的包信道复用模块,对共用同一虚拟信道的多种数据包进行调度并分段装入固定长度的复用协议数据单元(multiplexing protocol data unit,MPDU)的数据区中,然后依次加MPDU主导头、帧主导头、帧尾,从而生成一帧。目前,在包信道复用模块中有两种常用的帧生成算法:即等时帧生成算法和高效率帧生成算法。在等时帧生成算法中,在固定间隔的时间点上将缓存中的数据包装入一帧的数据区,并发送;在高效率帧生成算法中,当到达缓存的数据包长度可以填满MPDU数据区时,才将这些数据包放入一帧的数据区,并发送。
评价帧生成算法的性能主要有两个指标:组帧延时和MPDU复用效率(MPDU复用效率是指在一个封装好的MPDU中,数据包的总长度与MPDU数据区长度之比)。等时帧生成算法可以保证组帧延时可控,但是存在复用效率均值较低的问题。高效率帧生成算法的复用效率为1,但是可能会出现由于较长时间内没有足够多的数据包到达,而使得组帧延时过长超过业务所允许的最大时延情况。
本文提出了基于业务流量预测的自适应成帧算法,如图1所示,通过小波神经网络对业务流量进行预测,根据预测结果,调整MPDU组帧时刻,从而达到在给定约束条件下的最优性能。并根据每次预测实际误差结果,修正网络参数,逐渐逼近最优预测。
图1 算法流程图
2.1 小波神经网络设计
2.1.1 拓扑结构
小波神经网络(WNN)是小波分析原理与BP神经网络结合的产物。利用小波基作为神经元节点,它综合了神经网络的学习能力以及小波变换理论在时域上的局域化性质,因此具有小波的分类特征和小波分解的性质,并且由于其引入了平移参数以及伸缩参数,使其对时间序列的预测能力以及容错性能相比传统神经网络有了较大提高。小波神经网络由于融合了小波函数,因此其可以克服传统神经网络的缺陷[6],可以显著提高网络对非平稳信号的预测能力。小波神经网络的典型拓扑结构如图2所示。
图2 小波神经网络
图中,X1,X2….Xk为小波神经网络的输入,在本文中即返向递推K个时间段内到达的数据包,由文献[3]可知AOS数据包流量呈现出一定长相关特性,因此为了准确预测数据包流量,在计算能力范围内,输入节点数应尽可能多;Y1…Yk为网络的预测输出,在本文中即下一调度周期内的预测数据包流量结果,因此输出节点数为1;输入序列信号为xi(i=1,2,…k)时,隐含层输出为:
S(j)是隐含层第j个节点的输出函数,f(j)是隐含层第j个节点的小波基函数,wij为输入层到隐含层的连接权值,wjk为隐含层到输出层的连接权值;bj为小波基函数的平移因子;aj为小波基函数的伸缩因子。
2.1.2 小波基函数选择
目前普遍应用的小波基有Harr小波、Morlet小波、Meyer小波、Gausse小波等[6]。由于Morlet小波基具有较好的计算稳定性和较强的抗干扰能力,因此被广泛应用于时间序列预测领域。本文也选取此小波基函数作为小波神经网络隐层节点的传递函数。Morlet小波基函数的数学表达式为:
2.1.3 网络参数优化迭代算法
梯度下降法是传统小波神经网络在参数优化阶段常采用的算法,但是此算法的梯度变化方向固定,参数的优化方向被限制,很难适应数据包流量随机的特点,并且由于优化方向单一,易取到局部最优解、引起振荡效应[7],遗传算法是基于自然选择和基因遗传学的随机优化搜索方法,此算法的宏观搜索能力较强,在实际应用中,找到全局最优解的概率较大,更符合包数据流高度复杂性、随机性的实际情况,用它来完成WNN的网络参数初期优化能较好的克服梯度下降法的缺点,达到更高的预测精度要求,并能提高系统的稳定性。
基于遗传算法的小波神经网络模型的参数优化分为两次:
1)一次训练
首先确定小波神经网络结构,然后用遗传算法对网络各参数进行优化,优化步骤如下:
(1)将wij、wjk、aj、bj进行实数编码并初始化.然后将交叉规模,交叉概率,突变概率,初始种群数,遗传代数等参数初始化;
(2)个体n的适应度函数f(n)为:
f(n)=1/error
其中:error为预测误差。计算每一个体的适应值并升序排列;以“轮盘赌”法选择网络个体;
(3)以交叉概率Pc交叉产生新个体;
(4)以概率Pm均匀变异产生新的个体;
(5)将新个体加入到原来的种群中,并更新所有适应值;
(6)若适应值达到预设门限值则结束,否则转回(3);
(7)将最优个体作为优化后的WNN的aj和bj。
2)二次训练
在用遗传算法对小波神经网络的连接权值和伸缩、平移尺度参数进行优化后,将通过一次优化后的参数再用梯度下降法进行第二次优化,将两次优化后得到的参数作为神经网络的优化后参数,利用此神经网络对数据包流量进行预测。梯度下降法是神经网络中较为经典算法,此处不再赘述,算法详细步骤见文献[8]。
2.2 MPDU组帧算法
组帧算法的基本思想简述如下:预测时间长度周期为T,设定可接受最大包延时tdelay=N·T,帧复用效率优化下限为ηmin。在满足包延时要求的前提下,尽量提高帧复用效率。
1)记录前K个时刻包到达数量X-(k-1),......,X-2,X-1,X0,输入小波神经网络输入端,经过迭代优化,得到下一时刻数据包流量的预测值Y;
3)判断下一时刻是否达到延时上限,若未达到,则继续等待,并进入步骤1);若达到上限进入步骤4);
文献[3]指出,AOS数据包流呈现出自相关特性,自相似数据源的模拟有多种方法[9],本文采取分形布朗运动模型模拟数据源。
仿真参数设置如下:
1)模拟数据源的自相似参数H=0.6;
2)包长度lp=128 bit,MPDU包区长度为lmp=12000*lp;
3)小波神经网路的输入节点数N=10,隐含层的节点数n=30,输出节点数为M=1,迭代误差限为10-2,最大迭代次数为200次;
4)一次训练采用遗传算法,二次训练采用梯度下降算法。
3.1 数据包流量预测仿真
采用分形布朗运动模型模拟生成的数据源如图3所示,取前500个数据点作为源包数据。第1~100个数据作为输入层节点1的输入训练数据,第2~101个数据作为输入层节点2的输入训练数据,以此类推至第10~109个数据作为输入层第10个节点的输入训练数据,来预测第11~110个时间点的数据,数据源的第11~110个数据作为实际结果与预测值比对,迭代优化网络参数,当完成这100组数据的训练后,固定网络参数。接着进行流量预测,取数据源的第300~399个数据作为输入层第1个节点的输入,第301~400个数据作为输入层第2个节点的输入,以此类推至第309~408个数据作为输入层第10个节点的输入。数据源第310~409个数据作为实际包流量数据。图4为经过训练后的小波神经网络预测结果与实际包流量的对比,从图中可以看出小波神经网络预测性能较好,绝大部分时刻的包流量预测误差都在15%以内,最大误差不超过25%。
图3 数据包流量
图4 数据包流量预测
3.2 组帧算法仿真
对于组帧算法的评价指标主要有帧复用效率η及帧生成延时tdelay。目前常用的组帧算法有等时生成算法和高效率生成算法。本文的算法在满足给定最大时延约束条件下,基于对下一时刻数据包流量的预测,达到尽可能大的帧复用效率。通过仿真验证本文提出的算法在帧复用效率和生成延时等方面比传统生成算法有较大改善。
图6为自适应帧生成算法和等时帧生成算法帧复用效率的对比,自适应帧生成算法中最大允许延时设置为4T,最小帧复用效率设置为80%。从图中可以看出等时帧生成算法的帧复用效率在40%~65%之间。自适应帧生成算法的帧复用效率在80%~100%之间,图中帧复用效率为0的时刻表示当前时刻不生成帧。前100个时刻等时帧生成算法的总复用效率为50.12%(发送的有效数据包总长/总帧长),自适应帧生成算法的总复用效率为98.28%。图4表明在满足一定延时约束条件下,自适应帧生成算法的帧复用效率明显优于等时帧生成算法。
图6 帧复用效率对比
图7为自适应帧生成算法和高效率帧生成算法帧生成延时的对比,图中浅色三角代表自适应算法的帧复用效率,浅色框代表自适应帧生成算法的帧生成时刻,深色框代表高效率帧生成算法的帧生成时刻。从图中可以看出自适应帧生成算法的最大生成时延为4T,帧复用效率大部分在80%~90%之间,最小效率不低于58%;高效率帧生成算法的最大生成时延为7T,
图7 帧生成时刻对比
自适应帧生成算法可有效解决高效率帧生成算法帧生成延时超时的问题。
本文在分析空间数据系统的基础上,对常用帧生成算法进行了改进,设计了一种基于小波神经网络AOS业务流量预测的自适应帧生成算法,该算法兼顾了帧复用效率及帧生成延时要求,比等时生成算法有更高的复用效率,且对突发数据流有更强的适应性;与高效率帧生成算法相比,具有更低且可控的延时,保证了信道的合理利用。本文的自适应帧生成算法比传统帧生成算法具有更好灵活性,对具有高突发性、高复杂性的自相似性业务流具有较好的适应性。
[1]NaZY,GaoZH,GaoQ.Performanceanalysisofself-similartrafficinLEOsatellitenetwork[A].Proc.ofthe6thInternationalConferenceonMachineLearningandCybernetics[C].2007:19-22.
[2]LelandWE,TaqquMS,BellcoreWW.Ontheself-similarnatureofEthernettraffic[J].IEEE/ACMTransactiononNetworking, 1994, 2(1): 1-15.
[3] 那振宇.卫星互联网服务质量保障方法研究[D].哈尔滨:哈尔滨工业大学,2010:38-45.
[4]ConsultativeCommitteeforSpaceDataSystem.AOSSpaceDataLinkProtocol[S].Washington,DC,USA:CCSDSPress, 2015.
[5]ConsultativeCommitteeforSpaceDataSystem.OverviewofSpacecommunicationsProtocols[S].Washington,DC,USA:CCSDSPress, 2014.
[6] 丁 勇,刘守生,胡寿松.一种广义小波神经网络的结构及其优化方法[J].控制理论与应用,2003,20(1):125-128.
[7] 李 凡.用小波神经网络预测高速公路软土地基最终沉降量[J].合肥工业大学学报,2001,24(6):1124-1127.
[8]LIST,CHENSC.Functionapproximationusingrobustwaveletneuralnetworks[A].Procofthe14thIEEEInternationalConferenceonToolswithArtificialIntelligent[C].Taiwan(China):IEEEPress, 2002. 483-488.
[9] 闫纪如.粒子群优化的神经网络在交通流预测中的应用[D].杭州:浙江工业大学,2013.
AOS Adaptive Frame Generation Algorithm Based on traffic Prediction
Dai Changhao, Zeng Guiming, Liang Jun, Zhang Dezhi
(Research and Development Center ,China Academy of Launch Vehicle Technology,Beijing 100076,China)
With the in-depth study, the self-similarity of complex spatial data system is gradually recognized. Traditional time frame generation algorithm and efficient frame generation algorithm are more and more difficult to adapt to the high burst and high complexity of space traffic. This paper presents an adaptive frame generation algorithm based on wavelet neural network traffic prediction. Under the condition of certain delay constraint, the adaptive frame generation time can be adjusted according to the prediction results of traffic flow. Compared with the time frame generation algorithm, the frame multiplexing efficiency of this algorithm has a significant advantage, and it also avoids the problem of long frame delay.
AOS; wavelet neural network; packet traffic prediction;adaptive frame generation
2016-11-03;
2016-11-28。
戴昌昊(1992-),男,陕西人,硕士研究生,主要从事测控通信系统专业方向的研究。
1671-4598(2017)04-0176-03
10.16526/j.cnki.11-4762/tp.2017.04.048
TP391
A