郑爱媛
(福建商学院信息工程系, 福州 350012)
近年来,随着大数据和云计算技术的部署应用,网络流量规模[1]呈现出指数级增长趋势。为了顺应对数据流风暴管理的需求,对网络架构做出合理规划是必要的。缘于传统网络协议在应对随机突发数据流量重载风险时,往往采取最短路由策略来实施突发载荷的分流管理,却忽视了突发载荷自身对带宽的实际需求。为了改善传统网络搜寻最短路由的固定模式,虽有相关多径算法进行了部署,使传统网络在面对突发载荷时支持多径选择,但变幻莫测的大数据流规模在网络承载中引发的参数多变[2]情形,却是这些算法无法掌控的。为此,一种能够满足突发数据流对网络性能要求的数据中心网络得以部署。该网络所采用的多层次胖树体系架构自上而下依次分为核心层、聚合层、接入层、主机层。其中后三者可形成一定规模不同数量的集群。对于每个集群而言,其聚合层中的交换机向上可连至核心层的某些交换机,向下可连接本集群内的所有交换机。从而形成了任意一个集群与核心层交换机互联互通的局面。此种以信息为中心的网络布局演变在很大程度上有助于数据流多径承载的实施。
同时,传统网络[3]在部署网元时将控制和转发功能集网元于一体的做法在很大程度上增加了硬件的开销代价,尤其在面对突发数据流风暴情形时,往往因设备计算资源的耗竭而无法实时响应数据流的局向计算请求,这势必导致业务失效等风险的产生。相比之下,主张控制转发解耦设计的软件定义网络架构,部署在全网中能够良好地降低系统在处理突发数据流计算请求期间对硬件资源的偏好。从逻辑层次上,软件定义网络结构从下到上依次为:包含交换机在内的大量网元组成的转发层、用于实施数据流局向策略计算的控制层、以及用于部署大量功能的网络应用层。其中,控制层中的监听模块可通过南向接口搜集到承载了突发数据流载荷的网络实时参量,包含数据流特性、拓扑等。所以,将控制转发解耦设计的软件定义网络结构融合到数据中心[4]网络,可显著地提升在全局视域下随机突发业务失效风险管理的效率。因此,在软件定义胖树数据中心网络架构上实施随机突发重载数据流局向风险抗毁是一个行之有效的解决方案。
当前,在软件定义胖树数据中心网络架构上开展风险评估的研究较多,其中主要以全局最先匹配策略[5]和等开销多径计算机制[6]为主。全局最先匹配策略的计算过程对网络开销的依赖度较低,算法在执行过程中将对网络当前轻载链路的冗余带宽和随机突发重载数据流载荷带宽展开对比,一旦遍历到符合该重载流带宽需求的选项时马上对该流实施转发。显然这种未经过多径比较筛查的选项具备较强的局部性。对于等开销多径计算机制,其核心思想是在全网中计算出具有相同的最小权值的路由集合,然后在集合的可选项中均衡该数据流载荷。但此举只能适应固定模式的数据流,当突发数据流的随机特性引发全局链路参量发生变化时,该机制在数据流载荷比例调配方面显得束手无策。显然,该机制缺乏动态适应性。
为应对突发数据流随机特性引发的重载流业务,在疏导过程中因存在局向瓶颈导致流业务失效风险的问题,本文从全局适应性角度出发提出一种全局视域下约束性载荷感知局向瓶颈风险抗毁算法。算法通过紧密结合多变的网络状态、流的随机特性,遍历全局网元局向的可用开销资源,为重载突发流规划出一条科学的局向,规避局向过程中潜在的瓶颈风险。
局向瓶颈风险抗毁方案依托软件定义胖树数据中心网络架构的优势,利用控制层的侦听模块经由南向接口[7]为转发层网元节点和局向资源依次开展分布式计算。首先,根据转发层交换网元节点内存中当前的承载度和执行转发作业的门限[8]评估出该交换网元节点的剩余可用开销资源,确保该交换转发网元足以应对随机突发重载数据流的转发,并在交换转发网元遭遇随机突发重载数据流阻塞之前提前切换至其他交换转发单元,以规避重载流在转发过程中因网元节点资源耗竭而陷入二次局向失效的风险。其次,根据转发层信息代理单元所统计的局向最大带宽和承载度评估出局向冗余带宽,以规避重载流在转发过程中遭遇链路瓶颈的二次局向失效的风险。然后,结合前两个步骤的评估结果,计算出任意两个交换转发网元节点之间的可用局向列表并形成集合。最后,对可用局向的瓶颈带宽资源进行评估,规划出具有全局自适应能力的最佳局向,从而实现抗毁随机突发重载数据流载荷在局向过程中面临的瓶颈风险[9]。
作为部署全局视域下约束性载荷感知局向瓶颈风险抗毁算法的重要平台,设计算法前需先为该软件定义胖树数据中心网络构建适宜的数学模型以便求解抗毁局向方案。根据引言部分关于网络架构的描述,本次定义一个含有4个集群[10]的软件定义胖树数据中心用于辅助算法模型的设计,具体描述如下:
令主机层的主机集合为H,转发层中的链路局向集合和交换转发网元集合为R、LE。定义局向子集和交换转发网元子集的带宽资源为B(r)、B(le)。将部署在网络中的某一条随机突发数据流的固有带宽定义为B(dfi),则部署在全网中的数据流载荷形成一个集合,记作DF=[df1,df2,df3,...dfi,dfj,...dfn]。根据上述参数可搭建交叉矩形阵列DF×R和DF×LE。阵列中的样本(dfi,r)∈(0,1)和(dfi,le)∈(0,1)表示转发层中的局向路由和交换转发网元节点是否承载过第i条随机突发数据流。
根据抗毁方案设计的第一步骤所述,算法为了避免转发层中的交换转发网元节点因处于重载状态而无法响应突发数据流转发作业,算法为交换转发网元节点赋予一个作业门限Pth来评估该网元的最大开销资源占用率。同时,转发层中的局向管理功能通过分析当前交换转发网元节点的带宽使用程度,将那些超出作业门限Pth的网元节点集合排除在外,再对其余交换转发网元节点的可用带宽资源展开计算,筛选出理想的交换转发网元节点。鉴于软件定义胖树数据中心网络上的突发数据流规模具有随机特性,故此处引入RS来表征该随机突发数据流规模的相对稳定度。当流途径转发层中的某一个交换转发网元节点时,相对稳定度符合:
RS=Mid{|(dfi,le)·B(dfi)
-Mid[(dfj,le)·B(dfj)]|}
由该式所求的参量RS值与随机突发数据流的相对稳定度呈反比关系。故,在此再定义一个调节变量θ用于动态管理交换转发网元节点面临资源耗竭的风险。当网络在实时状态下的RS值较大,该突发随机数据流规模表现出的相对稳定性较弱。此时,为了避免该交换转发网元因随机突发重载数据流的到来引发转发失效的风险,可通过动态[11]调节变量θ来适当降低Pth值;反之,通过动态调节变量θ适当增加Pth值。此调节行为可表征为:Pth(le)=1-θ·RS。
求出局向权重:
IB(r)=ψ·σ(r)·B(r)-
抗毁方案的第三步骤,是建立在一定约束条件下来实施该局向瓶颈风险的抗毁算法。首先假设软件定义胖树数据中心网络架构下的转发层中,所有的交换转发网元节点在承载随机突发数据流载荷时,输入流的规模及数量与输出流的规模及数量无任何差异[13]。即:
其次,全网中途经局向r的所有随机突发数据流载荷总带宽不得超过局向在实时状态下的最大载荷资源。也就是:
本次选择Mininet 2.2.1平台搭建软件定义4元胖树数据中心网络作为局向瓶颈风险抗毁算法的评估环境[15]。全局设立4个Pod,Pod中的交换转发网元采用Openswitch,控制单元采用Ryu。每个Pod包含4个主机、2个接入层交换机、2个聚合层交换机。核心层共4个核心交换机。同时由Iperf软件每5秒钟代为生成随机突发数据流,往返于接入层和聚合层的交换网元对,且每间隔2秒对交换网元接口进行一次流参数状态侦听[16]。接入层和聚合层网元集合中的交换资源均为300 Mbit/s,核心层的网元集合中交换资源均为1 Gbit/s,全网局向资源为100 Mbit/s。核心层网元集合到聚合层网元集合的局向最大承重度缺省为0.8,聚合层网元集合到接入层网元集合的局向最大承重度缺省为0.7,交换网元的转发作业门限缺省为0.7。随机突发数据流的重载和轻载规模分别遵循[10 Mbit/s,100 Mbit/s]和[10 Kbit/s,100 Kbit/s],且数据流规模呈指数级递增态势。
由引言可知,当前在软件定义胖树结构的数据中心网络上对随机突发数据流量载荷开展风险评估的主流思想是全局最先匹配策略和等开销多径计算机制。前者策略实施过程效率较高,摆脱了传统算法在计算复杂度简化方面的困扰,降低了算法对网络硬件的偏好程度。然而该决策仅仅收敛于当前局向的统计结果,也就是当算法第一次统计到某一条局向适合用于转发当前重载数据流时,便将该条局向视为最佳解决方案,后续将不再开展深度统计与对比。这样的收敛结果势必存在潜在的二次局向瓶颈风险。后者计算机制的思想是在筛选出的等开销局向集合中对当前重载数据流实行均衡分流,这在固定模式的网络状态下较为适用。但网中随机突发特征数据流呈现指数级增长态势,这就决定了筛选出的等开销局向集合中每一个局向的链路实时状态均为多变。然而等开销计算机制依旧以均衡分流重载数据流为目标,忽略了环境多变情形下等开销局向集合中既有链路的闲置开销资源是否足以应对计算机制为其分配的分流作业。显然,上述两种主流思想均缺乏全局视域性[17]。因此本次评估[18]拟定网元重载频率、局向时长、全局带宽使用率三个测试指标考察局向瓶颈风险抗毁算法的性能。
对随机突发重载数据流载荷实施局向,应同时克服两大瓶颈方可抗毁局向过程中面临的二次局向风险。其一,对于承载了多业务流的交换网元转发节点而言,频繁遭遇重载的处境将严重束缚该节点估算风险抗毁局向的能力。其二,对于全局网络中可用的路由集合而言,其剩余可用带宽资源因全网链路状态的实时性而有所变化,且大小不一。如果缺乏对剩余链路可用带宽资源的合理比较和评估,直接用于执行转发作业,在转发过程中极有可能陷入转发瓶颈进而降低了全局带宽使用率。未能经过科学评估的交换转发网元和路由局向,在实施载荷承载期间,局向时长总体较大。交换网元转发节点遭遇重载的频率、局向时长、全局带宽使用率分别如图1~图3所示。
(1) 重载频率
根据图1记录的数据显示,在对软件定义胖树结构的数据中心网络实施算法部署后,交换转发网元遭遇重载的频率各异,其中,最为平稳的便是本文设计的抗毁算法,而实施等开销多径计算机制下的网元呈现出最高的重载频次。这意味着等开销多径计算机制无法结合全局链路实时承载参数科学地计算出随机突发重载数据流载荷的转发局向。相对而言,全局最先匹配策略下的交换转发网元出现重载的频率有所下降。但是终究因其缺乏深度计算与对比[19]而不具备长期优势。由于突发数据流的随机特性呈现出指数级变化,当网络流量逐步饱和甚至超过算法的计算门限,三种评估方案下的重载频率基本靠近。但在未超越计算门限的前提下,本文设计的抗毁算法始终表现出相对优势。
图1 不同方案的重载频率
(2) 局向时长
算法在开展风险抗毁的局向计算之前需要先由控制层中的控制单元向转发层的信息代理模块发起代理请求,搜索全网参量并返回给控制单元。控制单元为随机突发数据流计算出一个流表项后再写入转发层交换网元内存的流表中,为该流提供转发依据。繁琐的初始化使得三种方案在应对随机突发数据流初期(即:10 Mbit/s)均消耗了较大的局向时间,如图2所示。内存中既存的流表资源足以应对不断增加的数据流(即:102Mbit/s)的转发请求,三种方案下的局向时间相对初始化阶段均有明显缩短。但在随后相当长一段时间内,三种方案的局向时长开始呈现显著的差异[20]。如:当流的数量和规模持续增至103Mbit/s,面对忙碌的网络状态,全局最先匹配策略依旧主张当前待计算的局向只要符合最短路由就马上作为转发的最佳选项。这种极具偶然性的收敛思想在应对长期指数级增长的数据流规模时,时长指标优势保持的不太明显。等开销多径计算机制主张在等权值的路由选项集合中开展多径均衡,因不适应复杂多变的数据流对载荷的动态需求,使其在局向时长方面收效甚微。相比之下,本文设计的抗毁算法因引入了重载阻塞估算机制,故表现的局向时长总体最短。
图2 不同方案的局向时长
(3) 全局带宽使用率
图3统计了全局带宽使用率在三种方案中的差异程度。当网络处于轻载,即低于10 Mbit/s时,全局充裕的闲置带宽资源未能有效地区别算法的科学性,故图中的3条曲线走势较为接近。伴随网络载荷度的增加,三种方案下的全局带宽使用率总体呈现递增趋势,同时出现算法的差异程度。当增至103Mbit/s时,全网饱和的承载度对算法产生了考验:缺乏网络实时状态感知的等开销多径计算机制终因有限的重疏导能力而无法促成良好的全局带宽使用率;最先匹配策略因坚持首次即最佳的思想,故仅在短期内具备有限的相对优势;本文设计的风险抗毁算法通过综合[21]考量全局多变的网络、节点、路由、流等状态,对可选的动态路由集合展开动态评估,最终规划出一条科学的转发局向,有效抗毁了转发过程中潜在的二次局向瓶颈风险。因此使用本文算法表现的带宽使用率最佳。
图3 不同方案的带宽使用率
综合上述三组测试方案不难得知,算法的差异性只有在全局冗余带宽资源不足以应对随机突发重载数据流转发时才得以体现。在满足系统吞吐量[22]低于算法计算门限的约束前提下,本文构思的抗毁算法在三组测试中的表现均领先于当前两种主流的风险评估算法[23]。