云边端架构下边缘智能计算关键问题综述:计算优化与计算卸载

2024-04-11 07:29董裕民谢昌佐李子扬
电子与信息学报 2024年3期
关键词:终端设备联邦时延

董裕民 张 静 谢昌佐 李子扬*

①(中国科学院空天信息创新研究院 北京 100094)

②(中国科学院定量遥感信息技术重点实验室 北京 100094)

③(中国科学院大学电子电气与通信工程学院 北京 100049)

1 引言

随着物联网技术的飞速发展,越来越多的终端设备被接入网络。截至2022年底,我国3家基础电信企业发展蜂窝物联网用户1.8×109户,比上年增加4.5×108户[1]。伴随终端数量的急速增加,目前主流的云计算体系结构暴露出了越来越多的不足。

首先是隐私安全问题,终端设备产生了大量的隐私数据,这些数据通过网络传输到云服务器上进行处理,可能造成用户隐私的泄露[2]。其次,由于接入网络的设备数量持续高速增长,需要减轻云服务器的计算和传输压力[3]。对于时间敏感型的业务,如自动驾驶[4]、虚拟现实[5]等,若将全部数据传输至云服务器进行计算可能会带来不能接受的时延[6]。最后,数据中心及其计算服务已经成为全球能源消耗的主力之一,如果单纯使用云服务器进行集中式计算,设备端的计算资源会被严重浪费,为云服务器带来更多压力从而增加成本与碳排放[7]。

为解决上述问题,学界提出了边缘计算框架,让计算尽量靠近终端设备[8],以提供低延迟、高可靠、高安全的服务。与云计算不同,边缘计算的计算过程发生在云服务器和终端设备路径之间[9],由终端设备、边缘服务器、云服务器共同完成计算业务,边缘设备同时作为数据的提供者和使用者,参与计算并接收计算结果。

边缘服务器,是边缘计算的重要概念。这一概念出现于内容分发网络[10],起初是为了解决主干网的拥堵,负责进行常用的高访问的静态文件的缓存以便于实现附近用户请求的快速分发。该方法有效减轻了网络传输的负担[11]。随着网络技术的发展,边缘服务器的作用也从静态文件分发扩展到了各类计算服务,边缘服务器与用户(终端)地理位置相近,作为云服务器的补充为用户提供低时延的服务。

将云服务器、边缘服务器、终端设备结合起来的体系结构称为云边端架构,是边缘计算的一个子集实例。目前,云边端架构已经广泛应用于智慧城市[12]、自动驾驶[13]、工业控制[14]、智慧农业[15]、星上计算[16]、人工智能[17]等多个领域。

特别的,随着人工智能计算需求的不断增大,边缘计算与智能计算相结合的需求越来越迫切[18],相关的研究也越来越丰富。在期刊数据库Web of Science™核心合集上以边缘计算(检索式:TS=Edge Computing, TS为主题)、边缘计算与人工智能(检索式:TS=Edge Computing AND (TS=Intelligence OR TS=Learning OR TS=Smart))进行检索[19],对文章数量进行逐年统计,其结果如图1所示。

图1 边缘计算与智能计算结合的趋势

可以看到,随着主题为边缘计算的文章数量的增加,其中边缘智能计算工作的占比也在不断提高,从2012年的2.23%提高到了2022年的43.56%,已经成为边缘计算研究的焦点。

边缘智能计算将智能计算业务与边缘计算相结合,并将其计算业务分布在整个工作流经过的设备上,可以更好地减少算力浪费、增强隐私保护和加快计算速度。传统的智能计算模型复杂、数据量大、计算量大,单个终端设备保存数据量小、隐私性强。随着终端设备部署智能计算模型需求的增加,如何有效利用云边端架构的优势,对智能计算进行优化加速,成为目前边缘智能计算的研究热点[20]。

目前,对于边缘智能计算的调查研究综述已有很多[21-25],但从云边端架构的视角出发探讨边缘智能计算业务的综述并不多见。本文聚焦于云边端架构,重点讨论边缘智能计算业务与云边端结合所面临的两个关键问题:计算优化与计算卸载。讨论云边端架构下边缘智能计算优化的应用与研究进展,梳理云边端架构下计算业务卸载策略的研究现状,讨论边缘智能计算业务如何合理地在云边端各部分进行分配。

本文余下的部分结构如下:第2节对云边端架构进行介绍。第3节梳理和讨论云边端架构下边缘智能计算优化的应用和研究。第4节对云边端架构下计算业务计算卸载策略进行了讨论,即计算应该在何时、何地决定在哪里进行。第5节总结了目前云边端架构下的边缘智能计算所面临的挑战与未来可能的研究方向。第6节是结束语。

2 云边端架构

传统云计算模型越来越无法满足计算业务的实时性和安全性,学界和工业界开始讨论在云服务器和终端设备之间部署边缘服务器以平衡算力与延迟之间的矛盾,这种架构称为云边端架构。

在云边端架构中,计算可以发生在云、边、端的每一层,但考虑到网络带宽受限,希望计算尽可能发生在数据源,即终端设备周围[9],当数据在终端设备进行计算时,其计算的特点包括:

(1) 计算受限:与云服务器和边缘服务器相比,终端设备的计算能力和效率都十分有限[26],资源密集型任务的端侧计算可能会带来不能接受的计算时间和能量消耗。

(2) 隐私保护:作为数据的生产者,由于数据不经过网络传输,数据处理过程中隐私可以得到很好的保护[9]。

(3) 网络无关:由于不需要经过网络传输,在终端上进行的计算没有网络延迟,但由于计算能力有限,无网络延迟并不意味着快速。

与终端设备相比,边缘服务器与云服务器的计算时效、计算能效依次增加,然而网络延迟与隐私风险也随之变大。

云端适合资源密集型的业务,即计算量大、数据量小的工作;而终端设备适合处理包含隐私数据或时间敏感型的业务,即运算量小且时效性要求高的工作;边缘节点则介于两者之间。

面对运算量大、实时性强的智能计算业务,如何从算法、硬件、传输等不同维度进行计算优化,使得其可以运行在边缘设备上;以及如何将一个计算业务合理地拆解在云边端的每一个部分,实现计算卸载,实现云边端3层配合,达到总体效果的最优,是边缘智能计算与云边端架构结合所研究的重点[27]。

3 云边端架构下的边缘智能计算优化

当前业内所常用的智能计算业务大致可以分为训练和推理两部分:训练是指通过训练数据生成/调整模型使得模型能够尽量正确地拟合实际数据的分布,目的是得到尽可能准确的模型;而推理是指使用训练好的模型对未知数据进行判断,得到模型的输出。通常来讲训练的计算量远远大于推理。从训练和推理计算发生的位置可以对其进行分类,目前比较流行的云边配合包括:

(1) 在云端进行训练,在边缘进行推理。这是目前边缘智能计算框架推荐的应用较多的方案。

(2) 云边端配合训练,在边缘进行推理,共同参与训练过程的每一次迭代,代表算法是联邦学习,适用于有隐私数据参与的场景。

(3) 云边分别进行训练,在边缘进行推理。通过迁移学习等方法,在云端进行第1阶段训练,在边缘端进行第2阶段训练和推理,目的是尽量减少在边缘端训练的计算量。

云边端架构特点如图2所示。

图2 云边端架构特点

3.1 云端训练,边缘推理

在云端训练,边缘进行推理,主要解决的问题是提高计算速度和减少计算成本。面对算力有限的边缘设备,云端训练出的模型可能无法在边缘设备上直接运行,边缘设备可能也无法运行为云端设计的机器学习平台。因此,为了实现在边缘设备上进行推理,一些为边缘设计的机器学习框架、网络模型轻量化技术被提出。

典型的为边缘计算设计的智能计算编程框架[28]包括TensorFlow Lite, PyTorch Mobile, Mind-Spore Lite, Paddle Lite等,如表1所示。

表1 边缘智能计算框架对比

考虑到边缘设备有限的存储空间和运算能力,TensorFlow Lite[29]通过剔除不适合在边缘运行的算子来减小框架体积,同时限制模型运算量。然而这降低了其和TensorFlow框架的兼容性。PyTorch Mobile[30]完成了训练模型到部署模型的无缝连接,通过动态量化等方法降低运算量,因此兼容所有PyTorch模型。MindSpore Lite[31]提供模型转化工具,通过模型量化压缩,降低模型的复杂度,使AI模型能在极限环境下部署执行。Paddle Lite[32]是一个终端可部署的轻量化推理引擎,它通过训练完成的模型和设备情况生成轻量化的端侧推理模型,针对移动端设备的机器学习进行优化,压缩模型和二进制文件体积,高效推理,降低内存消耗。

与传统的神经网络模型相比,端侧推理使用的网络模型需要更加轻量化,目前主要使用量化、剪枝、提前退出、轻量化模型等技术减少推理的计算量[33-35]:

量化是指通过低精度变量代替高精度变量。在神经网络的研究中,学者发现降低一些参数变量的精度并不会带来整体模型精度的明显损失,但可以显著压缩模型的大小。文献[36]提出了一种基于激活层的量化方法,使用低比特的整数代替浮点数运算,大幅降低了模型的运算量并且大幅提高了模型在CPU上的运行效率。文献[37]提出了一种训练后量化模型,以避免训练中量化耗时的参数微调,实现了性能接近的低比特量化。

剪枝是指对神经网络的结构进行修改,删除对模型整体不重要的神经元,以此在保证模型精度的条件下减小模型体积。由于不同网络层的权重对网络的贡献不一致,传统的剪枝方法一般分层确定剪枝参数。文献[38]为了在边缘设备上压缩和加速深度神经网络,提出了一种分层的、参数的可变的剪枝方法,遵循贪婪策略对各层参数进行确定,这种方法可以降低神经网络精度剪枝后的下降。在分层剪枝的基础上,文献[39]提出了一种全局的模型剪枝方法,通过量化判断权重改变对网络输出的影响,实现了更细粒度的重要性判断,进一步减小了精度下降。

提前退出与量化和剪枝不同,它会增加模型的参数数量,它通过构建不同的出口,设置阈值,让分类器在结果比较明确时提前做出判断,输出结果,以此来减小推理过程的运算量。针对云边端架构,带有提前退出机制的网络模型一般在终端设备进行一部分计算,通过阈值判断筛选出置信度较低的样本传输至云侧进行进一步计算,置信度较高的样本则直接输出结果,即提前退出。这种模式在通信开销不大的情况下提高模型的准确性且不占用终端设备较多的运算资源。文献[40]通过引入视觉自主自注意力机制(vision transformer),提出了一种适用于视听数据的提前退出网络,显著降低了运算开销。也有工作[41]关注恶意样本对退出机制的影响,通过对样本的预处理,避免恶意样本使网络不能提前退出造成通信资源的占用。

轻量化模型是指通过改变网络结构以降低推理的运算量,如MobileNet, ShuffleNet等。MobileNet[42]针对卷积神经网络中占用计算资源最多的卷积层进行优化,提出了深度可分离卷积算法,与常规卷积相比,在准确率退化不大的情况下,大大减少了参数量及运算量。ShuffleNet[43]采用逐点分组卷积和通道混洗方法,通过分组卷积降低算力的需求,通过通道混洗可以使各组之间的信息进行交互,保证模型的准确性。

由此可见,云端训练,边缘推理主要关注终端设备算力受限下的计算优化问题,包括架构和算法两个层面,能够实现边缘实时的推理且避免网络延迟,但是训练时需要向云端服务器上传数据,有隐私泄漏的风险。

3.2 云边端配合训练

为了避免隐私的泄露,一些云边端配合进行训练的方法被提出,最有代表性的是联邦学习算法。

联邦学习算法假设训练数据分散在若干个终端设备上,且出于安全性考虑,终端设备不希望其上的数据传输到其他终端或云上而进行训练。它的算法步骤如下[44]:

(1)云端向每一个终端设备下发初始模型。

(2)终端设备使用自己的数据对模型进行训练。

(3)终端设备向云端上传训练好的本地模型及测试精度。

(4)云端对所有终端设备的模型进行聚合(一般是根据终端设备的数据量进行加权平均),并计算全局模型的精度。如果满足要求,则输出模型,如果不满足则下发聚合后全局模型,回到步骤(2)。

在联邦学习中,云端只接收模型参数和模型精度,因此可以很好地避免终端设备隐私泄露。但是,其算法需要多次迭代,云端与边缘通信次数多,数据量大,受带宽影响很大。为了解决这一问题,基于云边端的3层联邦学习被提出[45]。考虑到降低通信开销会影响模型精度,3层的联邦学习框架提供两次聚合平衡通信与模型精度的矛盾:边缘服务器聚合终端设备的模型,而云端聚合边缘服务器的模型。

由于3层联邦学习可以看作两个双层的联邦学习,故双层联邦学习的结论大部分都可以推广到3层联邦学习,因此3层联邦学习的研究主要集中在两次聚合的配合过程。文献[46]通过分析带参数量化的3层联邦学习的收敛性,进而提出了一种自适应的聚合方案以优化通信策略。文献[47]从安全角度出发,探讨边缘服务器被恶意利用时对云端和终端设备的影响,并据此提出一个安全的3层联邦学习框架,引入数据归一化机制来避免恶意的边缘服务器对学习过程的攻击。

双层联邦学习主要关注资源受限的优化问题,受限的资源包括通信资源、运算资源与数据资源,通过边缘智能计算过程及计算策略的综合优化,可以提高上述资源的利用率以提高模型的准确率并降低运算时间。

通信资源的受限来自联邦学习巨大的通信开销,由于参与的边缘设备数量通常很多,且模型训练需要全体设备多次参与模型迭代,因此通常联邦学习的通信资源都是受限的。将信道与计算过程相结合可以提高数据传输的效率,减小系统的计算时间,文献[48]提出了一种基于概率的调度策略,通过计算边缘计算中联邦学习梯度参数的质量结合每个传输信道情况对数据传输进行优化,最终达到模型的快速收敛以加快计算。

计算受限的优化包括压缩模型、减少训练迭代次数,在减小计算量的同时亦可以减小传输数据量。通过量化、剪枝等方法减小传输模型的尺寸,这与前文所提到的端侧推理中对模型的简化方法类似。引入量化联邦学习的终端设备并不会上传整个模型,而是上传本轮训练所带来的变化量,通过筛选掉变化较小的神经元参数,使其在本轮训练中保持数值不变,可以进一步减少训练的通信开销,如文献[49]提出了一种动态量化的联邦学习方法,可以根据变化量的大小动态地调整量化程度,以降低量化对训练造成的影响。对模型超参进行调整也可以加速模型收敛,如文献[50]证明了在一定条件下调整联邦学习的批处理数量可以加速模型收敛。

数据资源的受限体现在样本数量上,边缘侧的数据通常样本量较小,数据分布有可能不符合独立同分布[51]。联邦学习算法依赖于随机梯度下降,训练数据的独立同分布对于确保随机梯度是全梯度的无偏估计非常重要,因此非独立同分布的训练数据会严重影响训练效果[52]。为解决非独立同分布数据对联邦学习的影响,有学者通过构建统计指标[53]、预训练[54]等方式对边缘数据集进行分组,也有学者通过自注意力机制[55]、客户端加权[56]等方法优化聚合过程。

3.3 云边分别进行训练

为了解决小样本问题及数据分布不均匀的问题,可以在边缘侧进行模型训练和推理。

迁移学习是一种典型的小样本学习方法,它通过在基类上进行学习,再在小样本上进行训练,对参数进行微调,取得了不错的效果。文献[57,58]关注智能摄像头上搭载的深度神经网络的训练过程,提出基于代表性图像的迁移学习及基于单对多、多对单、多对多的智能摄像头迁移学习方法,实现了标注数据量、训练时间的降低和模型准确率的增加。为了解决神经网络在大量物联网终端设备上部署的问题,文献[59]提出了一种模型快速部署和更新方法,通过比较新旧模型的区别来减少传输,并加快训练。

与迁移学习类似的,元学习是一种小样本学习方法,通过对任务空间的学习,来生成与任务无关的模型初始参数,有的方法还会增加记忆模块,能够根据相似的任务进行模型的选择和改进,加快模型收敛的速度、改善服务质量。文献[60]面向智能驾驶,设计了一种基于两阶段元学习的方法,根据数据库中提取的元特征自适应地为车辆在不同场景下的不同计算业务选择合适的机器学习算法。注意到边缘智能计算中样本量小且分布不平均的问题,文献[61]通过在联邦学习中引入元学习思想,提出了一个自适应的部分私有的联邦元学习机制以保证隐私性和收敛性。

迁移学习也可以与联邦学习结合。文献[62]构建了一个迁移联邦学习过程:与传统的联邦学习相比,这一方法不需要一台集中式的云服务器汇总模型,而是通过终端设备互相传递,进一步加强了对隐私的保护。文献[63]结合联邦学习、迁移学习和强化学习,利用联邦学习的本地训练模型来保护隐私,并利用迁移学习通过知识迁移来提高训练效率,最后使用强化学习过滤恶意的终端设备,以实现安全、快速的模型推理。

综上,边缘智能计算的优化主要关注算法在终端、边缘上的加速、分割和卸载。卸载策略主要根据边缘智能计算业务的特点确定。作为边缘计算的核心问题,卸载策略除了根据具体业务的计算卸载研究外,通用的计算卸载策略也是目前研究的热点。

4 云边端架构卸载方案

将计算业务科学合理地分配到云边端每一个层次,称为云边端计算卸载研究,即回答何时进行卸载、由谁决定卸载、卸载到哪里三个问题。对于不同的业务的优化约束条件和不同场景的网络传输条件,计算任务的卸载策略不尽相同。常用的约束条件包括任务时延和系统能耗[64-67],也有研究同时考虑服务质量[68,69]、隐私保护程度[70]等。以下主要针对时延和能耗两个研究热点进行综述。

值得一提的是,由于边缘计算包含大量时间敏感型业务,因此单纯考虑能耗的卸载方法可能会造成不能接受的时延,因此大部分以能耗为指标的卸载研究也会同时考虑时间指标。

4.1 针对任务时延优化的卸载方案

任务时延是云边端体系下服务质量的重要指标。任务时延通常可以分为3部分[71,72]:网络传输时延、传输后在队列中等待时延、计算时延。

云边端系统的各部分的通信成本和计算能力各有不同,边缘侧通信速度快,但计算速度慢;而云侧计算时间短,通信时间长。因此需要根据不同情景平衡通信和计算带来的时间开销。

马勇等人[73]提出了一种云边端架构下中心式的调度模式,如图3所示。云服务器获取终端设备的位置信息,并基于深度学习进行预测,得到终端设备预测轨迹。根据历史轨迹和预测轨迹,计算设备的综合距离,将设备分为热点区域设备和离散设备。对热点区域设备,云服务器计算热点区域与边缘服务器匹配度,根据匹配度得到热点区域计算簇(边缘服务器的集合),热点区域设备向计算簇控制节点(由距离热点区域最近的边缘服务器担任)发起卸载,由控制节点将计算任务分发至边缘服务器执行。对离散设备,云服务器计算设备与边缘服务器的匹配度,设备根据匹配度直接向边缘服务器发起卸载,如图4所示。

图3 中心式计算卸载流程

图4 边缘式计算卸载流程

该方法的优点是终端可以选择最优的边缘服务器进行运算,但终端与云服务器的通信通常是受限的。该方法需要终端与云端多次通信,在网络延迟较大甚至中断时无法有效进行计算卸载。

Ren等人[74]证明了在终端设备使用时分多址无线网络传输,且信道服从独立同分布的瑞利衰落时,计算资源的分配存在最优解。该文章假设终端只产生数据和接收计算结果,所有计算任务全部卸载到边缘服务器及云服务器。终端首先上传所有数据到边缘服务器,边缘服务器做出判断,划分计算量,并上传云服务器需要进行运算的数据,然后边缘服务器和云服务器对数据进行并行的计算。作者证明了这一过程的最优化问题是一个严格凸函数,由此确定了理论最优卸载策略。

该方法的计算划分发生在边缘服务器上,因此在与云端网络通信中断时也可使用,并且是理论最优策略。然而作者忽略了计算任务划分的粒度问题及依赖关系,假设任务是完全可分的且没有相互依赖。同时该结论只适用于终端设备使用时分多址技术进行无线网络传输这一过程,终端与边缘服务器的关系固定,无法根据网络状态、资源占用情况等进行调整。假设计算全部发生在边缘服务器及云服务,降低了优化问题的维度,但浪费了终端设备的低时延计算能力。

为了克服云服务器统一调度造成的巨大延迟和固定边缘服务器造成的算力损耗,Lin等人[75]提出了由边缘服务器主导的局部调度算法:引入了一种称为“两种选择的力量”的简单策略,实现了基于边缘服务器的轻量化负载均衡,如图5所示。

图5 基于“两种选择的力量”策略的卸载流程

首先终端和边缘通过云服务器和广播发现彼此,之后每个终端选择一个延迟最小的边缘服务器作为其“守护节点”。需要执行卸载时,首先将任务信息传输到守护节点,若守护节点有空闲资源,则将数据传输到守护节点进行计算。若没有空闲资源,则守护节点任意选择两个其他边缘节点,选择其中负载小的作为执行节点,重定向数值发送至执行节点,所谓负载小,是指预期的运行时间小。同时,该调度系统考虑了时间敏感性任务的有限性,这个简单的策略被证明是有效的。

该方法的优势在于由边缘服务器进行信息不全的快速卸载策略制定,由此平衡了卸载策略生成速度和卸载策略实施效果,但云服务器作为系统中运算效率最高的计算平台并没有有效参与计算。

4.2 综合时延和系统能耗优化的卸载方案

移动终端设备的电池容量通常是有限的,将计算卸载到边缘和云可以有效提高移动终端设备的续航能力。边缘计算服务通常对时间较为敏感,单纯考虑能耗可能会带来不能接受的任务时延。因此研究的热点为结合时延指标对卸载进行约束,在满足时延要求的条件下实现系统耗能最小,能耗主要考虑计算能耗和信息传输能耗。

一般而言,能耗的计算公式为[76]

由于云边端各层次设备功率、运算效率、传输效率不一致,因此综合时延和能耗的卸载方案也可以被视为一个为有权重的时延优化方案。

徐佳等人[77]考虑了多任务场景下的计算卸载,讨论了一个存在依赖关系的多任务卸载体系,同时考虑等待时间的能量消耗,提出了一个基于粒子群优化算法的多任务云边端卸载策略。该策略的核心是一个分段函数,在满足时间要求时,分段函数仅与能耗有关;不满足时间要求时,分段函数与时间和功耗同时有关。通过迭代求得该分段函数的最小值进行计算卸载。仿真结果显示,该方法在能耗和计算时延上都有不错的表现。但由于时延与能耗是相互存在相互关联的,因此该方法的计算复杂度较高。

在引入任务依赖的基础上,李强等人[78]进一步考虑了时变信道下边缘计算任务的卸载。采用A3C深度强化学习方法,将计算卸载问题转化为一个马尔可夫决策过程。使用多线程智能体,首先在离线环境中使用模拟数据进行训练;在实际应用环境中,根据真实数据进行多线程的推理和异步训练,适应真实条件。与基类方法相比,时延和系统能耗得到了很好的控制。但是该算法只考虑了单一设备至单一边缘服务器,没有考虑多信道波动下边缘服务器的选择和用户竞争。

彭昇等人[79]考虑了一个多终端多边缘服务器的云边端计算场景:终端移动设备通过无线网与基站进行连接,基站之间通过中央基站相连。算法考虑设备用户的移动轨迹,依据路径选择最优的两个基站进行计算卸载。在同一个时刻,一个基站负责此时刻的计算,另一个基站负责接收下一时刻计算的数据。该方法有效地解决了设备移动带来的网络通信条件的变化,并实现了较好的系统功耗控制。但是对于时延仅做了定性的判断,还有优化的空间。

5 云边端架构下边缘智能计算挑战与研究趋势

通过对云边端架构下边缘智能计算优化及计算卸载策略的梳理可以看出,尽管边缘智能计算在学术界和工业界已经有了广泛的研究和应用,该领域仍然有着巨大的研究潜力和挑战,下面总结云边端架构下边缘智能计算的未来发展方向及挑战,希望以下这些讨论能够促进云边端架构与边缘智能计算的融合、发展和创新。

5.1 云边端架构与具体计算业务的深度融合

由于不同计算业务的可分割粒度、子任务间的依赖关系、计算量数据量之比、任务数据的隐私程度都有所不同,因此与单纯面向架构的计算卸载、运算相比,结合具体业务后能够进一步优化云边端架构的消耗,激发云边端架构的潜能。

边缘智能计算的训练过程是典型的资源密集型业务,即运算量大且时效性要求不高的计算;而推理过程则是时间敏感型业务,运算量较小但要求较高的时效性。针对它们的特点就可以更合理地进行计算业务划分。同时,由于端侧的计算资源受限,针对终端的计算优化也是未来云边端架构的解决方案之一,而架构与具体业务的结合是这一优化的前提。

以作者参与的重点研发计划子任务为例,目的是构建一个由终端监测设备(传感器为红外和可见光相机)、地面处理站、指挥中心构成的森林火灾监测系统。由于带宽受限,监测设备无法将获取的全部数据上传至地面处理站,因此需要在监测设备上进行初步运算,对数据进行筛选。此时监测设备需要处理的数据量为3层中最大,但运算能力是3层中的最低,数据量与运算能力之间产生了极大的矛盾。考虑到带宽有限,将部分火点识别的算法卸载到检测设备上进行。可见光传感器分辨率高,火点识别运算量大,准确率高;红外数据分辨率低,火点识别运算量小,虚警率高;考虑到传感器特点和业务流程,由检测设备进行基于红外图像的火点初步识别,并将疑似火点的图像传输至地面处理站,由处理站进行基于可见光图像的火点精细识别,剔除虚警后,生成观测需求下传至监测设备,并将火点图像及信息上传至指挥中心,以此平衡传输与处理之间的矛盾。

5.2 终端设备差异的解决方案

终端设备数量巨大带来的问题之一是运算能力、数据结构、数据分布、通信状况都有所不同。首先,运算能力的差异可能使得算法难以部署,如某些单片机可能无法运行某些神经网络模型或时延不可接受。不同终端设备的兼容性也可能导致算法无法运行,目前各个边缘智能计算框架标准和接口尚不统一。

其次是数据的差异,数据的差异首先是数据结构的差异,这使得不同终端的数据难以被同样的程序处理;除了数据结构,数据的分布也可能有差异,数据的独立同分布是神经网络准确的前提之一,如果数据分布差异过大,则需要对数据进行进一步的细分。

最后是通信状况的差异,这种差异带主要影响计算的卸载策略,目前的研究目标多数是系统层面的最优,然而这种优化边界条件可能导致通信状况较差的设备被忽视,从而承受极差的服务质量,由此可能带来用户体验与公平性的问题。

5.3 多实体参与的边缘智能计算的激励及可信计算

在边缘智能计算特别是联邦学习中,计算优化与计算卸载过程可能涉及不同利益组织的实体,这些实体互相配合需要有效的激励机制进行支撑。考虑到边缘环境松散及去中心化的特点,目前学术界通过引入区块链等技术,进行了一些激励方法研究,但这种引入势必会挤占边缘计算场景中宝贵的传输、运算和储存资源。边缘计算场景呼唤更简单、更公平且有效的激励方案。

进一步的,多实体参与的边缘智能计算可能出现恶意参与者,窃取数据或者影响计算可靠性。如何识别、记录、排除恶意参与的实体,不影响系统开放性的同时尽可能提高系统的安全性,实现可信的边缘智能计算,也是目前边缘智能计算的挑战之一。

5.4 通信受限条件下的边缘计算智能卸载

计算卸载策略是云边端架构的核心算法,卸载模式与通信环境有着密切的关系,当与云服务器的通信时延较长时,基于边缘服务器的决策因为反应迅速所以效果较好;反之,与云服务器通信时延短时,则由云服务器进行总体统筹效果最佳。

目前的研究虽然大都考虑了通信对计算卸载的影响,但策略相对固定,很少有根据通信环境而对卸载策略进行改进的方法。应进一步发挥节点的自组织性,实现通信受限场景下策略的智能选择,提高系统的鲁棒性。

6 结束语

本文结合云边端架构与边缘智能计算,从架构的视角出发,回顾了云边端架构下边缘智能计算的两大关键问题:计算优化与计算卸载。分析了云边端架构下边缘智能计算及计算卸载的研究方向与研究进展。最后总结了云边端架构下边缘智能计算的几个挑战和未来的研究趋势。本文希望这些对云边端架构边缘智能计算的总结和思考,能够促进边缘计算与人工智能的进一步结合,为这一领域带来进步和发展。

猜你喜欢
终端设备联邦时延
一“炮”而红 音联邦SVSound 2000 Pro品鉴会完满举行
视频监视系统新型终端设备接入方案
303A深圳市音联邦电气有限公司
基于GCC-nearest时延估计的室内声源定位
基于改进二次相关算法的TDOA时延估计
配电自动化终端设备在电力配网自动化的应用
FRFT在水声信道时延频移联合估计中的应用
车站信号系统终端设备整合及解决方案
基于分段CEEMD降噪的时延估计研究
基于手持终端设备中软件通信架构的应用