张飞,陈小前,曹璐,覃江毅,汤敏,郭鹏宇,冉德超
天基边缘计算系统设计及关键技术
张飞,陈小前,曹璐,覃江毅,汤敏,郭鹏宇,冉德超
(军事科学院 国防科技创新研究院,北京 100071)
卫星具有覆盖范围广、抗灾害性强等特点,随着卫星研制与发射成本的不断降低,推动卫星与地面移动通信网络、物联网(IoT)、云计算中心深度融合,构建天地一体化网络和应用架构,已成为航天发展的重要方向。随着地面多用户、大数据量的接入,亟须开展卫星在轨数据处理技术相关研究,提升卫星的在轨服务能力和质量。本文提出了对卫星计算资源进行整合,构建天基边缘计算系统,并提出了天基边缘计算的3种资源管理策略和4种平台部署协同模式。此外,对天基边缘计算的优势和还需解决的关键技术进行了分析,并搭建了天基边缘计算原型系统,对不同计算卸载策略性能进行了分析。
天基边缘计算;云-边-端架构;计算卸载;云计算;边缘协同
目前,全球地面移动通信服务只能覆盖约20%的陆地面积和6%的地球表面积[1]。卫星具有全球覆盖、部署灵活、无国界、抗自然灾害能力强等优点,是地面基础设施的重要支撑和补充。将5G通信网与天基通信网络融合,已成为6G通信技术发展的必然趋势[2]。在天地一体化网络的基础架构下,越来越多的地面应用将向卫星延伸,这是航天发展的机遇也是挑战。例如,在物联网场景下,对戈壁、沙漠、海洋、极地等地面基础设施很难覆盖的区域,卫星几乎成了最有效的收集地面传感器数据的手段。但随着物联网(Internet of Things,IoT)技术的发展,卫星必然面临多用户接入、海量数据接收、快速处理转发等一系列挑战。
为应对上述挑战,必须提升卫星的在轨数据处理能力。当前,卫星对获取的数据主要有2种处理方式:
1)地面处理,如图1(a)所示。卫星获得数据后将数据转发至地面数据处理中心进行处理。如果处理后的数据还需分发给无地面通信网络覆盖的用户时,还需再次通过卫星转发给用户。这种数据处理方式首先会导致巨大的网络带宽开销,尤其是对异常宝贵的星地带宽资源,同时由于卫星消耗大量的能源用于数据传输,也会对卫星其他业务造成影响。其次,这种方式会导致数据多次转发,极大地增加了对用户的响应时延。如图1(a)中,单次数据采集需要5次转发才能达到用户。如果卫星是在非地球同步轨道上且数据传输量较大时,时延中还需加入卫星重访周期和地面站可见性带来的时延。因此,这种数据处理方式很难满足未来天地一体化网络的发展需求。
2)在轨处理,如图1(b)所示。卫星获得数据后直接在轨进行处理后分发给用户。这种方式极大地降低对网络带宽资源的消耗,增加对用户的响应时延。但随着航天技术的发展,这种数据处理方式也面临着诸多挑战。受太空环境、卫星能源等多方面因素的限制,卫星数据处理单元的硬件性能很难达到地面数据处理中心的水平。这就需要从体系架构、软件、算法等方面入手,充分提升硬件资源的利用率,从而提升卫星在轨数据处理能力。此外,随着卫星研制和发射成本的不断降低,为提升卫星的时间和空间覆盖率,卫星多以星座形式进行部署,如“星链”计划、美太空七层架构、鸿雁星座、虹云星座等。传统的在轨数据处理方式很难实现多星协同和硬件资源共享。
边缘计算技术将计算资源前移到靠近数据地方,从而降低数据处理时延。同时,利用虚拟化技术对硬件资源进行抽象,非常有利于多平台间的资源共享。将边缘计算技术应用于卫星在轨数据处理,对促进卫星向星座化、网络化、智能化方向发展具有重要意义。在前期相关研究工作[3]的基础上,对天基边缘计算的系统组成进行了研究,将天基边缘计算平台分为资源层、虚拟化层、平台层、插件层、应用层等,并与前端设备、地面云计算中心构成了云-边-端的计算架构。在此基础上,针对天基边缘计算平台系统管理需求,设计了集中式、逐级式、分布式3种管理策略。在边缘计算平台部署方面,提出了单边缘计算、边缘协同、边云协同、全协同 4种部署和协同模式。同时,对天基边缘计算的研究现状、优势、关键技术等方面进行了详细分析。
随着卫星数量的不断增多和卫星应用领域的不断拓展,提升卫星在轨数据处理能力已成为当前学术界和工业界研究的重要方向。在体系架构设计方面,YAN等[4]提出了一种5G卫星边缘计算框架,以降低5G网络的延迟和覆盖范围。天基边缘计算平台中的计算资源主要包括中央处理器(Central Processing Unit, CPU)、图形处理器(Graphics Processing Unit, GPU)和现场可编程逻辑门阵列(Field Programmable Gate Array, FPGA)。软件框架分为系统服务、基础服务、用户服务3层。WEI等[5]提出了一种卫星物联网边缘智能计算架构,该架构由卫星云计算节点、卫星边缘计算节点和地面数据中心组成。卫星云计算节点部署在计算和存储能力较强的卫星中,作为卫星边缘计算节点的汇聚点。在前期工作中[3],基于低轨卫星星座提出了天基边缘计算体系架构,面向天基边缘智能对计算卸载过程进行了建模,提出了在轨联邦学习训练方法。唐琴琴等[6]提出了基于边缘计算的星地协同网络体系架构,将架构分为资源层、网络层、平台层、应用层,同时提出天基边缘计算平台可以与地面边缘计算平台进行资源共享。欧盟SaT5G项目[2]于2019年演示了利用5G多链路卫星和地面网络进行基于移动边缘计算的无线分层视频流传输,利用移动边缘计算平台实现内容分发网络(Content Delivery Network, CDN)与高效边缘内容分发的整合。DENBY等[7]提出在微纳遥感卫星星座上部署边缘计算平台,并将边缘计算平台组织成计算流水线并行进行数据采集和数据处理。
在提升在轨数据处理能力方面,安建峰等[8]基于星载异构计算多核平台提出能源优化的实时任务调度算法。算法包含负载分配和任务调度,采用时间片划分的思想对任务进行调度。WANG等[9]采用博弈论对天基边缘计算中计算卸载过程进行建模,从而选择最佳的卸载策略同时获得较优的计算响应时间和能源消耗。KIM等[10]对天基边缘计算进行了建模,并对不同轨道、不同卸载速率下天基边缘计算的传播延迟和上/下行排队延迟进行了分析。WANG等[11]结合软件定义网络(Software Defined Network,SDN)技术为低轨卫星星间链路提出了一种3层网络架构,并提出了高级-means算法和广度优先的搜索算法来解决卫星间资源拆分和调度问题。ZHANG等[12]也提出了天基边缘计算的概念,并为网络资源虚拟化、合作式计算卸载、任务调度等设计了相应的解决方案。卢华等[13]对天基边缘计算下服务部署机制进行了研究,将该问题描述为马尔科夫决策过程,并提出了基于强化学习的深度Q网络部署机制。钟磊等[14]针对低轨星座通信网络时变性的特点,为天基边缘计算平台设计了平台管理层,使得边缘计算节点具备自主工作能力。
与传统的在轨数据处理相比,天基边缘计算主要具有以下优点:
1)降低数据处理时延。天基边缘计算将计算资源前移到靠近数据一侧。地面传感器采集的数据只需传输一跳就能进行处理。卫星有效载荷获得的数据在本地就可以进行处理。处理后的结果再次通过一跳传输就可直达用户,从而降低数据处理的响应时延。
2)降低网络数据传输量。由于数据采集、处理、分发都在距离数据最近的地方进行,极大地降低了数据与后端数据中心间的频繁交互和转发。即使经边缘计算平台处理后的数据需要回传至后端数据中心,经过处理后的数据与采集的源数据相比,在数据量上通常也会有较大的压缩。
3)降低地面设施的能耗。地面传感器终端可将采集的数据直接发送给卫星进行处理,因此可降低传感器因数据处理带来的能源消耗,从而延长传感器的待机时间。这对在偏远山区、丛林、海洋等能源紧缺的地方工作的传感器更为重要。此外,卫星以清洁的太阳能作为主要能源,天基边缘计算平台可为地面数据处理中心分摊部分计算任务,从而降低地面数据处理中心的能源消耗和减少环境污染。
4)高效整合异构资源。天基边缘计算采用虚拟化技术对卫星的硬件资源进行抽象,为上层应用提供统一的平台服务,可实现各类卫星异构计算资源的整合与共享。由于地面云计算中心也采用类似的硬件抽象方式,因此边缘平台间、边缘平台与地面云计算中心间可实现统一管理和高效协同。
5)应用快速开发与部署。天基边缘计算平台采用通用的软件平台,因此,开发人员无需“量身定制”式地为每个卫星开发应用程序,可以实现“一次开发,多星运行”。如果星间或星地间有数据传输链路,还可实现应用程序的快速迁移与在线更新。同时,由于采用通用的开发框架,可在应用部署前在地面进行充分测试和验证,从而降低因应用升级给卫星带来的安全风险。
6)安全性。天基边缘计算平台以容器或虚拟机的方式对各应用程序进行隔离,可有效避免因单程序问题导致整个计算平台失效问题。另外,通过统一的权限控制,可为不同容器或虚拟机设置不同的资源使用权限,从而保障整个计算平台和整星的安全性。
天基边缘计算是对卫星上可利用的计算资源进行整合和管理,并通过星间链路和星地链路与其他计算平台实现资源共享。资源整合后,每颗卫星将包含一个天基边缘计算平台。按照功能分类,可将天基边缘计算平台可分为5个层次:资源层、虚拟化层、平台层、插件层、应用层,如图2所示。
资源层是卫星上与计算相关的硬件资源。在执行计算任务和多平台协同时,还需网络和存储的支持,因此资源层不仅包括计算资源,同时也包括网络和存储资源,这些资源通常呈现出异构性。
虚拟化层是对卫星的异构硬件资源进行抽象,为上层提供统一的资源调用接口。虚拟化后的硬件资源通常以虚拟机(Virtual Machine,VM)或容器(Container)的形式进行呈现。与虚拟机相比,容器具有轻量化的特点。由于卫星上硬件资源相对有限,为减小虚拟化对硬件资源的占用,天基边缘计算平台应优先选择容器的方式进行资源虚拟化。同时,虚拟化后的硬件资源理论上可以根据用户需求进行任意拆分,具有很强的灵活性。
平台层是边缘计算平台的核心,其主要包括设备管理、任务管理、协同管理、服务管理、镜像管理、资源管理等。这些管理服务可采用通用的边缘计算框架,如Kubeedge、OpenEdge、Azure IoT Edge等。根据卫星与地面运行环境的差异,可对边缘计算框架进行适当裁剪,以提高框架的运行效率。例如,卫星上运行的应用相对单一,因此可将边缘计算框架应对传统互联网安全威胁的组件关闭或去除。设备管理组件主要与前端设备进行交互,如获取设备采集的数据和对设备进行管控。这些设备包括卫星搭载的有效载荷、地面的物联网传感器、用户终端等。协同管理组件实现边缘平台间、边缘平台与云计算中心间的高效协同。其中,边缘计算中计算任务卸载策略和算法就是由协同管理组件实现。网络管理组件实现天基边缘平台不同应用对底层网络资源的共享,以及平台与前端设备、地面云计算中心、其他边缘计算平台间的网络连接管理。其他组件相对简单,就不一一赘述。
插件层是对平台层功能的补充和应用层的支撑,因此可将插件分为2类:平台插件是平台层运行所需的通用或定制插件;应用插件是应用程序运行所需的插件。
应用层为可在轨运行的各类应用程序,如态势感知、目标识别等。应用以镜像的形式进行部署,因此卫星发射前可将可能用到的应用镜像提前存储在卫星上,从而降低镜像传输带来的带宽开销。同时,应用也可以通过星地链路或星间链路对镜像进行增加或更新。
在云、边、端三级架构中,每级都可以根据需求进行扩展。因此,合理的系统管理策略是保证系统高效运行的前提。根据隶属方式不同,可将不同的系统管理方式分为3类:集中式、逐级式、分布式。
集中式即地面云计算中心管理所有前端设备和天基边缘计算平台。这种方式主要适用于云、边、端间具有稳定的网络链路或各部分设备变化性较小的场景。
逐级式即地面云计算中心管理天基边缘计算平台,天基边缘计算平台管理前端设备。逐级式实际是由2个集中式组成的。这样既可以降低长距离网络传输设备状态数据带来的网络开销,同时有利于统筹各级资源,达到整体性能最优的目的。
分布式即各个设备管理自己的资源,只在需要资源共享时,资源请求者向其他设备申请获取资源使用情况信息。这种方式抗毁性最强,但很难获得较优的数据处理性能,且对各部分硬件性能都有一定要求。
前端设备、天基边缘计算平台、云计算中心互相协同,形成了云-边-端的计算架构。前端设备的部署方式相对比较固定。天基边缘计算平台和云计算中心可根据不同需求,采用以下4种部署方式之一进行部署:
1)单边缘计算模式。仅在单颗卫星上部署边缘计算平台,与其他边缘计算平台和云计算中心无数据处理协同,如图3(a)所示。该模式较为简单,适用于卫星数据较少或无星间链路,且地面无云计算中心的情况。该模式可用于提升在轨数据处理平台的兼容性,有利于加快应用程序的开发与部署效率。
2)边缘协同模式。在多颗具有星间通信链路的卫星上部署边缘计算平台,平台间可实现计算和存储资源共享,如图3(b)所示。当需要实现卫星集群无地面依托的在轨自主管理和数据处理时,可采用此模式。与单边缘计算模式相比,该模式可实现卫星集群内资源共享,为更高级资源应用提供了可能性,如分布式数据存储、联邦学习等。
3)边云协同模式。在单颗卫星上部署边缘计算平台,同时该平台可与地面云计算中心实现计算任务协同,如图3(c)所示。与天基边缘计算平台相比,云计算中心的硬件资源能力可以认为无穷大。因此,可根据用户对计算任务的响应时延要求和卫星能源情况,合理分配在边缘计算平台和地面云计算中心中的计算任务量。该模式也是当前较为常见的部署方式。
4)全协同模式。在多颗具有星间通信链路的卫星上部署边缘计算平台,同时每个边缘计算平台又可与地面云计算中心实现计算任务协同,如图3(d)所示。该模式实现难度较大,对平台间的协同策略和算法要求较高,同时也是抗毁性最强、资源利用率最高的模式。
随着边缘计算、物联网、云计算等技术的发展,实现天基边缘计算已切实可行,但目前大多还处于试验验证阶段。由于太空与地面环境存在较大差异,天基边缘计算还缺乏比较成熟的解决方案,还有许多亟待解决的关键技术。在此,对部分还需解决或完善的问题进行了简单的阐述。
资源虚拟化就是对硬件设备能力进行抽象和管理,具有兼容性和灵活性的特点。兼容性主要体现在可以隐藏底层硬件差异性,向上层应用提供统一的能力抽象。灵活性主要体现在抽象后的资源可以根据用户需求大小实现按需分配。对卫星计算、存储、网络资源进行虚拟化,是天基边缘计算的重要环节。卫星与地面数据中心不同,由于前端设备的多样性,卫星通常会搭载多种计算设备以适应不同的计算任务。例如,使用FPGA处理控制相关任务,使用GPU处理图像相关任务。因此卫星上与计算相关的资源呈现出较强的异构性。如果扩展到星座或集群卫星,资源异构性的问题更加复杂。
如何实现异构计算资源虚拟化是天基边缘计算面临的首要挑战。随着云计算技术的发展,对通用型计算资源(如CPU、GPU)的虚拟化技术已相对成熟,但对专用型计算资源(如数字信号处理(Digital Signal Processing, DSP)、FPGA)的虚拟化技术的研究还相对较少。此外,星上的计算能力相对较弱,因此计算资源相当宝贵。虚拟化技术会给计算资源带来额外的资源开销,因此如何降低虚拟化的资源开销也是亟须解决的问题。
在云-边-端计算架构中,前端设备的计算能力最弱,天基边缘计算平台次之,地面云计算中心最强。计算能力弱的系统可以卸载计算任务到同级或计算能力较强的系统,从而提升数据处理速度。根据卸载任务的程度不同,卸载策略分为:1)本地处理即在本地完成计算任务,不向其他系统卸载;2)部分卸载即卸载部分数据到其他系统共同完成计算任务; 3)全部卸载即将全部数据卸载到其他系统进行处理。
不同情况下对计算卸载策略的目标也各异,例如,有些计算任务进行卸载是为获得最快的处理速度,有些计算任务进行卸载是为了降低能源消耗。因此,针对不同计算任务的性能目标,如何选择合适的卸载策略是重要的研究问题之一。计算任务的卸载性能会受多种因素影响,如网络带宽、目标平台可用的计算资源、计算任务的数据量等。因此,亟须对计算卸载过程和不同因素对卸载任务的影响进行数学建模并定量分析。这对计算卸载策略和算法设计具有重要意义。
除地球静止轨道卫星外,其他卫星都会围绕地球运动。因此天基边缘计算平台与前端设备和地面云计算中心间、天基边缘计算平台间的相对位置都会发生变化,都是采用无线方式进行通信,因此网络连接和带宽会随着位置变化而变化。这会给天基边缘计算带来2个挑战。一方面,计算卸载策略必须具有动态调整能力。由于网络带宽的变化,可能导致已经确定的计算卸载策略无法获得最优性能。如何在动态网络环境下使动态卸载策略获得全局最优性能是天基边缘计算面临的巨大挑战。另一方面,各系统间也会因相对位置太远而出现网络连接断开的现象。计算卸载过程中必须保证被卸载的应用程序不会因网络断开而出现丢失数据或程序崩溃的现象。这就要求卸载任务发起的系统必须具备较强的容错机制。
与地面物联网场景不同,卫星具有广域覆盖的特点,因此前端设备部署位置分布范围广、种类多样。在天基边缘计算平台对前端设备的数据进行处理和分析时,需将不同位置、不同时间采集的数据进行关联整理。可以采用的关联方式包括:1)时间维度关联即以时间为基准,对不同前端设备在相同时间采集的数据进行关联;2)空间维度关联即以空间为基准,对不同前端设备在相同位置采集的数据进行关联;3)任务维度关联即以任务为基准,对不同前端设备在同一任务下采集的数据进行关联。3种关联方式还可组合使用,如在任务维度关联下使用时间维度关联或空间维度关联。数据关联即是对数据进行预处理,会带来一定的计算开销。同时,关联过程会产生额外的辅助数据,也会带来一定的存储开销。如何对数据进行高效存储,并降低数据预处理的额外开销,也是亟须解决的重要问题之一。
天基边缘计算平台不仅将计算平台移动到了靠近前端设备的位置,而且还为前端设备和地面云计算中心提供了数据缓存服务。这种缓存模式与CDN不同。内容分发网络中数据都是来源于后端数据中心,边缘平台只是缓存的后端数据的部分副本。而天基边缘计算中,边缘计算平台中的数据不仅可能来源于地面云计算中心,也来源于前端设备。边缘计算平台中的数据不是地面云计算中心数据的子集。再扩展到多颗卫星,就存在如下情况:1)用户需要访问的数据可能存储在边缘计算平台中,也可能存储在地面云计算中心中;2)某个边缘计算平台需要访问的数据在另一个边缘计算平台或地面云计算中心中;3)地面云计算中心需要访问的数据不在本地,而在边缘计算平台中。也即,数据在整个系统中呈现出分布式的特点。如何合理存储数据来降低跨平台间的数据访问频率,对云-边-端计算系统整体性能具有重要意义。
利用4台树莓派3,1台英伟达Jetson TX2和 1台因特尔NUC迷你电脑搭建了天基边缘计算原型系统,如图4所示。每台计算设备代表一颗卫星上的计算平台。采用不同的计算设备旨在模拟不同卫星计算资源的异构性。使用卫星仿真工具(Satellite Tool Kit, STK)产生卫星的运行状态数据,以此来模拟卫星间网络通信拓扑及网络带宽。
在应用程序部署方面,采用TensorFlow Lite实现了经典的深度神经网络模型AlexNet[15]。深度神经网络模型在部署前已训练好。实验中的深度神经网络协同推理任务是对来自ImageNet数据集的图片进行图像分类。图像分类任务从一台树莓派(代表主卫星)输入,平台可根据模拟的卫星间网络状态,自适应地分配计算任务至其他节点(代表从卫星),即平台中的TX2、NUC以及其他树莓派,进行协同处理,以此降低能源开销。
采用以下几种计算负载分配方式测试平台性能:1)本地执行,所有计算负载在接收输入图片的终端设备本地执行;2)基于贪心算法的多星协同,多颗卫星协同处理推理任务且输入负载按贪心算法切分,即根据可用卫星中各卫星的计算能力分配负载,计算能力越强的卫星分配的负载越多,该方法不考虑各终端设备之间的网络带宽资源;3)基于公平性的多星协同,多颗卫星协同处理推理任务且输入负载等比例切分,即根据可用卫星集群中卫星总数等分负载;4)基于自适应负载分配的多星协同,多颗卫星协同处理推理任务且负载的切分考虑当前时刻卫星集群中每颗卫星的可用计算资源以及星间带宽等网络状态信息。
原型系统在不同负载分配方案下,AlexNet模型协同推理图像分类任务中的时延性能和能耗性能仿真结果如图5、图6所示。实验中设定用户的任务处理时延要求为不超过100 ms。
从图5中可知:本地执行的时延最长;基于贪心算法的多星协同方案为满足用户的时延要求,将绝大部分计算任务分配给其他节点进行处理,从而获得了最短的计算时延;基于公平性和自适应负载分配的协同方案均能通过将计算任务卸载到其他平台来满足用户的时延要求。
从图6中可知:在满足用户时延要求的情况下,基于自适应负载分配的协同方案能源开销最小;基于贪心算法和公平性的协同方案只考虑满足用户的时延要求,反而造成能源开销大于本地执行的方案。综上所述,天基边缘计算可通过多计算平台协同来满足用户的时延要求;同时,卸载策略应考虑其他平台的计算能力及平台间的网络带宽情况,否则协同反而会降低平台的整体性能。
本文结合当前航天发展趋势及在轨数据处理需求,对天基边缘计算技术进行了深入研究。将天基边缘计算平台系统划分为资源层、虚拟化层、平台层、插件层、应用层等5个层次,并提出了集中式、逐级式、分布式3种系统管理策略和单边缘计算、边缘协同、边云协同、全协同4种平台部署和协同模式。此外,对天基边缘计算的研究现状、优势、关键技术进行了分析总结,并搭建了天基边缘计算原型系统,对不同计算卸载策略的性能进行了分析。
[1] 王胡成,徐晖,孙韶辉.融合卫星通信的5G网络技术研究[J].无线电通信技术,2021,47(5):535-542.
[2] LIOLIS K, GEURTZ A, SPERBER R,et al. Use cases and scenarios of 5G integrated satellite-terrestrial networks for enhanced mobile broadband: the SaT5G approach[J]. International Journal of Satellite Communications and Networking, 2019, 37(2): 91-112.
[3] 张飞,陈小前,于帅,等.基于天基边缘计算的在轨智能技术[J].上海航天(中英文),2021,38(4):19-24.
[4] YAN L, CAO S Z, GONG Y S, et al. SatEC: a 5G satellite edge computing framework based on microservice architecture[J]. Sensors, 2019, 19 (4): 831.
[5] WEI J Y, HAN J R, CAO S Z. Satellite IoT edge intelligent computing: a research on architecture[J]. Electronics, 2019, 8(11): 1247.
[6] 唐琴琴,刘旭,张亚生,等.边缘计算在星地协同网络中的应用探讨[J].电信科,2019,35(增刊2):227-233.
[7] DENBY B, LUCIA B. Orbital edge computing: nanosatellite constellations as a new class of computer system[C]// Proceedings of the Twenty-Fifth International Conference on Architectural Support for Programming Languages and Operating Systems. New York, USA: ACM Press, 2020: 939-954.
[8] 安建峰,游红俊,赵伟勋,等.星载异构计算环境下的能耗优化任务调度[J].上海航天(中英文),2021,38(4):38-44.
[9] WANG Y X, YANG J, GUO X Y, et al. A game-theoretic approach to computation offloading in satellite edge computing[J]. IEEE Access, 2019, 8: 12510-12520.
[10] KIM T,CHOI J P. Performance analysis of satellite server mobile edge computing architecture[C]// 2020 IEEE 92nd Vehicular Technology Conference (VTC2020-Fall). Washington D.C., USA: IEEE Press, 2020: 1-6.
[11] WANG F, JIANG D D, QI S, et al. A dynamic resource scheduling scheme in edge computing satellite networks[J]. Mobile Networks and Applications,2021, 26 (2): 597-608.
[12] ZHANG Z J, ZHANG W Y, TSENG F H. Satellite mobile edge computing: improving QoS of high-speed satellite-terrestrial networks using edge computing techniques[J]. IEEE Network, 2019, 33(1): 70-76.
[13] 卢华,段雪飞,李斌.边缘计算使能星地协同网络下的服务部署机制[J].中兴通讯技术,2021,27(3):62-66.
[14] 钟磊.低轨星座通信网络边缘计算架构研究[D].成都:电子科技大学,2020.
[15] IANDOLA F N, HAN S, MOSKEWICZ M W, et al. SqueezeNet: AlexNet-level accuracy with 50x fewer parameters and <0.5 MB model size[EB/OL]. (2016-02-24)[2021-11-11]. https://arxiv.org/abs/1602.07360.
Design and Key Technologies for Space-Based Edge Computing System
ZHANGFei, CHENXiaoqian, CAOLu, QIN Jiangyi, TANG Min, GUOPengyu, RANDechao
(National Innovation Institute of Defense Technology, Academy of Military Sciences, Beijing 100071, China)
Satellites are characterized by wide coverage, strong disaster resistance, etc. With the continuous cost decrease in the development and launch of satellites, it has become an important direction for space development to further integrate satellites with ground mobile communication network, Internet of Things (IoT), and cloud computing to build an integrated space-ground network and application architecture. With the access of multi-users and a large amount of data on the ground, it is urgent to carry out research on in-orbit data processing technologies to improve the capability and quality of satellite in-orbit service. In this paper, a space-based edge computing architecture is designed by utilizing satellite computation resources. Three resource management schemes and four platform coordination models are proposed. The advantages and key technologies for the space-based edge computing are analyzed. At last, a prototype system for the space-based edge computing platform is built to analyze the performances of different computation uploading schemes.
space-based edge computing; cloud-edge-terminal architecture; computation offloading; cloud computing; edge computing coordination
2021‑11‑11;
2021‑12‑30
国防科技基础加强计划(2021⁃JCJQ⁃JJ⁃0834);国家自然科学基金(61901504)
张飞(1988—),男,博士,助理研究员,主要研究方向为边缘计算、空天地一体化网络、卫星应用、机器学习等。
曹璐(1986—),男,博士,研究员,主要研究方向为宇航科学与技术、航天器设计。
TP 399; V 11
A
10.19328/j.cnki.2096⁃8655.2022.04.013