陈晓红 曹廖滢 陈姣龙 张静辉 曹文治 汪阳洁*
1 湖南工商大学 前沿交叉学院 长沙 410205
2 中南大学 商学院 长沙 410083
3 长沙人工智能社会实验室 长沙 410205
随着新一轮科技革命的兴起和发展,产业变革加速演进,全球经济发展呈复苏之态,数字基础设施以关键底座之力支撑、引领经济发展的新方向①中国信息通信研究院.全球数字经济白皮书(2022年).(2022-12-02)[2023-07-13].http://www.caict.ac.cn/kxyj/qwfb/bps/202212/P020221207397428021671.pdf.。习近平总书记指出,“加快新型基础设施建设。要加强战略布局,加快建设以5G网络、全国一体化数据中心体系、国家产业互联网等为抓手的高速泛在、天地一体、云网融合、智能敏捷、绿色低碳、安全可控的智能化综合性数字信息基础设施,打通经济社会发展的信息‘大动脉’”②习近平.不断做强做优做大我国数字经济.(2022-01-15)[2024-02-22].http://www.qstheory.cn/dukan/qs/2022-01/15/c_1128261632.htm.。党的二十大报告进一步强调,“加快发展数字经济,促进数字经济和实体经济深度融合,打造具有国际竞争力的数字产业集群。”
从智能驾驶、智慧城市、元宇宙,再到以ChatGPT为代表的生成式人工智能,算力正成为赋能各行各业数字化转型的基础技术要素③ChatGPT是一种基于人工智能技术驱动的自然语言处理工具。它通过在预训练阶段学习到的模式和统计规律,能够生成回答,并且可以根据聊天的上下文进行互动,实现像人类一样的聊天交流。此外,ChatGPT还可以根据给出的指令完成多种任务。。算力是大数据储存分析的计算资源[1],随着数字经济的蓬勃发展,算力逐渐由互联网行业向交通、工业、金融、政务等行业渗透,各行业对算力资源的需求持续高涨[2]。在此背景下,充足稳定的算力资源供给量不仅是数字技术进一步迭代的前提条件[3],也成为支撑数字经济发展的关键动力。然而,随着各行业算力需求大幅增加,算力引发的能源消耗问题和间接温室气体排放问题受到各界学者的广泛关注。研究显示,2022年我国数据中心耗电量已达2 700亿千瓦时,约占我国耗电总量的3.13%④本文将算力中心、超算中心等统称为数据中心,其包括为实现大规模计算和数据处理提供可靠的电力供应、冷却系统、网络连接和物理安全等的基础设施。。电力驱动的算力基础设施因产生大量碳排放,对我国实现碳达峰、碳中和目标提出了挑战[4]。
近年来,科学家对算力引发的能耗问题的关注度持续增加。Schwartz等⑤Schwartz R, Dodge J, Smith N A, et al.Green AI.(2019-07-22)[2023-7-13].https://arxiv.org/abs/1907.10597.学者指出,随着人们对更大计算量和更精准训练结果的需求呈现迅猛增长的态势,人工智能应用需要的更多电力能源消耗与其“绿色人工智能”的发展理念背道而驰。Dhar等[5]近期发表在Nature的研究称,人工智能本身也是重要的碳排放源,该研究小组呼吁增强对人工智能部署过程中基础设施碳排放影响的研究。另外,Jiang等[6]对以比特币为代表的区块链技术的能耗与碳排放进行了详尽的测算评估,相关研究的结论指出在没有政策干预的情况下,2024年区块链技术将消耗296.59太瓦时电力,相应产生13 050万吨碳排放。上述研究为理解算力发展与能源消耗之间的关系提供了丰富的文献支撑,但在特定的中国国情下,分析二者关系及其应对策略的针对性文章较少。本文在梳理我国算力发展现状的基础上预测了我国未来算力发展的需求,通过分析未来算力增长和电力能耗之间的关系及可能存在的问题,针对性地提出了我国算力绿色低碳转型的对策建议。
根据计算机处理能力,算力一般可划分为基础算力、智能算力和超算算力[7]。① 基础算力,通常由中央处理器(CPU)组成,一般而言,基础算力能够满足日常基础数据计算需求,如办公应用、网页浏览、媒体播放等。② 智能算力,主要由图形处理器(GPU)、专用集成电路等异构计算芯片组成,常用于处理大规模数据和复杂算法模型,如图像识别、语音识别、自然语言处理等。③ 超算算力,具备极高计算性能和超大规模并行处理能力,通常由多处理器、大内存和高速互联网络组成,常用于天气预报、风洞实验、能源开发等科学领域,协助开展复杂的计算研究。
作为算力的主要载体,我国算力基础设施发展迅速,梯次优化的算力供给体系初步构建。近5年来,我国算力规模的平均年增长率为46%,对我国经济社会和产业能级发展的动力支撑作用不断增强⑥中国信息通信研究院.中国算力发展指数白皮书(2022年).(2022-11-04)[2023-7-13].http://www.caict.ac.cn/kxyj/qwfb/bps/202211/P020221105727522653499.pdf.。2021年,我国智能算力规模达104 EFlops⑦EFlops(exascale floating-point operations per second)即每秒百亿亿次(1018)浮点运算次数,是一种衡量算力的单位,指计算机系统在单位时间内能够完成的计算任务量。,基础算力规模达95 EFlops,超算算力规模约为3 EFlops⑥。
从应用领域来看,我国的算力应用领域由早期的互联网行业逐渐扩展。尤其扩展到工业、教育、医学研究等领域(图1)[8],成为各传统产业智能化改造和数字化转型的重要支撑,算力正全面赋能生产、运营、管理、融资等各个领域的创新发展。
图1 2022年我国重点发展的算力应用领域现状和实际耗电量Figure 1 Current status and actual electricity consumption of key development areas for computing power applications in China in 2022
(1)算力大规模应用在工业领域。伴随人工智能技术在工业领域的应用逐渐深入,工业智能制造已实现制造过程的智能化和自动化[9]。据统计,我国工业制造的算力支出占全球算力总支出的12%,机器人领域的算力支出已超全球算力总支出的60%⑧IDC, 浪潮信息, 清华大学全球产业研究院.2021—2022全球计算力指数评估报告.(2022-03-17)[2023-7-13].https://www.in‐spur.com/lcjtww/resource/cms/article/2734773/2734784/2022122613493315670.pdf.。在工业生产过程中,智能设备和传感器能够实时收集和监测生产数据,为设备状态监测、故障预测和生产参数调整等自动化控制提供了基础[9],实现了对生产过程的实时调整和优化。这种实时控制和优化需要大量的算力来处理和分析庞大的数据集,确保生产过程更具精确性和高效性。因此,足够的算力支持是实现工业生产过程中自动化控制的关键要素之一[10]。据统计,1台特斯拉汽车需要装备20个传感器,按2022年的特斯拉131万的全球交付量计算,特斯拉汽车1年的算力总需求量约94 EFlops⑨亿欧智库.软件定义,数据驱动——2021中国智能驾驶核心软件产业研究报告.(2021-07-14)[2023-7-13].https://pdf.dfcfw.com/pdf/H3_AP202108051508251386_1.pdf?1628203953000.pdf.。在工业领域,图像识别和视觉检测技术被广泛应用于生产管理及生产线的自动化和质量控制过程中,机器视觉系统通过深度学习等算法对庞大数据量进行训练,从而能够精准识别目标对象。例如,识别500万张人脸图像需0.04 EFlops算力[11]。
(2)教育领域是算力发挥作用的另一潜在领域。综合来看,教育领域对算力的需求主要分布在研究实验、智能学习、交互式学习等方面[12]。① 在研究实验领域,大数据智能、类脑智能计算和量子智能计算等基础理论研究对算力资源提出巨大需求[13]。其中,维持类脑计算在超算平台运行需要1 EFlops,相当于1.6万片CPU核处理器的计算能力⑩人民网.类脑:人工智能的终极目标?.(2023-02-07)[2023-07-13].http://it.people.com.cn/n/2015/0716/c1009-27312146.html.。② 在智能学习领域,大型开放式网络课程(MOOC)等智能化教育云平台涉及视频压缩、解压缩算法、带宽管理和网络传输优化等多项技术的融合应用,这些技术手段均需要稳定且庞大的算力支撑,确保学生和教师之间的实时交流。③ 在交互式学习领域,算力具有强大的计算机系统,可以支持构建虚拟实验并模拟学习环境[14]。华为《智能世界2030》报告指出,三维建模的算力需求较以往传统建模技术增加100倍,仅华为云技术运行一次三维建模就需约0.011 EFlops的算力⑪华为.智能世界2030.(2021-09-22)[2023-7-13].https://www.huawei.com/cn/giv.。
(3)医学成为算力应用的又一潜在领域。当前,人工智能技术已经被医疗机构和生命科学组织广泛接受。计算机视觉和图像处理技术被用于分析和解释医学影像,如X光照射、电子计算机断层扫描和基因组分析等[15]。医学影像通常需要进行图像预处理以改善图像质量并减少噪声,涉及去噪、伪影去除、几何校正和图像增强等步骤。通过X光照射无创成像需要使用24 576个GPU,算力达到0.065 EFlops[16]。在基因组分析研究中,大规模基因组数据的处理和分析需要使用高性能计算集群或分布式计算系统。这些复杂任务多基于GPU的基因组学分析软件,如BWA-MEM算法、GATK工具包和STAR软件等的支持,运行1万次基因组学分析软件就需约0.01 EFlops的计算能力⑫Zhang Q, Liu H, Bu F.High performance of a GPU-accelerated variant calling tool in genome data analysis.(2021-12-12)[2023-5-15].https://www.biorxiv.org/content/10.1101/2021.12.12.472266v1.。
随着数字经济发展,人工智能和产业数字化等多样化的算力需求场景不断涌现。预计到2030年,全球由人工智能发展带来的算力需求将在2020年的人工智能算力需求基础上增长500倍,超过1.05×105EFlops⑪。为进一步探究未来5年我国的算力发展规模,本文基于各类型算力规模数据,建立自回归差分移动平均模型(ARIMA模型,详见本文“附录1”部分),通过捕捉时间序列数据中的长期依赖关系对我国未来算力需求发展进行了预测。
在此基础上,根据我国2016—2021年的算力需求历史数据⑥,通过对其特征序列进行训练,捕捉了时间序列数据中的长期依赖关系,进而预测我国未来的算力需求。图2展示了算力预测模型的基本框架,在算力预测模型开发成功的基础上,本文利用平稳性检验、白噪声检验等策略,进一步优化了算力预测模型。根据本文建立的预测模型,得到了我国未来算力发展规模和结构变化的主要预测结果(图3和4),相关结论如下。
图2 我国算力预测模型的基本框架Figure 2 Basic framework of model for predicting China’s computing power
图3 2016—2026年我国算力发展规模Figure 3 Scale forecast of computing power development in China from 2016 to 2026
(1)我国算力发展规模持续增长。根据预测结果,2022年我国算力总规模达315 EFlops,预计到2026年我国算力总规模将进入每秒10万亿亿次浮点运算时代,达到767 EFlops。
(2)基础算力、智能算力、超算算力分别呈现稳定增长、迅速增长、持续增长的态势,2016—2026年的年平均增速分别达18.99%、78.97%、23.45%。在大数据、人工智能、云计算等新一代信息技术的驱动下,智能算力发展迅猛,预计到2026年我国智能算力规模将达到561 EFlops。此增长趋势主要得益于各领域不断加快的智能化升级步伐,各领域对智能算力的需求与日俱增,不断推动智能算力规模的持续高速增长。
(3)我国算力结构持续优化。随着各领域对智能算力需求不断增长,我国算力结构也在不断演变(图4),尽管基础算力呈现稳定增长态势,但预计基础算力占总算力规模的比重将从2016年的95%下降至2026年的26%,智能算力占总算力规模的比重则从2016年的3%攀升至2026年的73%,同期我国超算算力在总体算力规模中呈现出稳定的上升趋势。
图4 2016—2026年我国算力发展结构变化Figure 4 Structural changes in development of China’s computing power from 2016 to 2026
本文从2个角度测算我国算力的电力能耗。
(1)对承载算力的基础设施(如数据中心)能耗进行预测。数据中心的电力能耗主要来源于信息技术(IT)设备、制冷设备、供配电系统和照明等其他设备的能源消耗,其电力成本占运营总成本的60%—70%⑬中国信息通信研究院.数据中心白皮书(2022年).(2022-4-22)[2023-7-13].http://www.caict.ac.cn/kxyj/qwfb/bps/202204/P020220422707354529853.pdf.。据报道数据显示,2022年,我国所有数据中心的耗电量约2 700亿千瓦时,超过2座三峡水电站的年发电量[8]。通过对我国2016—2021年的算力规模和数据中心用电量数据展开分析,推测每使用1 EFlops算力所需的年耗电量约为8亿—12亿千瓦时,并且这个数值随时间的推移呈下降趋势。这种下降趋势可以部分归因于广泛应用的节能环保创新技术和相关节能政策的推动作用,新兴技术的替换和节能方案的采用有效提高了数据中心的能源利用效率,使得每单位算力所需的电力消耗逐渐减少。2022年,我国数据中心的算力总规模达315 EFlops,数据中心数量达8.5万个;相当于每个数据中心平均算力为3.7×10–3EFlops,1年至少需要耗电约317.7万千瓦时。结合上述预测的2026年我国算力总规模和每1 EFlops算力所需的年耗电量,预计到2026年,我国所有数据中心所需年耗电量至少达到6 000亿千瓦时,数据中心耗电量占我国用电量比重预计将从2016年的1.86%增长至2026年的6.06%(图5)[17]。
图5 2016—2026年我国数据中心耗电量及其耗电量占我国用电量百分比Figure 5 Electricity consumption of data centers in China and percentage of their electricity consumption in country’s total electricity consumption from 2016 to 2026
(2)对算力应用实例的能耗分析。算力在人工智能领域中扮演着重要的角色,其可以执行复杂计算,并能为训练深度学习模型提供必要的计算能力支持。① ChatGPT的实例。ChatGPT作为一种基于人工智能技术的自然语言处理模型,是在稳定且充足的算力支撑下使用的,GhatGPT是大型企业与科研机构应用人工智能技术协同创新的典型范例之一。本文以ChatGPT为例,探究其背后的算力资源使用和电力消耗情况,推算未来我国大模型应用的算力资源需求和电力消耗。以美国成立的人工智能研究公司OpenAI训练一次13亿参数的GPT-3XL模型⑭GPT-3模型采用了基于Transformer(一种基于自注意力机制的深度学习模型)的架构。GPT-3 XL模型相较于GPT-3模型参数量增大,随着规模的增大,其对文本的理解能力和生成能力也会相应提升,但同时也伴随着算力资源消耗的增加。为例,其需要的算力约为0.027 5 EFlops。考虑到ChatGPT训练所用的模型是基于13亿参数的GPT-3.5模型⑮由于GPT-3模型无法理解不属于其范式语言指令,因此GPT-3.5模型得以延伸。ChatGPT正是基于GPT-3.5的基础模型框架进行了改进和优化。微调而来,参数量与GPT-3XL模型接近[18]。因此,本文设定ChatGPT训练一次,所需算力约0.027 5 EFlops。假设ChatGPT每年至少需要训练50次,则预计1年需1.375 EFlops算力,年耗电量至少需要11.83亿千瓦时。综合考虑输入文本长度、模型维度和模型层数等因素,本文估算每次访问ChatGPT查询一个问题大约需要2.92×10–10EFlops算力,耗电量约为0.003 96千瓦时。假设ChatGPT每日有2亿次咨询量,预计每日至少需要0.058 4 EFlops算力,则需耗电79.2万千瓦时。② 我国大模型的实例。截至2023年5月,我国已发布了79个10亿级参数规模以上的大模型。假设各模型每年至少需要训练50次,每次计算所需要的算力资源和电力消耗与ChatGPT模型接近,预计1年需109 EFlops算力,年耗电量至少934.6亿千瓦时。需要注意的是,该结果仅反映了人工智能领域的算力能耗需求。若考虑在所有垂直应用场景下,我国对算力资源和电力能源的需求将会激增。
总体而言,无论是从数据中心的基础能耗还是新兴领域的未来发展来看,算力资源的需求量和电力能耗量都将持续攀升,这可能进一步增加我国用能负担和碳排放总量。
我国算力需求总体呈爆炸式增长趋势,高能耗问题较为突出。不仅如此,我国算力发展还面临资源供需失衡、协同使用效率不足等方面问题,这些都制约了算力的绿色低碳转型。算力发展面临的问题具体包括3个方面。
(1)整体布局较分散,集约化水平不高。尽管各行业数据中心不断涌现,算力规模爆发式增长,但各单位间缺乏有效联通,导致“数据中心孤岛”“云孤岛”等现象频频出现[19],算力资源利用率低。此外,单体数据中心整体规模偏小,规模受限,后期扩容难,面临利用率低(如数据中心平均利用率不足60%,算力利用率仅30%)、能耗高(平均PUE⑯PUE(Power Usage Effectiveness)即电能使用效率,是指数据中心总设备能耗与IT设备能耗之比,用于衡量数据中心能源效率。比值越接近1,表明数据中心的电大部分都被服务器、网络设备、存储设备消耗掉,能耗效率高。>1.5)⑰科智咨询.2022—2023年中国IDC行业发展研究报告.(2023-03-17)[2023-7-13].http://www.idcquan.com/Special/2023quan‐guoBG/.、迁移成本增加等问题[20]。
(2)资源分配不均衡,供需两端不匹配。当前,我国算力资源整体呈现“东部不足、西部过剩”的不均衡局面。数据中心的规模通常通过标准机架数量来衡量,一般情况下,机架数越多,数据中心的算力规模也就越大。尽管东西部用机架数的比例约为7∶3,东部地区的算力资源远比西部地区丰富;但由于算力需求多集中在创新能力强的东部地区,东部地区仍面临算力资源紧张的问题。如北京、上海、广州和深圳等一线城市面临算力资源短缺压力,平均缺口率达25%。中西部地区能源充裕但算力资源产能过剩,西部地区产能过剩现象尤为突出,供给量超出需求量15%以上⑱中华人民共和国工业和信息化部.全国数据中心应用发展指引(2018).(2019-05-10)[2023-7-13].https://wap.miit.gov.cn/xwdt/gxdt/sjdt/art/2020/art_489cabc8a4484148bbb9ad74d389cc81.html.。
(3)缺乏算力设施协同共享机制。“东数西算”工程全面启动后,各算力枢纽节点、数据中心集群加大投资建设力度,有效提升了数字基础设施的整体水平,进一步优化了数据处理和存储的效率。但缺少任务协同和资源共享机制,导致算力节点通过网络灵活高效调配算力资源的能力不足,算力设施“忙闲不均”,极大制约了能源效率的提升。中国数据中心产业发展联盟统计数据显示,我国西部的数据中心资源整体空置率超过50%,部分地区机房上架率不足10%[21]。算力基础设施多采用电力供能,即使算力资源未被充分利用,为确保数据安全和设备稳定,算力基础设施仍需持续运转,产生无效的能源消耗。
算力已成为支撑数字经济发展的关键动力,其绿色低碳转型需兼顾发展和安全2个角度。针对我国算力发展的巨大需求及面临的问题,如何在保障算力基础设施用电充足稳定的前提下实现绿色低碳转型,成为解决该问题的重要突破口。本文针对我国算力绿色低碳转型提出以下6个方面的对策与建议。
(1)加强算力顶层设计,推进算—网融合发展。① 转变算力资源建设理念,加强算力资源的统筹发展。实现算力资源建设由无序发展向统筹推进转变,破解算力供需失衡的矛盾。根据政策导向和各地具体情况,信息产业部门应成立专门的算力规划与管理部门,该部门主要负责算力资源整体规划、能耗管理、标准制定等工作,该部门的成立有助于优化算力资源的综合效益和可持续发展能力,推动绿色低碳转型,促进行业规范化和协同发展。② 优化多层级算力基础设施体系。该体系的顶层是高性能计算中心(如国家超算中心),中层是区域级或行业计算中心,底层是企业级算力资源(如私有云算力、边缘算力)。相关部门应实施统一的管理并制定统一的调度措施,实现各层级算力资源互联互通,有效提高资源利用效率,促进算力资源节能降耗发展。③ 统筹布局,打造区域算力调度指挥平台。联通各区域间的分散算力,实现区域级算力资源一体化调度管理,按需调度算力资源,盘活社会算力价值,提升算力利用效率,降低单位能耗。
(2)优化算力资源布局,降低算力利用能耗。① 多层面、多维度优化算力基础设施区域布局。综合用户分布、经济与技术可行性等数据优化新型数据中心布局。通过分布式设计,将高频计算设备迁移至温度较低、水电资源丰富的地区,进一步解决散热难题,降低能耗成本。② 进一步优化算力对能耗指标分配。地方政府部门应强化审批,对于区域内数据中心机房总体上架率不足50%的地区,不支持规划新的数据中心项目。科学评估并提高数据中心建设规模与区域数字经济发展需求的匹配度,将有限能耗指标更多分配于更绿色高效的项目。③ 加速改造升级“老旧小散”数据中心。推动存量“老旧小散”数据中心融合、迁移和改造升级,融入、迁移至新型数据中心,提高“老旧小散”数据中心能源利用效率和算力供给能力。
(3)加大绿色研发创新,健全算力生态体系。① 加大绿色算力基础设施关键技术研发。数据中心应联合高等院校及科研机构大力开展液冷、高压直流电、模块化UPS等绿色高效技术⑲UPS(Uninterruptible Power Supply)即不间断电源,是将蓄电池与主机相连接,通过主机逆变器等模块电路将直流电转换成市电(交流电)的系统设备。模块化UPS相较于传统UPS采用模块化结构,可以方便地安装和扩容。功率部分是由许多模块并联在一起,不分主从,互不依赖,均分负载。并且所有模块均采用热插拔,只要有备用模块,用户可以自己进行维护。,推动氢能、可再生能源、碳捕集与封存技术等领域“绿电”创新技术研发。② 着重推广现有绿色节能先进成果。行业龙头及其联合体应加快已有绿色低碳技术、绿色产品转化应用,为解决数据中心高能耗问题提供新思路。如深圳海兰云数据中心科技有限公司构建的全球首例商用海底数据中心,为制冷降耗提供了解决方案。传统的数据中心用于制冷的电能消耗占总耗电量的1/3,而同等体量的海底数据中心耗电量仅占约10%[22]。③ 建设绿色数据中心供电系统。数据中心应采用节能、环保的硬件设备和运维方式,结合可再生能源和能源存储技术,实现数据中心的绿色清洁供电。④ 制定统一的算力接入标准和接口规范。信息产业部门应积极推动行业标准化、产品通用化,促进关于产品兼容性测试规范和标准的制定,实现不同的算力产品仍具有良好的互操作性和兼容性。
(4)完善能耗监管机制,夯实算力监管体系。① 建立健全算力基础设施全生命周期评价体系。各地政府应强化算力基础设施和智能运营维护建设,将算力设备接入能耗监测平台,实时采集用电数据,实现对全系统算力设备的实时监控,有效调度算力资源和计算任务,错峰使用算力资源,提升能效。② 完善数据中心绿色监管与评价体系。以电能利用效率、水资源利用效率、碳利用效率等关键指标作为切入点,加快完善算力基础设施的绿色低碳管理体系,包括对引入节能产品和节能系统、利用可再生能源等手段的使用管理。形成计算/数据中心规模、上架率、能耗水平等底数清单,健全包括基础用电、用能以及算力效率指标的绿色数据中心评价体系。
(5)完善算力租赁制度,创新算力商业模式。① 构建面向用户开放的算力统一运营平台,实现算力服务的“一键式订购”和“弹性调节”。政府应鼓励企业联合大学、科研院所利用区块链等前沿技术完善改进多方算力供给交易平台,以应对多方交易过程中存在的信任缺失难题。② 建立和完善算力租赁制度。实现算力交易的智能化、公平化、泛在化、可溯化和可信化,减少无效算力资源的浪费。③ 构建动态收费策略。各地发展和改革委员会需分时段对算力资源进行定价和管理,通过价格机制倒逼算力资源绿色高效利用。
(6)用好算力余热资源,实现绿色集约发展。① 探索扩大数据中心能源的回收利用体系。建立有效的余热利用系统,将数据中心产出的高温余热转化为电能或供热能源,并将此部分能源用于建筑供暖和工业供热,实现资源循环利用。② 强化对数据中心余热回收利用技术的政策支持。提高余热回收利用技术在《绿色数据中心评价指标体系》中的考核权重,对投资建设余热回收设备的计算/数据中心给予相应的资金补贴支持等,推动实现算力绿色集约式发展。
附录1 ARIMA模型
ARIMA模型是一种经典的自回归时间序列预测模型,该模型既可以捕捉数据的趋势变化,又能处理突变和噪声较大的数据,常用于预测不同事物的发展趋势。
由于收集到我国算力需求的原始数据呈持续上升呈非平稳特征,需要对其进行差分处理,p是自回归阶数,d代表差分阶数,q为移动平均阶数,对我国未来算力需求发展的预测可以表达为ARIMA (p,d,q)。
其表达式如下:
其中,yt为当前值,μ为常数,γi为自相关系数,εt为误差项。
ARIMA模型建立的前提:
(1)我国未来算力需求数据在某种程度上是稳定的。若数据存在明显的趋势变化,那么ARIMA模型可能无法准确地捕捉这些特征,导致预测结果出现偏差。
(2)所使用的历史算力需求数据可靠且准确,没有数据质量上的偏差或错误。若历史数据存在缺失、异常值或其他质量问题,将会影响到ARIMA模型的准确性和可靠性。
(3)外部因素对需求模式和趋势的影响可以在一定程度上被忽略或简化。若外部因素对算力需求产生了显著影响,而这些影响未被考虑在内,那么ARIMA模型就无法全面准确地进行预测。