基于Ceph的分布式存储系统跨机架修复技术分析

2024-06-20 09:04:08路岩
科技资讯 2024年3期

路岩

摘要:详细介绍了Ceph分布式储存系统的应用性质与层次结构,通过专业的研究与分析,将该类储存系统引入到跨机架修复工作中,与修复技术充分融合,实践运用过程包括设计分级解码算法、优化纠删码、修复系统数据、验证试验方案和明确跨机架数据量等,在Ceph分布式储存系统的持续影响下,高效完成跨机架修复工作,确保各类机架使用质量。

关键词:跨机架修复   纠删码   分布式储存   Ceph

中图分类号:P208

Analysis of Cross-Rack Repair Technology of the Distributed Storage System Based on Ceph

LU Yan

(China Datang Corporation Science and Technology General Research Institute Ltd.,Beijing,100040 China)

Abstract: This paper introduces the application property and hierarchy of the Ceph distributed storage system in detail, introduces this type of storage system into cross-rack repair through professional research and analysis, and fully integrates it with repair technology, The practical application process includes designing hierarchical decoding algorithms, optimizing erasure codes, repairing system data, verifying test schemes, clarifying the cross-rack data volumn, etc., and under the continuous influence of the Ceph distributed storage system, cross-rack repair work is efficiently completed, so as to ensure the use quality of all kinds of racks.

Key Words: Cross-rack repair; Erasure code; Distributed storage; Ceph

Ceph分布式储存系统随着信息技术的更新可存储大量数据,对更多数据实行科学处理。跨机架内部系统在正式使用中极易出现各项质量问题,要对系统内部数据进行科学处理,Ceph分布式储存系统作用到跨机架修复中,极大提升修复效率,帮助跨机架解决更多数据处理问题,满足修复技术操作需求。

1 Ceph分布式储存系统的应用性质

Ceph分布式储存系统在正式使用中存在去中心化、高可用与高性能的应用性质。

1.1去中心化

使用Ceph分布式储存系统可高效实现去中心化,使系统内部的各项分子扩展灵活,且线性会根据节点的增加而增长。

1.2高可用

高可用属Ceph分布式储存系统内部的重要性质。Ceph分布式储存系统中的副本数字带有灵活控制特征,并能对系统内部生出的故障进行适当分隔,实现数据一直性。使用Ceph分布式储存系统时还能设置出多种故障场景,并利用合适的技术手段自行修复故障场景内的更多故障,确保系统应用的安全性。在Ceph分布式储存系统内,不存在任何单点故障,借助系统的自动管理来增加扩展性。

  1. 高性能

影响Ceph分布式储存系统操作效果的主要因素为性能,而该项系统的性能较佳。例如:使用Ceph分布式储存系统时,可发现其能主动摒弃此前集中式储存系统内的数据寻址计划,利用CRUSH算法来加强数据分布的均衡性。当前Ceph分布式储存系统可作用在感知机架与跨机房中,高效改变负载副本的应用规则。由于分布式储存系统的内部数据较多,使用Ceph储存系统后可适当增加数据节点规模,支持分布式储存体系内各个级别的数据,其数据范围可由TB级至PB级。

2 Ceph分布式储存系统的层次结构

在明确Ceph分布式储存系统的内在性质后,还要全面研究该储存系统的层次结构,为此后对该系统的持续性使用增加清晰度。具体来看,当前Ceph分布式储存系统包含应用层、文件系统接口、MDS元数据服务器、RBD块储存接口、RADOS GW对象储存接口、LIBRAODS基础库与RADOS基础储存系统。在RADOS基础储存系统中,要明确储存对象条件,即储存中的数据要带有分布式、自动化与可靠等特征,Ceph集群架构与raid10模式较为相近[1]。鉴于可插硬盘中单台机器的数量有限,可利用网络通信形式来打破单台机器限制,即组合成RADOS基础储存系统。LIBRAODS基础库内部包含大量基础数据,MDS元数据服务器、RBD块储存接口、RADOS GW对象储存接口中的数据都可进入到LIBRAODS基础库中,并对不同部分数据进行整合分析,确保各个服务器与储存接口数据的使用效果,提升数据应用的准确性。文件系统接口中的数据类型较多,元数据与普通数据为该系统接口的主要数据来源,利用技术手段将普通数据传输到LIBRAODS基础库内;将元数据传输到MDS元数据服务器中,利用对各项数据的分类操作处理,极大提升数据处理使用的准确性,满足Ceph分布式储存系统的数据应用需求。科学探索分布式储存系统的层次结构后,操作人员要合理观察系统应用环境,将该系统作用到合适的技术处理中,更好地发挥出系统储存优势。

当前跨机架修复工作属于全新的机架修复形式,极大提升机架修复效率。为提升跨机架修复技术的应用效果,确保修复数据的准确性,操作人员适时引入了Ceph分布式储存系统,将该系统作用到修复技术中,全面规范该类修复手段的操作过程,使机架修复工作更具持续性。

3 分布式储存系统修复技术的实践运用

3.1设计分级解码算法

为提升Ceph分布式储存系统在跨机架修复技术中的应用效果,要科学设计分级解码算法。具体来看,操作人员将跨机架数量设置成3个,将9个编码块放置到3个机架内,即各个机架都存在3个编码块,将各个编码块的容量设置成4MB,且可重新架构6个存活性编码块,数据传输量可设定在24MB左右,该类数据将利用交换机将各项数据传输量传输至对应节点中,若系统规模大,且各个编码块都要开展恢复工作时,交换机内部生成的0宽带会极大阻碍编码解码效果。在使用Ceph分布式储存系统后,要利用技术手段,重新设计分级解码工作,优化解码算法。分级解码工作原理主要为率先设置k个数据块,鉴于RS系统带有纠删码功能,可说明各项原始数据块即使开展编码工作,其数据块中的内部数据也会保持不变。相关人员在明确分级解码操作原理后,可直接访问原始数据块,其编码过程多将数据矩阵与各项原始数据块相融合,并对编码数据库进行适当检验[2]。为增加Ceph分布式储存系统内部数据的修复功能,可将丢失的数据块信息进行合理整合,利用修复技术来恢复各个编码块,明确解码结果。当前恢复丢失的板块数据包含机架数、各级节点,再对各级节点进行分级解码,将解码后的数据重新传输到Ceph分布式储存系统中。

3.2优化纠删码

优化纠删码为Ceph分布式储存系统跨机架修复技术操作中的重要步骤。操作人员在修复难以恢复的数据时,要及时选择相同数据带内的存活节点来开展数据传输工作,可将该类存活节点设置成k,k项节点内的各项数据要对恢复数据开展解码工作,再将解码后的数据重新传输到恢复装置中。为更好地优化纠删码,可采用CHD算法进行数据解码工作。比如,各个机架中的数据在开展跨机架数据传输前,都要依照聚合效应对机架中的各项数据进行分级解码,再利用网络中心将该项解码结果传输到其他机架的各个节点中。针对机架A1来说,可在机架内部挑选出2个节点,并用n1、n2表示,2个节点中的数据在进入到其他机架前,要分别开展数据解码工作,可将n2中的数据传输到n1节点内,继而聚合n1与n2中的内部数据,再将聚合以后的数据结果借助网络中心传输至指定节点中。在完成数据编码的重新处理后,可发现在优化纠删码的过程中,有效缩减机架内部的网络传输量,缩减量可达到50%左右,不断削弱各项节点内的网络负担,降低数据重组时间,提升纠删码优化效果。

3.3修复系统数据

操作人员将Ceph分布式储存系统作用到跨机架修复技术中,要利用全新系统来修复更多数据,而在修复相关数据前,要明确分级解码流程,对解码过程中涉及到的更多数据指标进行科学规范。启动“开始”按钮后,利用信息技术来标记出已经丢失的数据块,并借助程序明确可用数据块的数量,若相关数据块处在无法修复状态,则可“结束”相关程序。当数据块处在可修复范围中时,则要借助程序挑选出可用数据块,将该类数据块依照不同机架开展分组工作[3]。操作人员需借用程序将各个数据节点进行分级解码,并将解码结果顺利传输到不同的主节点内,各个主节点在接收到机架数据后,则要对丢失或存有异常的数据进行高效整合,再启动“结束”按钮。在探索主节点内的机架数据时,要全面规范机架信息,将分组后的机架数据依照解码结果来开展数据传输工作,并进行必要的节点缓存,读取未接收的机架数据。在明确分级解码过程后,操作人员要合理探索Ceph分布式储存系统中的通信问题,找寻出影响通信质量的消息函数,再将该类函数数据开展分级解码工作,合理读取解码后的数据,满足当前跨机架系统数据恢复需求。

3.4验证试验方案

利用Ceph分布式储存系统完成跨机架数据修复工作后,为确保该项修复数据的准确性,要对此前的试验方案进行重新设计验证。操作人员要全面评估试验操作环境,明确评估环境中的主要位置,即带有RS参数码的分布系统内。观察Ceph分布式储存系统内部数据分布情况时,要事先挑选节点数少的数据量,防止出现修复流量增加等不良现象。试验验证方案中的环境评估主要包含修复时间、修复量。针对修复时间而言,要详细检测当前跨机架数据修复工作的时间,并与此前传统修复时间、修复时间标准进行合理比对,通过比对可发现,Ceph分布式储存系统应用的修复时间较短,且提升修复效率[4]。而对于修复量来说,跨机架网络下的修复量多作用在CHD算法中,该项算法在实际运用时极大缩减网络传输量,在传输数量得到控制的情况下,网络修复量可得到极大改善。完成操作环境的精准评估后,还要根据Ceph分布式储存系统的使用状态设计评估方法。当前操作人员采用的评估方式为CHD算法,在集群内部输入1000个对象,各个对象都要存在对应条带,再将各个条带内的校验块、数据块分布到集群内部的各项节点中,做到每个节点都带有数据块。若想更好地评估数据块内的恢复性能,则需随意挑选1个节点,并抹去该节点内部的储存数据,再利用此前设定的CHD算法合理聚合机架内部的各项数据,将抹去数据的节点当成数据源,确保跨机架数据修复效果[5]。

3.5明确跨机架数据量

在确认跨机架数据量的过程中,操作人员仍要合理运用分级解码形式,关注数据量的具体变化情况。例如:分级解码方式可将各项数据利用机架传输到不同类型的主节点中,并在分级解码工作开始前,要将分级节点中的更多数据开展聚合活动,再将聚合以后的结果重新利用机架输送到各个主节点中,确保分级解码工作的整体效率,不断缩减网络传输量[6]。将跨机架内部数据传输量设计成成M与K两种参数,要根据该项参数的具体变化来观察出数据传输量的改变范围。操作人员在相关试验中逐步增加了M与K参数的变化值,在分级解码算法的逐步影响下,网络传输量也出现了较大改变。例如:当M与K分别为4、10时,跨机架需要修复的数据量则缩减到70%,引发该项数值的主要变化原因为若机架数确定,随着M与K值的上升,机架内相同条带数据块的数量也会逐步增加,机架中数据聚合后开展的数据传输工作,与原始数据量相比,当前数据量则越来越多。若机架出现故障,机架内部的各个存储节点都存在不可用状态,利用Ceph分布式储存系统进行数据修复,仍会修复某个条带内的数据。

4结语

综上所述,Ceph分布式储存系统应用到跨机架修复技术中,可全面规划跨机架内部数据运行状态。操作人员借助纠删码的优化处理,科学观察修复数据的具体变化,并通过对试验方案的持续性验证来掌握恢复时间、跨机架数量,极大提升跨机架修复技术操作效率,加强数据储存质量,确保跨机架内部修复项目整体修复效果。

参考文献

[1] 李婵,刘焕莉,刘雨晴,等.基于分布式存储及消息同步技术的元数据管理应用系统[J].软件,2022,43(12):60-63.

[2] 崔晓雪,陈文捷,陈敏刚.分布式列存储数据库性能测试方法研究[J].信息技术与标准化,2022(11):34-39.

[3] 杨超,信晟,张悦,等.一种改进的分布式HCI图像数据管理技术[J].无线互联科技,2022,19(15):82-85,93.

[4] 赵爱华,黄少雄,宋光明,等.中压环境下多种数据的分布式存储与并行计算系统设计[J].单片机与嵌入式系统应用,2022,22(6):6-10.

[5] 郑杰辉.分布式存储系统的节点修复技术研究[J].太原学院学报(自然科学版),2021,39(1):48-52.

[6] 杨青霖,吴桂勇,张广艳.分布式存储系统中的数据高效缓存方法[J].大数据,2021,7(2):147-157.