基于少量数据集的三维点云生成模型

2024-11-07 00:00张渊杰沈洋许浩包艳霞应震
软件工程 2024年11期

摘要:针对生成对抗网络(GAN)需要大量训练数据及点云数据稀缺且获取难度大的问题,提出一种基于少量数据集的三维点云生成模型。该模型首先通过重采样和水平旋转的方法实现数据增强,使第一级网络能够生成具有多样性的低分辨率点云;其次通过确保低分辨率点云与高分辨率点云之间的对应关系,实现点云的超分辨率生成;最后实现生成具有多样性的高分辨率点云。实验结果表明,在ShapeNetPart(ShapeNetPartSegmentationDataset)数据集上,该模型的JS散度相较于Tree\|GAN的JS散度下降了0.416,证明其性能优于Tree\|GAN。

关键词:GAN;少量点云数据;重采样;数据增强;超分辨率

中图分类号:TP391文献标志码:A

0引言(Introduction)

点云生成是计算机视觉领域的一个研究热点,它弥补了二维图像无法直接捕捉现实世界中物体的深度信息,不适用于需要深度和位置信息的场景。当前,三维数据集在机器人导航[1]、自动驾驶汽车[2\|3]、增强现实[4]和医疗保健[5\|6]等领域得到广泛应用。原始点云凭借其紧凑且高效的数据表示形式越来越受欢迎,日益成为捕捉物体的复杂细节的首选方法。作为三维信息的一种直接体现,点云数据集在需要精确描绘物体形状和结构的应用中展现出不可替代的价值,其应用前景广阔。然而,与图像数据集相比,点云数据集存在数据稀缺和获取困难等问题。因此,探索一种创新方法,即利用有限的点云数据训练生成模型,进而生成更多的具有多样性的点云数据。这一方法的成功实现,将有望突破点云数据应用的瓶颈,推动相关领域技术的快速发展。

1方法介绍(Methodsintroduction)

在自然图像处理中,SHAHAM等[7]提出了一种用于单张自然图像训练的生成模型SinGAN。该模型可以捕捉给定图像内部各个区块的分布,生成带有与给定图像中的视觉内容相同的高质量且具有多样性的新图像。

受SinGAN思想的启发,针对点云数据稀缺问题,本文提出了一种基于少量点云数据训练学习的生成模型。该模型由两个生成器和两个判别器构成,生成器和判别器是一一对应的。点云的分辨率也就是点云中所包含的点的数量,在不同分辨率下,模型分别部署了一个生成器以及一个与之匹配的判别器,通过彼此之间的博弈,学习不同分辨率下的给定点云数据服从的分布,在推理阶段生成具有多样性的点云数据。本文贡献主要体现在两个方面:①通过对给定的输入点云数据进行重采样和水平旋转操作,实现数据增强,达到增加训练数据样本数量的目的;②通过保证低分辨率点云与高分辨率点云之间的对应关系,经过训练实现点云的超分辨率生成。

2相关研究(Relatedresearch)

近年来,基于生成对抗网络(GAN)的点云生成模型受到广泛关注。GAN是一种生成式模型,由GOODFELLOW等[8]于2014年提出,现已成为人工智能领域的热门研究方向。近期,深度神经网络在生成3D数据的应用引起了学术界的广泛关注,并催生了多种解决方案,包括从图像生成点云[9\|10]、从图像生成体素[11]、从图像生成网格[12],以及从点云生成点云[13]、从点云生成体素[14]等。生成的3D数据已广泛应用于计算机视觉领域,如图像分割[15]、分类[16]、目标检测[17\|18]和特征提取[19]等,取得了显著的成果。

当前,生成对抗网络(GAN)在自然图像处理中的应用日益广泛,例如PolaritySampling[20]方法通过控制预训练的深度生成网络,有效提升了生成图像质量和多样性;特征统计混合正则化[21](FeatureStatisticsMixingRegularization,FSMR),将FSMR添加到基于增强的GAN方法时,能进一步提高图像的质量。此外,GAN还成功应用于发型编辑(HairCLIP)[22]、风格迁移(EFDM[23]和DualStyleGAN[24])及人脸属性编辑(结合Transformer的TransEditor[25])等领域,并实现了更高分辨率图像的生成(Styleformer[26])。然而,这些方法都无法应用到点云中,这主要归因于点云数据的无序性和非结构化特性,为GAN在点云领域的应用带来了挑战。

在3D方面,GAN的应用同样展现出巨大的潜力与创新,例如有用于生成逼真合理的虚拟形象姿势的FLAG[27];有通过学习一个统一的局部翘曲函数,将多个相同的预定义先验信息(即均匀分布在规则三维网格上的点集)翘曲成由局部结构感知语义驱动的三维形状的WarpingGAN[28];LIU等[29]提出了一种用于点云上采样的Pufa\|gan;还有研究将自注意力与推理树结构相结合,基于此构建成的点云生成器SG\|GAN[30];特别值得一提的是Tree\|GAN[31],为了实现多类3D点云生成的先进性能,它引入了树结构图卷积网络(TreeGCN)作为Tree\|GAN的生成器。因为TreeGCN在树中执行图卷积,所以它可以使用祖先信息提高特征的表示能力。因此,Tree\|GAN在精度和计算效率方面优于其他基于GAN的点云生成方法。然而,GAN作为生成模型,也面临着一定的挑战。其中,对训练数据数量的需求是一个显著的问题。当训练数据过少时,GAN的生成效果往往会受到影响,导致生成的样本质量不佳。

在自然图像方面,有用于从单张自然图像中学习的无条件生成模型(SinGAN)。在SinGAN中,提出了一种可以从单张自然图像中学习的无条件生成模型,这个模型被训练用来捕获图像内部块的分布,能够生成与作为训练样本的图像具有相同视觉内容的高质量、多样化的样本。SinGAN包含一个由全卷积GAN组成的金字塔,每个生成器负责学习图像中不同尺度的区块分布,这样就可以生成任意大小和宽高比的新样本,这些新样本具有显著的多样性,与此同时还保持了训练图像的全局结构和细微纹理。SinGAN可以只使用单张自然图像所构成的训练集生成具有多样性的新图像样本,但是将其直接用于点云生成仍然存在一定问题。由于点云数据与自然图像不同,它是非结构化数据,具有无序性,无法像自然图像这类结构化数据一样进行分块操作,所以对于整体模型的设计思路要做相应的改进,通过改进后的模型可以实现使用少量点云数据生成具有多样性的点云数据的目的,解决了GAN存在的需要训练数据数量大且获取困难的问题。

3模型设计(Modeldesign)

本文提出了一个由树结构生成网络和判别器构成的金字塔型生成模型,该生成模型有两层,每一层都由一组互相对应的生成器和判别器构成,通过生成器和判别器彼此之间的博弈,学习到不同分辨率下的点云所服从的分布规律,然后将生成得到的点云作为输入送入下一层,以此获得信息更加丰富的点云,通过这种方式生成具有多样性的点云数据。

3.1树结构生成网络原理

Tree\|GAN的生成器是一种典型的树结构生成网络,它的输入是从高斯分布采样得到的一个点。在生成器的每一层级中,通过分支(Branching)操作和图卷积(GraphConv)操作生成第l组点pl,之前所有层级生成的点都被存储并附加到当前层级的树结构中,树从根节点开始,通过分支操作分裂成子节点,并通过图卷积操作修改节点。分支操作是一种增加点总数的过程,类似于2D卷积中的上采样操作。

为了增强传统GCN的性能,Tree\|GAN提出了一种用树结构增强的新型GCN(即TreeGCN)。TreeGCN通过将信息从节点的祖先传递给节点的后代,为分层GCN引入了树结构。TreeGCN的主要独特特征是每个节点是通过引用树中其祖先的值而不是其邻居的值来更新其值,本文提出的树状图卷积(TreeGCN)公式定义如下:

3.2损失函数

本文引入WGAN\|GP[32]的目标函数,生成器的损失函数Lgen定义如下:

其中:D为判别器,G为生成器,Z为潜码z所服从的潜在分布,这里采用的是正态分布N(0,I)。

判别器的损失函数Ldisc定义如下:

其中:G(z)为生成器所生成的点云;x为真实的点云样本;R表示真实的数据分布,并且使用了梯度惩罚的方法;x〖DD(-1*2〗[HT5]^〖DD)〗是从真假点云中采样的;λgp为梯度惩罚项的常系数。

3.3整体网络结构

本文提出的网络结构建立在树结构生成网络和判别器的基础上,通过由粗到精的方式生成点云,具体生成方式如下:第一级网络的生成器得到一个来自高斯分布中采样得到的点的输入,然后生成低分辨率的点云数据,将这个点云数据作为输入送入第二级网络后,得到1024个点的点云样本。

由于训练样本的数量较少,为了解决这个问题,本文使用了如下方法:在第一级网络中,使用重采样和水平旋转的方法增加训练样本的数量。第一级网络对应的是低分辨率的点云样本,此时对于一个点云样本先进行重复采样,然后进行水平旋转可以生成多个不同的样本数据。在第二级网络中,面临着重采样方法不适用和点云样本数量有限的问题,因此使用水平旋转方法,并建立低分辨率点云与高分辨率点云之间的对应关系,使用低分辨率点云生成高分辨率点云,从而保证生成点云的多样性。

整个网络是逐级训练的,完成对第一级网络的训练之后,再开始进行第二级网络的训练,整体的训练阶段流程图如图1所示。

3.4生成器网络结构

第一级网络所用的生成器的网络结构如图2所示,它是一种树结构生成网络,其生成方式是先从高斯分布中采样得到一个点作为输入(也就是根节点),然后通过图树分支操作分成多个节点,例如从(1,256)的点变成(2,256)的点,通过图卷积操作实现点的特征通道数的变化,例如从(1,96)变成(1,256),经过多次图树分支操作和图卷积操作,最终实现从(1,96)的根节点变成(128,3)的点云样本。

第二级网络中用于点云生成的网络结构如图3所示。从图3中可以看出,与第一级网络的不同之处在于生成器之前加入了一个特征池化层(关于特征池化层的具体细节在后面的小节中进行描述)。由于第一级网络生成的是点云数据,所以需要保证第二级网络能够满足点云的置换不变性,因此加入特征池化层。

3.5特征池化层

从图1中可以看到,在第二级网络使用的生成器前加入了一个特征池化层,其网络结构如图4所示。特征池化层是由几个多层感知机(MLP)和一个最大池化层组成的,这里加入特征池化层的目的是实现点云的置换不变性,提取它的一个全局特征。通过多层感知机将每一点都映射到高维空间,在更高维空间对数据做对称性操作(这里选用的是最大池化操作)。在三维点的表达中,采用高维空间不可避免地会引入信息冗余,但也正是因为信息的冗余性,通过进行对称性操作之后,可以减少信息的损失,保留足够的点云信息。在得到输入点云的全局特征以后,将其输入生成器,通过分支(Branching)操作和图卷积(GraphConv)操作生成特征信息更加丰富的点云。

3.6训练算法流程

整个网络是逐级训练的,训练完一级网络以后,再开始训练下一级网络。第一级网络的训练数据是经过重采样和水平旋转操作后得到的,它的输入是从高斯分布中采样得到的一个点,经过训练以后,可以实现通过输入从高斯分布中采样得到的点,生成具有多样性的低分辨率的点云样本。

第二级网络的训练数据是通过水平旋转操作后得到的,训练时所用的输入数据是对经过水平旋转后的点云进行最远点采样获得,同时要保证它们之间的对应关系。经过训练以后,实现输入低分辨率点云后能够生成对应的高分辨率点云。

4实验结果与分析(Experimentalresultsandanalysis)

4.1数据集及训练平台

使用ShapeNetPart数据集对本文提出的模型进行训练和评估。ShapeNetPart是一个包含16个类别的丰富数据集,其中训练集含有12137个样本,验证集1870个,测试集2874个,总计样本量达到16881个。该数据集中,样本呈现出不均衡特性,如Table类别有5263个样本,而Earphone类别只有69个样本。考虑到每个样本只包含2048个点,属于小数据集,本文从桌子类别的数据集中随机挑选了40个样本经过最远点采样得到对应的1024个点的新样本,作为训练集用于模型训练。实验平台为搭载GeForceRTX3090GPU的服务器,配置环境为Python3.8和Tensorflow2.4\|gpu。

4.2评价指标

本文使用JS散度(Jensen\|ShannonDivergence)评估生成点云的质量,JS散度是在欧几里得三维空间的边缘分布上定义的,假设条件为轴对齐的点云数据和环境空间中的规范体素网格,可以测量点云A与点云B占据相似位置的程度。通过分别计算点云A和点云B中每个体素内的点数,获得经验分布(PA,PB)之间的JSD:

其中:M=〖SX(〗1〖〗2〖SX)〗(PA+PB),D(·‖·)是两个分布之间的KL散度(Kullback\|Leiblerdivergence),KL散度是一个用来衡量两个概率分布之间相似性的度量指标,计算公式如下:

4.3参数设置

本文对生成器和判别器网络都使用了Adam优化器,学习率设置为α=10-4,其他系数分别为β1=0.001和β2=0.99。在生成器中,使用LeakyReLU(α=0.2)作为没有批归一化的非线性函数。损失函数中梯度惩罚系数设置为10,判别器每次迭代更新2次,生成器每次迭代更新一次。潜在向量z∈R96从正态分布N(0,I)中采样以作为第一级网络的输入,TreeGCN的循环项有K=10个支持。判别器的网络结构及参数如表1所示。

4.4生成新点云可视化结果

因为实现了数据增强,并且采用由粗到精的生成方式生成点云,所以在少量训练集的情况下也能生成具有多样性的点云,模型可以学习得到点云服从的概率分布。而且,由于输入第一级网络的潜码是随机采样得到的,所以会生成得到训练集中所没有的新的点云,使用的训练集和生成的新点云可视化结果如图5所示。

4.5与Tree\|GAN模型的对比实验

针对GAN在训练过程中需要大量数据的问题,当使用较少的训练集用于模型训练时,模型往往因训练不足而生成质量不佳的点云,这一现象在Tree\|GAN模型的生成结果中尤为明显。本文提出的方法使用了重采样和水平旋转操作,实现了数据增强,保证了训练数据数量的充足性,同时采用了由粗到精的方法生成点云,保证了最终生成的点云的质量及多样性。在针对“桌子”这一类别进行2000个epoch后,两个模型所生成的点云可视化结果对比如图6所示。

从图6展示的可视化结果可以看出,当使用较少的训练集进行训练时,Tree\|GAN的生成效果并不理想,具体表现为生成的点云质量不好,点的分布不均匀,并且整体点云缺乏显著的多样性。相比之下,本文提出的方法在经过相同的周期训练后生成了相对高质量的点云,点的分布相对均匀,并且具有显著的多样性。

除了比较两个模型最终生成点云的可视化结果,实验还使用了JS散度分别评估最终生成点云的质量,本文选择在“桌子”这一类别上训练2000个epoch并进行评价指标的对比,对比结果如表2所示。

从表2中的对比结果中可以看出,在使用少量训PnIJgtZ+B2U0Pon5/3J4Vw==练集并且经过相同训练周期的情况下,使用本文提出的方法生成的点云的质量要比使用Tree\|GAN生成的点云的质量好,JSD相比Tree\|GAN下降了0.416,更加接近真实点云的概率分布。

4.6消融实验

本文的生成器用到的损失函数是WGAN\|GP的目标函数,然而在图像超分辨率领域,它的生成器损失函数是基于均方误差(MeanSquareError,MSE)的,通过MSE进行逐像素点计算,以此衡量生成的图像与参考图像之间的相似度。参考图像超分辨率的损失函数,对本文模型的第二级网络使用的生成器的损失函数进行修改,加入均方误差(RootMeanSquareError,RMSE),通过RMSE进行逐点计算,以此衡量两组点云之间的相似程度,增加生成点云的质量,使之更加接近真实点云的概率分布。

因此,对初始的生成器损失函数进行修改,加入了RMSE,并在同一个数据集上训练2000个epoch后进行评价指标的对比,对比结果如表3所示。

从表3对比结果中可以看出,在生成器损失函数中加入RMSE之后,模型经过训练最终生成的点云与真实点云更加相似,JSD评价指标下降了0.2,更加接近真实点云的概率分布。

5结论(Conclusion)

本文提出了一种基于少量数据集的三维点云生成模型,使用重采样和水平旋转方法实现了数据增强,保证了训练数据充分,同时由于采用了由粗到精的方法生成点云,保证了最终生成的点云的质量和多样性。在ShapeNetPart数据集的“桌子”这一类别上与Tree\|GAN进行了生成点云的可视化结果对比以及JSD评价指标的对比,结果均表明本文提出的方法在使用较少训练集的情况下生成的点云质量优于Tree\|GAN。后续将针对网络进行持续改进,尝试对生成点云的特征进行控制,例如特征混合等。

参考文献(References)

[1]WANGXX,MIZUKAMIY,TADAM,etal.Navigationofamobilerobotinadynamicenvironmentusingapointcloudmap[J].Artificiallifeandrobotics,2021,26(1):10\|20.

[2]CHENSH,LIUBA,FENGC,etal.3Dpointcloudprocessingandlearningforautonomousdriving:impactingmapcreation,localization,andperception[J].IEEEsignalprocessingmagazine,2021,38(1):68\|86.

[3]PARKJ,KIMC,KIMS,etal.PCSCNet:fast3DsemanticsegmentationofLiDARpointcloudforautonomouscarusingpointconvolutionandsparseconvolutionnetwork[J].Expertsystemswithapplications,2023,212:118815.

[4]ZHOUJQ,XUH,MAZ,etal.Sparsepointcloudgenerationbasedonturntable2Dlidarandpointcloudassemblyinaugmentedrealityenvironment[C]∥I2MTC.ProceedingsoftheIEEEInternationalInstrumentationandMeasurementTechnologyConference.Glasgow:IEEE,2021:1\|6.

[5]CHENRJ,LUMY,SHABANM,etal.Wholeslideimagesare2Dpointclouds:Context\|awaresurvivalpredictionusingpatch\|basedgraphconvolutionalnetworks[C]∥MICCAI.ProceedingsoftheMICCAIMedicalImageComputingandComputerAssistedIntervention.Strasbourg:MICCAI,2021:339\|349.

[6]KAMENCAYP,SINKOM,HUDECR,etal.Improvedfeaturepointalgorithmfor3Dpointcloudregistration[C]∥TSP.Proceedings&jrznSLlazfbPbU45bzRHl0spAmZnyu17o8eVtEpVKuU=nbsp;oftheIEEEInternationalConferenceonTelecommunicationsandSignalProcessing.Budapest:IEEE,2019:517\|520.

[7]SHAHAMTR,DEKELT,MICHAELIT.Singan:learningagenerativemodelfromasinglenaturalimage[C]∥MORTENSENE.ProceedingsoftheIEEE/CVFInternationalConferenceonComputerVision.NewYork:IEEE,2019:4570\|4580.

[8]GOODFELLOWI,POUGET\|ABADIEJ,MIRZAM,etal.Generativeadversarialnets[J].Advancesinneuralinformationprocessingsystems,2014,27.

[9]LIJX,LEEGH.DeepI2P:image\|to\|pointcloudregistrationviadeepclassification[C]∥BRENDELW.Proceedingsofthe2021IEEE/CVFConferenceonComputerVisionandPatternRecognition.Nashville:IEEE,2021:15960\|15969.

[10]LIUFM,LIUX.Voxel\|based3Ddetectionandreconstructionofmultipleobjectsfromasingleimage[J].Advancesinneuralinformationprocessingsystems,2021,34:2413\|2426.

[11]RUKHOVICHD,VORONTSOVAA,KONUSHINA.Imvoxelnet:imagetovoxelsprojectionformonocularandmulti\|viewgeneral\|purpose3Dobjectdetection[C]∥WACV.ProceedingsoftheIEEE/CVFWinterConferenceonApplicationsofComputerVision.Waikoloa:IEEE,2022:2397\|2406.

[12]WANGYY,XUJG,SUNYF.End\|to\|endtransformerbasedmodelforimagecaptioning[J].ProceedingsoftheAAAIconferenceonartificialintelligence,2022,36(3):2585\|2594.

[13]YANGYQ,FENGC,SHENYR,etal.Foldingnet:pointcloudauto\|encoderviadeepgriddeformation[C]∥BRENDELW.ProceedingsoftheIEEEConferenceonComputerVisionandPatternRecognition.SaltLakeCity:IEEE,2018:206\|215.

[14]ZHOUY,TUZELO.Voxelnet:end\|to\|endlearningforpointcloudbased3Dobjectdetection[C]∥BRENDELW.ProceedingsoftheIEEEConferenceonComputerVisionandPatternRecognition.SaltLakeCity:IEEE,2018:4490\|4499.

[15][JP3]缪永伟,刘家宗,孙瑜亮,等.基于类别\|实例分割的室内点云场景修复补全[J].计算机学报,2021,44(11):2189\|2202.

[16]CHARLESRQ,HAOS,MOKC,etal.PointNet:deeplearningonpointsetsfor3Dclassificationandsegmentation[C]∥2017IEEEConferenceonComputerVisionandPatternRecognition.IEEE,2017:77\|85.

[17]钟宇,张静,张华,等.基于目标检测的机器人手眼标定方法[J].计算机工程,2022,48(3):100\|106.

[18]LIZL,QUZ,ZHOUY,etal.Diversitymatters:fullyexploitingdepthcluesforreliablemonocular3Dobjectdetection[C]∥DANAK.ProceedingsoftheIEEE/CVFConferenceonComputerVisionandPatternRecognition.NewOrleans:IEEE,2022:2791\|2800.

[19]DAIJJ,WEIMQ,XIEQ,etal.Aircraftseamfeatureextractionfrom3Drawpointcloudviahierarchicalmulti\|structurefitting[J].Computer\|aideddesign,2021,130:102945.

[20]HUMAYUNAI,BALESTRIEROR,BARANIUKR.Polaritysampling:qualityanddiversitycontrolofpre\|trainedgenerativenetworksviasingularvalues[C]∥DANAK.ProceedingsoftheIEEE/CVFConferenceonComputerVisionandPatternRecognition.NewOrleans:IEEE,2022:10641\|10650.

[21]KIMJ,CHOIY,UHY.Featurestatisticsmixingregularizationforgenerativeadversarialnetworks[C]∥DANAK.ProceedingsoftheIEEE/CVFConferenceonComputerVisionandPatternRecognition.NewOrleans:IEEE,2022:11294\|11303.

[22]WEITY,CHENDD,ZHOUWB,et al.Hairclip:designyourhairbytextandreferenceimage[C]∥DANAK.ProceedingsoftheIEEE/CVFConferenceonComputerVisionandPatternRecognition.NewOrleans:IEEE,2022:18072\|18081.

[23]ZHANGYB,LIMH,LIRH,etal.Exactfeaturedistributionmatchingforarbitrarystyletransferanddomaingeneralization[C]∥DANAK.ProceedingsoftheIEEE/CVFConferenceonComputerVisionandPatternRecognition.NewOrleans:IEEE,2022:8035\|8045.

[24]YANGS,JIANGLM,LIUZW,etal.Pastichemaster:exemplar\|basedhigh\|resolutionportraitstyletransfer[C]∥DANAK.ProceedingsoftheIEEE/CVFConferenceonComputerVisionandPatternRecognition.NewOrleans:IEEE,2022:7693\|7702.

[25]XUYB,YINYQ,JIANGLM,etal.Transeditor:transformer\|baseddual\|spaceganforhighlycontrollablefacialediting[C]∥DANAK.ProceedingsoftheIEEE/CVFConferenceonComputerVisionandPatternRecognition.NewOrleans:IEEE,2022:7683\|7692.

[26]PARKJ,KIMY.Styleformer:transformerbasedgenerativeadversarialnetworkswithstylevector[C]∥DANAK.ProceedingsoftheIEEE/CVFConferenceonComputerVisionandPatternRecognition.NewOrleans:IEEE,2022:8983\|8992.

[27]ALIAKBARIANS,CAMERONP,BOGOF,etal.Flag:flow\|based3Davatargenerationfromsparseobservations[C]∥DANAK.ProceedingsoftheIEEE/CVFConferenceonComputerVisionandPatternRecognition.NewOrleans:IEEE,2022:13253\|13262.

[28]TANGYZ,QIANY,ZHANGQJ,etal.WarpingGAN:warpingmultipleuniformpriorsforadversarial3Dpointcloudgeneration[C]∥DANAK.ProceedingsoftheIEEE/CVFConferenceonComputerVisionandPatternRecognition.NewOrleans:IEEE,2022:6397\|6405.

[29]LIUH,YUANH,HOUJH,etal.PUFA\|GAN:afrequency\|awaregenerativeadversarialnetworkfor3Dpointcloudupsampling[J].IEEEtransactionsonimageprocessing:apublicationoftheieeesignalprocessingsociety,2022,31:7389\|7402.

[30]LIYS,BACIUG.SG\|GAN:adversarialself\|attentionGCNforpointcloudtopologicalpartsgeneration[J].IEEEtransactionsonvisualizationandcomputergraphics,2022,28(10):3499\|3512.

[31]SHUDW,PARKSW,KWONJ.3Dpointcloudgenerativeadversarialnetworkbasedontreestructuredgraphconvolutions[C]∥MORTENSENE.ProceedingsoftheIEEE/CVFInternationalConferenceonComputerVision.NewYork:IEEE,2019:3859\|3868.

[32]GULRAJANII,AHMEDF,ARJOVSKYM,etal.Improvedtrainingofwassersteingans[C]∥NIPS.Proceedingsofthe31stInternationalConferenceonNeuralInformationProcessingSystems(NIPS'17).NewYork:CurranAssociatesInc.,2017:5769\|5779.

作者简介:

张渊杰(1998\|),男,硕士生。研究领域:人工智能,点云处理。

沈洋(1975\|),男,博士,教授。研究领域:深度学习,点云分析,图像处理。

许浩(1988\|),男,博士,讲师。研究领域:深度学习与优化方法,计算机图像处理。

包艳霞(1980\|),女,博士,讲师。研究领域:优化算法理论,人工智能。

应震(1975\|),男,本科,工程师。研究领域:图形图像处理。