生成对抗网络在虚拟试衣中的应用研究进展

2021-01-03 14:11张颖刘成霞
丝绸 2021年12期
关键词:深度学习

张颖 刘成霞

摘要: 生成对抗网络(GAN)的出色性能,使得深度学习在虚拟试衣中的应用得到新的发展,可以应对虚拟试衣中诸多问题和需求。GAN能够产生高度真实的输出,与原始训练分布非常接近,成为当下实现虚拟试衣不容忽视的工具。文章围绕这一研究前沿与热点问题,对GAN及其在虚拟试衣中的发展进行了简单的回顾;其次从GAN生成虚拟试衣结果的特征类别出发,先后介绍了在2D图像、3D模型及视频的虚拟试衣上的应用,总结分析了它们的运作机制、优点、局限性及适用场景;最后,讨论了GAN在虚拟试衣领域未来的研究方向。研究认为,未来可在增加试穿服装件数、提高试穿图像分辨率和准确性、提高视频试穿速度3个方向开展研究。

关键词: 虚拟试衣;生成对抗网络;深度学习;图像翻译网络;自我监督

中图分类号: TS941.19

文献标志码: A

文章编号: 1001-7003(2021)12-0063-10

引用页码: 121111

DOI: 10.3969/j.issn.1001-7003.2021.12.011(篇序)

Abstract: The excellent performance of Generative Adversarial Network (GAN) has facilitated the new development and application of deep learning in virtual fitting, which could deal with many problems and needs in virtual fitting. GAN is able to produce highly real output and is very close to the original training distribution, thus becoming a tool that can’t be ignored in the current virtual fitting. Firstly, focusing on this research frontier and hot issue, this paper briefly reviewed GAN and its development in virtual fitting; then, starting from the feature categories of virtual fitting results generated by GAN, the paper introduced its application in virtual fitting based on 2D image, 3D model and video, summarized and analyzed the operation mechanism, advantages, limitations and applicable scenarios; finally, it prospected the future development direction of GAN in virtual fitting. It is believed that future research can be carried out in three directions: increasing the number of fitting clothing, raising the resolution and accuracy of fitting image, and improving the speed of video fitting speed.

Key words: virtual fitting; generative adversarial network; deep learning; image-to-image translation network; self-supervision

生成对抗网络(Generative Adversarial Network,GAN)是Goodfellow等[1]在2014年提出的深度学习模型,可以产生高度真实的输出,非常接近原始训练分布,甚至能达到肉眼无法区分的程度[2],这种动态生成高质量图像的能力为计算机图形学[3-4]及虚拟[5-6]、增强[7-8]和混合现实[9-10]应用开辟了新的研究途径。GAN是计算机视觉领域中最接近人眼判别水平的模型,其关键优势是可以从图像或视频中重建目标对象的3D模型[11-12],對实现服装虚拟试衣具有重要的现实意义。基于图像的视觉试穿技术[13-17],根据参考人体的姿势对服装图像进行变形处理将目标服装转移到人体上,输出图像可以很好地保持目标图像的特征[18-19],如纹理、刺绣、Logo等,因此在视觉图像领域引起广泛关注。与此同时,基于三维模型[20-25]和视频[26-28]的虚拟试穿也迅速发展,可以多角度、动态地展示服装试穿效果,建立真实场景的虚拟试穿系统成为可能。

在全球,电子商务占服装销售额的1/3[29]。然而,网购者在购买前无法准确预测其穿着效果,可能会因未达到期望效果而退货,增加了制造、包装和运输环节的成本,产生了巨大浪费。虚拟试穿通过模拟人体真实的着装效果,让顾客沉浸式地感受服装款式,可大幅降低退货率,有效减少浪费。除此之外,试穿效果图在服装生产中也起着重要作用,既可以减少部门之间的重复沟通,又能降低生产环节所需样衣的成本。本文将虚拟试穿的试用效果进行对比,对这几种试穿方法进行了系统的分析比较,并对生成对抗网络在虚拟试穿方面的研究发展方向做出了展望。

1 生成对抗网络(GAN)

1.1 GAN结构

GAN[1],也称原始GAN(Vanilla GAN),是一种机器学习模型,由生成器(Generator,G)和鉴别器(Discriminator,D)两个神经网络组成,如图1所示。使用GAN时需要为生成器提供输入、确定输出,生成器学习输入图像后生成假图像,并欺骗鉴别器让其信以为真,鉴别器负责判断图像的真假,训练会不断进行,直到两者都达到平衡,这种双组件的持续对抗使GAN产生了高质量的输出图像,因此被称为生成对抗网络。

生成器的目标是最小化函数,而鉴别器的目标是最大化函数。GAN的优化目标函数如下式所示:

式中:G是生成器,D是鉴别器,x是真实数据,Pdata是真实数据概率密度分布,z是随机输入的高斯噪声。

1.2 CGAN结构

原始GAN在实际的训练中会产生崩溃,不足以持续稳定地产生高质量输出图像。对此Mirza等[30]引入条件生成对抗网络(Contradiction GAN,CGAN),用输入条件来控制生成器和鉴别器,两者的两个输入数据集和输出数据集都是以y为条件的条件概率。例如,可以通过调整输入条件(如服装类别)来改变生成的图像。CGAN的优化目标函数如下式所示:

式中:生成器和鉴别器都加入了约束项y。

Isola等[31]在CGAN的基础上对GAN做出了根本性的修改,提出了基于条件对抗的图像到图像翻译网络(Image-to-Image Translation GAN),也称为“Pix2Pix”,Pix2Pix在建立CGAN框架的基础上,可以将引入的条件输入图像(如卫衣草图)转换为另一种表示形式(如全纹理卫衣图像)。Pix2Pix为生成深度图像奠定了基础,如利用街道地图生成卫星图像;将黑白照片转换成彩色照片;对3D网格进行完整渲染等。若输入图像是人体和服装,则可以生成输出是人体着装的图像,从而运用到虚拟试衣领域[32-33]。

Pix2Pix的第一个基本组件是U-Net架构生成器[34],该组件在可视化时看起来类似于字母U,是一个卷积神经网络模型。U-Net的架构如图2所示,可视为由编码器和解码器组成。编码器是架构图中的左半部分,将输入图像编码为多个不同级别的特征;解码器是右半部分,目的是将编码器学习到的低分辨率区分特征投影到高分辨率像素空间。

U-Net中的输入和输出图像拥有相同的底层结构,即彼此共享底层信息,因此生成器的编码器和解码器之间可以实现对称跳跃连接,使早期层的信息能有效地到达后期层,从而允许来自损失函数的梯度有效地反向传播,避免梯度消失问题。

1.3 损失函数构建

L1和L2是机器学习中的两个损失函数,用于最小化误差。L1损失代表最小绝对偏差,也称为LAD。L2损失函数代表最小二乘误差,也称为LS。

在大多数情况下应使用L2损失,但如果数据存在异常值,由于L2考虑了平方差,将导致更大的误差,会使生成的输出与真实目标更加偏离,而L1损失函数会删除异常值,免受其影响。因此,在L2损失的基础上,Pix2Pix提供了额外的L1损失,其目标函数如下式所示:

式中:y是预测值,G(x,z)是真实值。

L1损失能克服L2损失的缺点,使生成的输出图像与真实目标的整体结构和位置保持一致。在虚拟试衣中,L1损失用于保存用户生成图像的姿势与状态,没有L1损失来维持结构,生成的图像可能会被错误地缩放、旋转或移动,无法实现所需图像到图像的直接转换。不过,L1损失只能传输低层结构,不能传输高层结构,而虚拟试穿需要转移的布料图案、纹理、文字等均属于高层结构,感知损失是解决这一问题的重要途径。为解决这一问题,Gatys等[35]引入了样式损失(Style Loss)来实现从草图到照片(或反之)转移过程中的细节保存。在样式损失的基础上,Johnson等[36]进一步引入了特征损失(Feature Loss),并将两者一同归类为感知损失,感知损失常被用于虚拟试衣网络的目标图像生成中。

1.4 引入监督学习的CGAN

引入监督信息可以增强鉴别器的鲁棒性,由于原始GAN是一种无监督学习的生成式模型[37],通常使用梯度下降法进行训练,该训练方法非常不稳定,在循环训练中会发生分叉和崩溃。这是因为GAN训练时生成器和鉴别器在非平稳环境中学习,随着样本分布的变化,鉴别器会发生遗忘,数据集复杂时这些问题尤为突出,自我监督[38]的作用就是阻止鉴别器发生遗忘。CGAN中引入了监督信息,但其缺点是必须要有标签数据,生成标签数据集成本又很高,无标签的数据却时刻在产生,而自我监督能从数据本身产生标签,并用其创建监督损失函数来指导训练过程,从而确保鉴别器学习到更有用的语义表征。

2 GAN在虚拟试衣上的应用

2.1 基于2D图像的虚拟试衣

2.1.1 GAN在虚拟试衣的早期应用

早期的虚拟试穿系统主要应用三维人体扫描或计算机软件建模[39]。前者数据量庞大、处理烦琐,扫描过程中还会出现噪点,需要后期修复;后者主要依靠專业人员来进行模型构建,人工成本昂贵,且模型对象特定,局限性较大。为此,Lassner等[40]提出了ClothNet模型,应用GAN学习2D图像来生成人体和服装语义分割的图像,且引入Pix2Pix[31]将服装分割图像转换为高分辨率的全彩色图像。这一技术后来经常被用于服装虚拟试衣。

虽然ClothNet可以在指定的分割蒙版区域生成服装,但是其外观准确性无法控制。其次,ClothNet须使用分割的人体区域作为条件图像,但图像标注和分割都会产额外的成本,因此时装公司很少会收集此类数据。针对以上问题,Jetchev等[41]提出条件类比生成对抗网络(Condition Analogy Generative Adversarial Network,CA-GAN),使服装模特可以自由换装。CA-GAN的原理是把人体着装模型看作图像类比问题:生成器将穿着A服装的图像yi自动转换成身着B服装的图像yj,且生成Alpha蒙版来合成原始图像和生成图像,使用蒙版还可以保持穿着者的原始特征(如面部表情),且只转移目标服装不会对其他物体造成影响。此外,CA-GAN是一种端到端的可训练架构,可以使鉴别器掌握学习损失函数的能力,并以自我监督[38]的方式判断结果,无需标签数据监督,在服装公司具有良好的应用前景。

2.1.2 虚拟试衣网络

理论上CA-GAN模型可以将对抗性损失降到最低,从而使输出图像达到以假乱真的程度,但在实际应用中,该模型只能粗略变换服装,生成的服装图像也无法适应姿势变化,大幅限制了该模型在服装虚拟试衣中的应用,因此还需经过细节转移和真实变形的处理。为解决这些问题,Han等[13]提出了虚拟试穿系统VITON(Virtual Try On)。VITON是虚拟试衣研究领域的里程碑,随后的许多方法都以其为基准。与CA-GAN相比,VITON采用了两阶段系统来解决服装变形问题,如图3所示。第一阶段是多任务编码-解码生成器(Multi-task Encoder-decoder Generator),以人体模型和目标服装为输入条件进行图像转换,以过程结果和服装蒙版为输出,用静态形状-上下文匹配算法(Shape-context Matching Algorithm)[42]对服装蒙版进行变形,将变形后的服装蒙版传递给全卷积细化网络,从而产生Alpha蒙版。第二阶段是细化网络,利用Alpha蒙版将变形后的服装与粗糙的人体图像合成参考图像,并根据参考图像计算感知损失[43]。

CA-GAN的Alpha蒙版经常将原始服装和目标服装混为一谈,有时还会偏离用户的中心,出现人体和服装错位的现象,VITON通过静态变形算法和优化神经网络解决了这个问题。此外,Han等[13]首次证明了感知损失可以用于服装试穿中的纹理增强和细节转移,相比仅靠一个对抗损失来生成服装细节的CA-GAN更具优势。

尽管VITON可以传输服装整体变形,但在服装细节传递上仍有很大的改进空间。Wang等[14]提出了可保留特征的虚拟试衣网络CP-VTON,通过进一步改善纹理细节传输来扩展VITON。该网络由几何匹配模块和试穿模块组成:几何匹配模块学习衣服的变形,试穿模块将渲染后的人物与扭曲后的布料融合在一起,使用合成蒙版生成最终效果,因此CP-VTON比VITON在细节保存方面质量更好。例如,在VITON中,Logo和文字会出现传递模糊的现象,而CP-VTON则可以更好地保存这些细节,形状、颜色和文字也更加清晰。

2.1.3 不同监督机制的虚拟试衣

引入监督机制可以使训练网络更加稳定,从而克服模型训练时,生成器遗忘导致的网络崩溃。Raj等[32]采用了新型弱监督训练模型SwapNet,在没有监督信息的情况下,可对不同姿势下的同一服装进行变形和纹理模块训练。Roy等[15]提出了基于自我监督机制的虚拟试衣网络LGVTON,解决了虚拟试衣场景中缺乏标签数据集的问题。LGVTON能根据人体的形态和姿势,采用人体和服装两种标志物对布料模型进行变形处理。Wu等[16]則应用非监督和自我监督的混合学习框架,引入非配对-配对联合训练的方法来完成这一任务,有效解决了缺乏成对训练图像(即目标人体和所需服装模型)的问题。

2.1.4 多姿态引导的虚拟试衣

目前的许多虚拟试衣算法在人体姿势变化较大时,会出现生成图像欠拟合的问题,特别是在参考图像的朝向和目标衣服相反时,合成图像的偏差就更加明显。针对这一问题,Dong等[17]试图通过解决姿态变形和错位问题来改进CP-VTON,提出了一种多姿态引导的虚拟试衣网络MG-VTON(Multi-pose Guided Virtual Try-on Network),如图4所示。这种对抗网络分为三个阶段:条件解析网络用来同时匹配目标人体姿势和服装形态;Warp-GAN将期望的服装变形合成到人体解析图像中去,缓解输入的人体姿势和期望姿势之间的错位问题,减少不同姿态引起的失调,最终合成具有真实感的服装图像;细化渲染网络恢复服装的纹理细节,并去除人工痕迹。MG-VTON可以更好地拟合参考图像与人体姿势变形,同时保留目标服装纹理,即使参考图像的姿势和人体朝向相反也不例外。

2.1.5 可选择服装的虚拟试衣

现有的服装虚拟试衣模型大多只能转移整体服装,Li等[44]首次提出了可选择服装的虚拟试衣系统I-VTON,可根据用户意愿有选择地试穿上装或下装,还引入了皮肤损失来保持用户肤色,提高了实用性和逼真程度。

在I-VTON的基础上,Neuberger等[45]提出了Outfit-VTON,该方法可以从参考图像中选取服装组合与目标人体相融合,形成可视化的合成图像,使用户能实时控制最终呈现的服装效果。此外,Outfit-VTON还引入了精确合成纹理、标志和文字等服装特征的在线优化功能。

2.1.6 可保存服装的虚拟试衣

在虚拟试衣网络中,当人体躯干和四肢发生姿势变化时,会导致服装区域和人体部位间产生如遮挡、干扰和变形等相互作用。因此,需要算法能理解参考图像中前景物体和背景的空间布局,并在试穿过程中自适应地保留这种关系。为此,Yu等[18]提出了可以保存人体和服装特征的虚拟试衣网络VTNFP(Virtual Try on Network with Feature Preservation),这种新的分割图生成模块可用于预测人体着装部位,并将预测的人体部位分割图像、服装变形图像和其他辅助人体信息融合在一起,且保存服装和人体部位的细节信息。Yang等[19]继续对VTNFP做出改进,提出了一种新的自适应内容生成和保存网络(Adaptive Content Generation and Preservation Network,ACGPN)。首先预测参考图像的语义布局,然后自适应地确定生成和保存内容,并且引入新的二阶差分约束使训练过程更加稳定,大幅提高了复杂服装模型的处理能力。

2.2 3D模型的深度重建

除了利用2D图像进行虚拟试衣外,GAN在3D模型的深度重建上也有广泛应用。Lahner等[20]提出深度模型DeepWrinkles的试衣效果,如图5所示。图6为在法线图上使用GAN对3D模型表面进行几何变形优化的结果。能在分辨率较低的法线贴图上生成精细的细节,增强了现实性和时间一致性。由于DeepWrinkles模型的整体形状和细节褶皱可以完全由数据驱动进行控制,因此可以获得前所未有的高质量服装褶皱渲染效果。

Minar等[21]利用服装与人体形状的对应关系,提出了基于单个服装图像的三维服装模型重建方法Cloth-VTON,使用SMPL人体姿势和形状参数将三维服装模型转移到目标人体模型,然后对转移后的三维服装模型进行渲染,合成目标图像。Mir等[22]提出了一个简单有效的模型Pix2surf,将电商网站上的服装图像映射到3D虚拟服装模型表面,实现实时的虚拟试衣。利用这一模型可以自动地从网站上在线搜集到无数服装图像,绘制出纹理贴图。此外,Pix2surf还支持VR/AR、游戏和3D内容生产等应用程序,具有良好的拓展性。Zhu等[23]建立了迄今为止最大的3D服装模型数据集,从真实服装重建了2 078个服装模型,涵盖10个不同类别和563个服装实例,并且提供了丰富的注释,包括三维特征线、三维身体姿势和对应的多视图图像。

然而,上述模型均需要以真实服装的照片或深度图像为输入,针对这一不足,Shen等[24]提出了可以应用GAN直接由服装样板和尺寸参数生成3D服装模型的方法,且支持大多数服装拓扑结构和人体尺寸,这意味着可以直接将服装样板转换成人体试衣图像,在服装生产环节具有重要的现实意义,但该方法无法生成服装细节。对此,Qian等[25]提出了Mesh-VAE-GAN模型,利用3D扫描中不同姿势的SMPL着装模型来学习生成服装变形,使服装成为SMPL中的附加项。为了保留褶皱细节,Mesh-VAE-GAN将补丁式分解器扩展到3D模型,再现服装的全局形状和局部细节,并能根据人体姿势和服装类型进行可控调节,使其可以在不同的人体体形和姿势下试穿各种风格的服装。

在实际应用中,GAN在3D模型的深度重建相比于2D图像更加具有真实感,可以展示多维的试穿服装试穿角度,表达出二维图像中缺乏的复杂效果,与人类的视觉感知更匹配。但也存在不足,大多数GAN在3D模型深度重建研究仍然需要扫描人体姿势和衣服来学习生成人体试穿服装的网络模型,这就增加了其获取输入信息的难度,因此没有2D图像在虚拟试穿领域的研究来得更加广泛。

2.3 视频呈现的虚拟试衣

视频试穿可以让用户从多个角度方便地观察服装呈现在自身上的外观效果,相比于借助单个图像,这种方法取得了很大进步。视频虚拟试衣面临的最大挑战是如何处理视频帧之间的时间一致性。对此,Dong等[26]提出了一种基于流动导航的对抗网络模型(Flow-Warping GAN),率先实现了包括服装变形和纹理映射的全程视频试穿处理。而FW-GAN加入了光流损失解决时间一致性问题,通过合成连贯自然的视频,同时操纵人体姿势和服装变形,精确地将服装转移到人体上,如图7所示。由图7可以看出,FW-GAN能以任意角度和姿势生成具有真实感的试穿视频。由于视频信息的存在,FW-GAN能够合成比以往VITON和CP-VTON等生成的静止试穿图像更高质量的服装变形。

为解决视频虚拟试衣实时性受限的问题,Pumarola等[27]增加了一个物理存储器,可以根据遮挡位置填充特定区域,以适应人体姿势来合成新的服装图像,开启了快速虚拟试衣阶段。在人体模型合成的细节上,Kuppa等[28]提出了ShineOn算法,首先,应用Dense-Pose标注增强了人脸细节,且减少了占用内存和训练时间;其次,引入了自注意力层改善人体面部和颈部质量,该方法可以在一定程度上改善人体轮廓的清晰度。ShineOn成为视频虚拟试衣的关键技术,在试穿领域有很好的发展前景,但是在转移速度上仍有改善空间,以便获得更好的试穿效果。

3 典型虚拟试衣模型的效果对比分析

在GAN诞生以后,已经出现了很多虚拟试衣网络模型。表1选取上述典型的GAN在虚拟试衣网络上的应用效果作对照比较,总结分析了它们的运作机制、優点、局限性及适用场景,以便更好地理解并运用它们。

4 结 论

GAN在虚拟试衣领域的广泛应用,使得无需传统的人体扫描和计算机建模就可以生成服装试穿图像,从第一个应用于虚拟试衣的生成对抗网络到实时视频的虚拟试衣网络,虽然生成的试穿图像效果和质量已大幅提高,目前还存在许多问题,未来可从以下三个方向进行改进。

1)多层服装的虚拟试衣。人们在实际试穿服装时通常会多件着装,但目前基于GAN的虚拟试衣研究主要集中在单件服装,多层服装的相互作用和复杂性使得GAN不能很好地生成试衣图像。如果可以尝试将每件服装封装在一个图层中作为蒙版,在试穿模块中进行融合,将会有助于促进多层服装虚拟试穿的实现。

2)高精度的试穿图像。目前的虚拟试衣生成图像大多分辨率较低(128 dpi×128 dpi),仅约为人类习惯分辨率的1/10,试穿效果、质量和参考价值并不很高,可以考虑研发高分辨率图像翻译网络,将其应用到虚拟试衣中,提高试穿效果,从而缩小虚拟试衣和实际着装之间的差距。此外,目前的研究在提高传递服装质量方面虽已取得了一定的进展,但距离实现消费者准确地从生成图像感受服装纹理与材质这一目标还有较大空间,可以考虑引入局部纹理损失来合成深度图像网络,有望生成更加真实的纹理材质图像。

3)高速度实时视频试穿。目前视频虚拟试穿所生成的服装主要依赖于人体姿势,可以适应于大多数的慢运动,但还无法推广到快运动,亟需引入更高效的架构来实现高速度的视频试穿。

参考文献:

[1]GOODFELLOW I J, POUGET-ABADIE J, MIRZA M, et al. Generative adversarial networks[J]. Advances in Neural Information Processing Systems, 2014, 3: 2672-2680.

[2]BRANDON J. Terrifying high-tech porn: Creepy "deepfake" videos are on the rise[N/OL]. Fox News, 2018-02-16. https://www.foxnews.com/tech/terrifying-high-tech-porn-creepy-deepfake-videos-are-on-the-rise.

[3]YU J, LIN Z, YANG J, et al. Generative image inpainting with contextual attention[C]//IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City: IEEE, 2018: 5505-5514.

[4]VONDRICK C, PIRSIAVASH H, TORRALBA A. Generating videos with scene dynamics[C]//NIPS Proceedings of the 30th International Conference on Neural Information Processing System. Barcelona: NIPS, 2016: 613-621.

[5]WONG C. The rise of AI supermodels[N/OL]. CDO Trends, 2019-05-27. https://www.cdotrends.com/story/14300/rise-ai-supermodels.

[6]ELGAMMAL A, LIU B, ELHOSEINY M, et al. CAN: Creative Adversarial Networks, generating "Art" by learning about styles and deviating from style norms[C]//ICCC 8th International Conference on Computational Creativity. Atlanta: ICCC, 2017: 96-103.

[7]WANG X, YU K, WU S, et al. ESRGAN: Enhanced super-resolution generative adversarial networks[C]//ECCV 15th European Conference on Computer Vision. Munich: ECCV, 2018: 63-79.

[8]SAJJADI M S M, SCHOLKOPF B, HIRSCH M. EnhanceNet: Single image super-resolution through automated texture synthesis[C]//IEEE International Conference on Computer Vision (ICCV). Venice: IEEE, 2017: 4501-4510.

[9]WEI J. Generating shoe designs with machine learning[N/OL]. Medium, 2019-11-06. https://towardsdatascience.com/generating-shoe-designs-with-deep-learning-5dde432a23b8.

[10]ANTIPOV G, BACCOUCHE M, DUGELAY J L. Face aging with conditional generative adversarial networks[C]//IEEE International Conference on Image Processing (ICIP). Beijing: IEEE, 2017: 2089-2093.

[11]WU J, ZHANG C, XUE T, et al. Learning a probabilistic latent space of object shapes via 3D generative adversarial modeling[C]//NIPS Proceedings of the 30th International Conference on Neural Information Processing System. Barcelona: NIPS, 2016: 82-90.

[12]VONDRICK C, PIRSIAVASH H, TORRALBA A. Generating videos with scene dynamics[C]//NIPS Proceedings of the 30th International Conference on Neural Information Processing. Barcelona: NIPS, 2016: 613-621.

[13]HAN X, WU Z, WU Z, et al. VITON: An image-based Virtual Try-On network[C]//IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City: IEEE/CVF, 2018: 7543-7552.

[14]WANG B, ZHENG H, LIANG X, et al. Toward characteristic-preserving image-based Virtual Try-On network[C]//Proceedings of the European Conference on Computer Vision (ECCV). Munich: ECCV, 2018: 589-604.

[15]ROY D, SANTRA S, CHANDA B. LGVTON: A landmark guided approach to Virtual Try-On[J/OL]. Computer Science, 2020-04-18. https://arxiv.org/abs/2004.00562.

[16]WU Z, TAO Q, LIN G, et al. M2E-try on NET: Fashion from model to everyone[C]//Proceedings of the 27th ACM International Conference on Multimedia. Cornell: ACM, 2019: 293-301.

[17]DONG H, LIANG X, SHEN X, et al. Towards multi-pose guided virtual try-on network[C]//Proceedings of the IEEE/CVF International Conference on Computer Vision (ICCV). Seoul: IEEE/CVF, 2019: 9026-9035.

[18]YU R, WANG X, XIE X. VTNFP: An Image-Based Virtual Try-On network with body and clothing feature preservation[C]//Proceedings of the IEEE/CVF International Conference on Computer Vision (ICCV). Seoul: IEEE/CVF, 2019: 10510-10519.

[19]YANG H, ZHANG R, GUO X, et al. Towards photo-realistic virtual try-on by adaptively generating preserving image content[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Seattle: IEEE/CVF, 2020: 7850-7859.

[20]LANER Z, CREMERS D, TUNG T. DeepWrinkles: Accurate and Realistic Clothing Modeling[C]//European Conference on Computer Vision (ECCV). Munich: IEEE/CVF, 2018: 698-715.

[21]MINAR R, THAI T, AHN H, et al. 3D reconstruction of clothes using a human body model and its application to image-based virtual try-On[C]//IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Seattle: IEEE/CVF, 2020: 853-862.

[22]MIR A, ALLDIECK T, PONS G. Learning to transfer texture from clothing images to 3D humans[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Seattle: IEEE/CVF, 2020: 7023-7034.

[23]ZHU H, CAO Y, JIN H, et al. Deep fashion 3D: A dataset and benchmark for 3D garment rconstruction from single images[C]//European Conference on Computer Vision (ECCV). Glasgow: IEEE/CVF, 2020: 512-530.

[24]SHEN Y, LIANG J, LIN M C. Gan-based garment generation using sewing pattern images[C]//European Conference on Computer Vision (ECCV). Glasgow: IEEE/CVF, 2020: 225-247.

[25]MA Q, YANG J, RANJAN A, et al. Learning to dress 3D people in generative clothing[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Seattle: IEEE/CVF, 2020: 6469-6478.

[26]DONG H, LIANG X, SHEN X, et al. FW-GAN: Flow-navigated warping GAN for video Virtual Try-On[C]//IEEE/CVF International Conference on Computer Vision (ICCV). Seoul: IEEE/CVF, 2019: 1161-1170.

[27]PUNAROLA A, GOSWAMIV, VICENTE F, et al. Unsupervised image-to-video clothing transfer[C]//IEEE/CVF International Conference on Computer Vision (ICCV). Seoul: IEEE/CVF, 2019: 3181-3184.

[28]KUPPA G, JONG A, LIU V, et al. Shine on: illuminating design choices for practical video-based virtual clothing try-on[C]//Proceedings of the IEEE/CVF Winter Conference on Applications of Computer Vision (WACV) Workshops. Waikola: IEEE/CVF, 2021: 191-200.

[29]JONG A, MOH M, MOH T. Virtual Try-On with Generative Adversarial Networks: A Taxonomical Survey[M]//Advancements in Computer Vision Applications in Intelligent Systems and Multimedia Technologies. IGI Global: San Jose, 2020: 76-100.

[30]MIRZAM, OSINDEROSIMON. Conditional generative adversarial nets[C]//NIPS Proceedings of advances in Neural Information Processing Systems. Montreal: NIPS, 2014: 5767-5777.

[31]ZHU J Y, PARK T, ISOLA P, et al. Unpaired image-to-image translation using cycle-consistent adversarial networks[C]//Proceedings of the IEEE International Conference on Computer Vision (ICCV). Venice: IEEE, 2017: 2223-2232.

[32]RAJ A, SANGKLOY P, CHANG H, et al. SwapNet: image based garment transfer[C]//ECCV 15th European Conference on Computer Vision. Munich: ECCV, 2018: 679-695.

[33]楊佑国, 徐平华, 徐明慧, 等. 基于虚拟试衣的着装应力分布效应评价[J]. 现代纺织技术, 2021, 29(6): 106-112.

YANG Youguo, XU Pinghua, XU Minghui, et al[J]. Evaluation of garment stress distribution based on virtual fitting[J]. Advanced Textile Technology, 2021, 29(6): 106-112.

[34]RONNEBERGER O, FISCHER P, BROX T. U-Net: Convolutional networks for biomedical image Segmentation[C]//International Conference on Medical Image Computing and Computer-Assisted Intervention. Cham: Springer, 2015: 234-241.

[35]GATYS L A, ECKER A S, BETHGE M. Image style transfer using convolutional neural networks[C]//IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Las Vegas: IEEE, 2016: 2414-2423.

[36]JOHNSON J, ALAHI A. Perceptual losses for real time style transfer and Super-Resolution[M]. Berlin: Springer International Publishing, 2016: 694-711.

[37]王晋宇, 杨海涛, 李高源, 等. 生成对抗网络及其图像处理应用研究进展[J]. 计算机工程与应用, 2021, 57(8): 26-35.

WANG Jinyu, YANG Haitao, LI Gaoyuan, et al. Research progress of generative adversarial network and its application in image processing[J]. Computer Engineering and Applications, 2021, 57(8): 26-35.

[38]CHEN T, ZHAI X, RITTER M, et al. Self-Supervised GAN via auxiliary rotation loss[C]//IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Long Beach: IEEE/CVF, 2019: 12146-12155.

[39]吴义山, 徐增波. 虚拟试衣系统关键技术[J]. 丝绸, 2014, 51(12): 24-29.

WU Yishan, XU Zengbo. Key technologies of virtual fitting system[J]. Journal of Silk, 2014, 51(12): 24-29.

[40]LASSNER C, PONS-MOLL G, GEHLER P V. A generative model of people in clothing[C]//IEEE International Conference on Computer Vision (ICCV). Venice: IEEE, 2017: 853-862.

[41]JETCHEV N, BERGMANN U. The Conditional Analogy GAN: swapping fashion articles on people images[C]//IEEE International Conference on Computer Vision Workshops (ICCVW). Venice: IEEE, 2017: 2287-2292.

[42]BELONGIE S J, MALIK J M, PUZICHA J. Shape matching and object recognition using shape contexts[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2002, 24(4): 509-522.

[43]WANG T Y, CEYLAN D, POPOVIC J, et al. Learning a shared shape space for multimodal garment design[J]. ACM Transactions on Graphics, 2017, 36(4): 1-13.

[44]YU L, ZHONG Y, WANG X. Inpainting-based Virtual Try-on network for selective garment transfer[J]. IEEE Access, 2019, 7: 134125-134136.

[45]NEUBERGER A, BORENSTEIN E, HILLELI B, et al. Image based Virtual Try-On Network from unpaired data[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Seattle: IEEE/CVF, 2020: 5184-5193.

猜你喜欢
深度学习
从合坐走向合学:浅议新学习模式的构建
面向大数据远程开放实验平台构建研究
基于自动智能分类器的图书馆乱架图书检测
搭建深度学习的三级阶梯
有体验的学习才是有意义的学习
电子商务中基于深度学习的虚假交易识别研究
利用网络技术促进学生深度学习的几大策略
MOOC与翻转课堂融合的深度学习场域建构
大数据技术在反恐怖主义中的应用展望
深度学习算法应用于岩石图像处理的可行性研究