分析式纹理合成技术及其在深度学习的应用

2017-11-20 11:07李宏林
计算机技术与发展 2017年11期
关键词:权值纹理卷积

李宏林

(日本山梨大学 大学院 生命情报系统系,山梨 甲府 400-8510)

分析式纹理合成技术及其在深度学习的应用

李宏林

(日本山梨大学 大学院 生命情报系统系,山梨 甲府 400-8510)

当前国际主流的非参数和参数法分析式纹理生成技术,对于计算机视觉领域的图像纹理合成具有一定的借鉴意义。在概括总结与比较分析式纹理生成技术原理、框架结构、应用发展趋势及其优缺点的基础上,分析了基于graph cut模型的非参数法、基于P&S模型的参数法两种典型的纹理生成技术以及广泛应用于图像处理领域的深度学习新技术—卷积神经网络(CNN)的结构与原理,进一步讨论了以基于CNN的Caffe网络框架及在2014年ImagNet图像分类和目标识别大赛上取得优异成绩的VGG模型为基础的分析式纹理生成模型VGG-19的工作原理及其在人脑视觉分析研究方面的应用。分析结果表明:相对于普通参数法和基于CNN网络模型的参数法,非参数法具有更快的处理速度,可生成更高视觉质量与更多种类的目标纹理图;参数法适合作为纹理合成领域的分析研究工具;卷积神经网络应用到参数法中,可大幅缩短特征量设计与参数调整周期并提高合成效果,进一步提升了参数法作为理论分析和应用实现工具的价值。

分析式纹理合成法;非参数法纹理生成;参数法纹理生成;深度学习;卷积神经网络;VGG-19

1 概 述

纹理是图像的重要特征之一,纹理图是数字图像中的一个重要类别,分规则纹理图和非规则纹理图两类;前者整体图像的各部分重复均匀分布,后者图像各部分总体相似但在大小、方向、颜色等方面随机分布。当前纹理生成技术主要有非参数和普通参数法两大类。非参数法通过建立或改进一系列模型、方法和算法生成纹理图像,主要有基于滤波器采样的模型、基于像素拷贝的模型以及基于片拷贝的模型三大类。基于滤波器采样的模型通过对样本采样纹理图的一系列不同分辨率图像的滤波结果进行采样分析,生成目标纹理图;基于像素拷贝的模型通过从样本采样纹理图向输出图区域拷贝像素生成目标纹理图;基于片拷贝的模型通过拷贝纹理片生成目标纹理图。普通参数法通过在一个紧凑完备(参数数量适中并有效,不易发生过度训练)的参数模型中建立、调整参数信息来描述纹理特征,并基于这些特征描述生成目标纹理图;其参数类型主要包括基于像素法、基于距离测量以及基于分析法的统计量。基于像素法是通过建立具有与样本纹理图相同的N阶统计量像素生成目标纹理图;基于距离法通过最小化样本纹理图和生成纹理图之间的距离差异特征量生成目标纹理图;基于分析法利用渐进式分析方法分析采样纹理和目标纹理,并通过最小化损失函数等方法逐渐缩小两者间的差距,进而生成最终目标纹理图。非参数和普通参数纹理生成法的主要区别在于:前者目标纹理图的建立源于一系列模型、方法、算法;后者通过对前人研究成果的分析以及对样本纹理图特征的观察和数学分析手动建立一系列参数,形成参数纹理模型,并利用该模型生成目标纹理图。非参数法的优点在于拥有更快的处理速度并生成更高视觉质量与更多种类的目标纹理图;缺点在于无法为纹理图建立对应的特征表达,而且不适合作为一种分析研究工具。普通参数法的优点在于可以为各类纹理图建立相应的特征表达进行推广与改进,同时可作为分析研究工具应用于多个领域;缺点在于建立的纹理种类相对有限,某些生成纹理效果并不理想,此外由于参数是人工分析建立的,设计或改进参数周期很长。

深度学习(Deep Learning)是近年来兴起的新技术[1],广泛应用于图像处理及计算机视觉领域;卷积神经网络(Convolution Neutral Network,CNN)是基于深度学习的一项重要应用,是一种基于大数据自动学习的端到端参数模型。利用CNN自动训练生成的特征表达可以推广应用到其他各种数据集,节省了人工设计特征的时间周期;同时,由于其在图像分类和目标识别领域方面的准确率已经大幅超越传统机器学习方法,因此基于CNN的参数模型纹理生成方法正逐渐取代普通参数法,其合成纹理质量也正逐步向非参数法逼近。

为此,在概括总结并对比分析基于graph cut模型的非参数法和基于P&S模型的参数法两个典型的国际主流分析式纹理合成技术以及深度学习卷积神经网络的原理、框架结构、应用发展趋势和优缺点的基础上,进一步讨论了结合基于CNN的Caffe网络和VGG结构的VGG-19纹理合成模型,通过对其结构框架、特征量建立与优化等过程原理的分析,可以发现深度学习CNN网络的引入有助于参数法纹理合成模型的建立与优化,能有效提高参数法纹理合成效果并缩短改进周期。

2 非参数纹理生成法Graph-cut

Graph-cut是一种著名的非参数纹理生成方法[2],基于该方法建立的纹理图效果迄今依然优于大量普通参数法甚至CNN参数法。该方法运用了片拷贝的纹理生成法,可实现纹理图像生成、纹理图像优化、不同种类图像合成以及视频合成等多种应用;其运行过程主要包含两大核心步骤:选择片放置位置与获取优化块。利用随机法或匹配法在输出纹理图区域选择放置采样纹理片的位置范围(等于或小于采样纹理区域的矩形区域);利用Graph-cut算法确定采样纹理片的优化提取块(一般为小于采样区域的不规则形状),拷贝该优化块到目标纹理图的放置区域。

原理如图1所示。

图1 Graph-cut算法纹理合成基本原理

2.1选择片放置位置

片放置方法主要有随机放置和匹配放置。随机放置指将整个输入采样纹理片每次随机放置在输出目标纹理图区域的任意一个位置,这种方法耗时最短,主要适用于生成随机纹理图。匹配放置分两种方式:第一种是整片匹配放置,该方法每次都放入整个输入采样纹理片的最优块(通过计算重叠区域的最小代价生成),适用于合成规则性纹理图;第二种是子片匹配放置,该方法每次放入输入采样纹理一个局部区域片(远小于采样纹理片)的最优块,适合合成随机纹理图和纹理视频。

其放置过程分初始化与优化两个阶段。初始化阶段主要将采样纹理片的最优块逐步填充到空的输出纹理图区域中,分三个步骤:将第一个采样纹理片放置在输入纹理区的随机位置;选择第二次片放置位置(与上一次放入的部分或全部交叠),运行Graph-cut算法获取放入片的优化块后放入该交叠位置;重复上一步直至填满整个输出图区域。优化阶段是对已填充完毕的输出纹理图再次填充采样输入纹理信息,达到修正改进的目的,分两步:利用代价函数计算出已填满的输出纹理图的最大误差块,在该范围内放入输入纹理片的优化块区域;重复上一步,直至对最终结果满意,从而结束迭代,获得最终优化输出纹理填充图。

2.2获取优化块

获取优化块的核心方法是运用Graph-cut算法,该算法是基于图的最小代价路径切取方法,是在Dynamic program算法[3]上的进一步改进。Dynamic program算法用于选择两个片的边界交叠区域的优化块,原理是利用该区域的相邻配对像素点分属新旧片区的色差值之和来计算最小代价位置,步骤为:对交叠区域逐行扫描相邻像素对,计算像素对属于新旧区域时的色差值的和,记为代价值;记录每一行的最小代价值点位置,继续扫描下一行;重复上一步直至扫描整块交叠区域结束,连接每行的最小代价值位置点,生成最优块的边界线。

Graph-cut算法在Dynamic program算法的基础上从处理两个边界域交叠区进一步扩展到处理多个边界域或包围域交叠区,通过在旧优化块切割线(边界线)的相邻像素节点间插入块节点,建立新的连接弧并重新计算生成最小代价切割线(优化块边界线)。该算法的主要步骤是:在旧优化块边界线的左右相邻两像素节点间插入新的块节点;在每个块节点和新片之间建立一条新的连接弧,计算该块节点与相邻两像素节点及新片之间三条连接弧的代价值;存在三种新的切割方式,分别是从块节点与新片区的连结弧切入、从三条连接弧以外的区域切入、从块节点与相邻像素节点之间切入,分别对应保留、取代、移除旧块切割线。

2.3改进与扩展应用

Graph-cut算法还引入了三种方法优化合成效果:运用梯度计算法优化代价函数以更好地检测边缘,运用羽化和多分辨率处理法隐藏或移除视觉假象,运用快速傅里叶法以加速基于平方差和的交叠区域代价计算算法。此外,该算法还实现了多种扩展应用:对输入采样纹理进行翻转、镜像、缩放变换处理以增加生成纹理的多样性,与用户交互式方法结合实现不同种类图像的合并以及从二维纹理图像生成扩展到三维纹理视频合成。但是该算法往往难以很好地合成具有明显边界结构特征的纹理,尤其是对那些独立性很强、排列紧密并具有明显边界的色彩模式单元[4]。为了更好地保持纹理的边界结构特征,国内研究人员先后提出了基于边界图的纹理合成法[4]、基于不规则块的纹理合成法[5]与基于Graph cut的快速纹理合成算法[6]对其加以改进,提高合成效果并缩短合成时间。

3 参数法P&S模型纹理生成法

基于样本的纹理合成技术是一种重要的参数法纹理生成技术[7],它是一种基于给定的小区域纹理样本并按照表面的几何形状拼合生成整个图像纹理的方法,其生成纹理在视觉上是相似而连续的[8],代表性模型是P&S模型[9],该模型迄今仍是普通参数法纹理生成的重要基础模型。P&S模型是一种基于分析合成的模型,通过观察前人设计的参数并运用数学推理和实验分析设计及改进参数,利用最大熵方法采集样本图像像素密度值,运用实践遍历性方法(对图像空间信息取平均值)估算样本图像的参数值,生成可推广的参数纹理生成模型。该模型利用一系列小波特征量和它们的相互关系建立边缘、系数相关性、系数大小、跨尺度相位四类统计量参数,运用梯度投影法将这些参数先后施加在高斯白噪图上渐进式合成纹理,并迭代这一过程直至收敛得到最终纹理图。其原理如图2所示。

图2 P&S模型系统原理

P&S模型参数对应的基础函数特征与运用顺序梯度投影算法合成纹理图的方法决定了该模型利用可控金字塔滤波器[10]而非高斯滤波器分解图像特征;可控金字塔滤波器方法具有良好的图像重建特性、平移不变性和旋转不变性,包含了方向波段和缩放比例(金字塔层次)两套系数。P&S模型以小波多分辨率原理为基础,运用可控金字塔滤波器将源样本纹理图分解成多个不同尺度的纹理图像,进而设计了四类参数统计量:边缘统计量包含偏差、峰度、尺寸、像素深度差异等信息;系数相关性统计量对应周期性、全局性的方向纹理结构;系数大小统计量体现了纹理边角信息;跨尺度相位统计量反映了纹理立体阴影细节。

但是P&S参数模型方法具有如下缺点:对于纹理图,无法区分直线和曲线轮廓,无法捕捉线条末端粗细度,无法形成封闭式轮廓,无法区分某些样例中的线条与边缘;对于非纹理图,只能捕捉到局部结构信息而无法得到图中不同目标的整体空间联系;虽然该模型在处理对应样本库中的数百种纹理样本时,迭代次数总能控制在50次左右,但理论上还无法确定参数模型何时收敛;由于参数是手动设计的,所以无法从理论上验证是否还有更优秀的参数集存在。

P&S参数模型方法主要适用于单种纹理样本合成,国内研究者后续提出了基于相关性原理的多样图纹理合成方法以增加生成纹理种类满足更多需求[11],以及结合图像细节特征的全局优化纹理合成方法用于更好地解决基于样本的纹理合成中纹理图像不连续、纹理结构或特征容易断裂等情况[12]。

4 卷积神经网络

模式识别、机器学习和深度学习技术长期以来广泛应用于计算机视觉领域,在2012年基于ImageNet图像数据库的ILSVRC大赛中,以基于深度学习的CNN方法设计的AlexNet网在图像分类比赛上获得了第一名,其Top-5准确率(五次选择有一次正确即纳入正确分类)超出了第二名基于传统机器学习的SVM方法达10%以上,此后2012年至2015年的图像分类冠军均为基于CNN方法的模型。CNN网络主要包含卷积层、池化层和全连接层三种层次结构,使用损失函数评估系统性能,利用梯度下降法优化卷积层和全连接层的连接权值;其所处理的输入图像一般具有宽度、高度和通道数三种属性,比如ImageNet的224×224×3的标准输入图像即指像素宽度、高度均为224以及包含RGB共3个通道的输入图像。

与传统神经网络相比,CNN的不同点在于:主要用途是将输入的传感信息转为有效的特征表达,这些表达目前在大尺度图像识别领域已经超越了人工特征;用卷积层和池化层代替了大部分全连接层,应用局部连接、参数共享和特征图方法,在大幅度降低参数数量的同时尽可能保有图像特征;通过前向卷积与池化进程将输入图像分解为特征图表达,再通过反向传播进程调用梯度下降法优化卷积层和全连接层的连接权值,迭代前向和反向进程直至收敛完成网络训练,生成最优参数组合。

与传统机器学习方法相比,CNN的不同点在于:SVM、KNN、Boosting等传统机器学习方法都是浅层网络结构,网络深度远低于CNN;传统机器学习方法一般使用人工设计特征,比如用于目标检测的SIFT特征、用于人脸识别的LBP特征与用于行人检测的HOG特征,其设计周期长、效率低,CNN通过自动从大数据分析学习自动优化调整特征参数,大大缩短了特征设计周期;传统机器学习方法的特征提取和分类阶段是相互独立先后进行,CNN是一种端到端系统(前向输入卷积与反向输出梯度下降优化过程迭代进行至收敛到最优),其特征提取和分类过程相互作用同步优化,是全局性的统一过程,两者不可分割。

4.1卷积层

CNN卷积层处理输入图像生成输出特征图,其3个重要特性分别是局部连接、参数共享与特征图建立。局部连接原则借鉴了人眼视觉神经成像原理,即每个神经关注的只是图像的某个局部位置而非全图,最后再合成所有神经的局部观察结果形成最终成像结果图;参数共享原则令多个神经共享一套参数,该原则适用于有一定规律的图像(比如纹理图),对非规则图像应适当放宽条件;特征图建立则是通过增加特征图数量增强图像表达能力(一张特征图对应源图像的某一方面特征)以弥补前两个特性造成的图像信息损失。以神经通过3×3的滤波器去观察6×6分辨率的输入图像为例:设滤波器卷积横向纵向滑动步长值均为2,共需移动9次方能处理完整幅图像(即用9个神经方能观测整幅图像):若采用全连接方式观测,共需6×6×9个连接权值(每个像素对应一个连接权值);运用局部连接原则,设每个神经只观测该图像的3×3局部区域,则只需3×3×9个;运用参数共享原则,令9个神经均使用同一套参数,则进一步缩减为只需3×3×1个;建立10张特征图表达图像,则需3×3×10个;最终参数数量(连接权值数量)缩减为最初的27.8%,上述特性在处理大尺度分辨率图像时,缩减参数幅度更为明显。

每个卷积层包含的参数数量由输入特征图数量和输出特征图数量共同决定。假设某卷积层接收的输入信息为64张特征图,输出信息是128张特征图,使用的是3×3的滤波器(不考虑偏差值时,则每一套连接权值参数为3×3=9个);每个滤波器用64套不同参数对64张输入特征图进行卷积,每层需128个滤波器生成128张输出特征图,因此该卷积层所包含的连接权值参数个数一共是64×3×3×128=73 728个。

4.2池化层和全连接层

池化层采用了基于图像多分辨率处理原理的金字塔式图像处理方法,它利用向下采样技术缩小输入特征图的大小,进而减少连接权值参数数量;一般采用2×2大小(3×3及其以上大小的池化层会造成信息损失过大)步长2(不重叠)的池化层,可以将输入特征图的宽度和高度分别缩小为原来的二分之一。池化层主要有平均值、最大值、随机值池化层三类,目前以最大值池化层使用最为频繁,2×2大小的最大值池化层就是取池化窗口所套入的邻域空间的四个像素值的最大值作为该邻域空间的输出值。池化层除了具有缩小特征图大小的特性以外,还保持了图像的平移旋转和缩放不变性,其多分辨率处理方式令整个CNN网络能更好地识别图像的不同区域。

最大连接层一般置于CNN网络的尾部,用于将卷积层和池化层处理分解出的图像各种特征表达合并输出作为最终分类层的输入信息;但由于CNN网络的连接权值参数主要产生于全连接层,为了减少计算代价,全连接层正逐渐被移除或转换成卷积层。

5 Caffe框架和VGG模型

5.1Caffe框架

Caffe是CNN的重要框架之一[13],包含了当前主流的深度学习算法和一系列参考模型(如Alexnet网);该框架将模型表达和实际应用分离,支持C++和Python语言,广泛应用于图像分类、目标识别、语义特征学习等领域。Caffe采用名为Blobs的4维数组存储数据(图像坐标、权值和偏差),利用谷歌协议缓冲区存储CNN网络模型,调用CUDA核进行GPU卷积运算,包含了前向进程(接收输入数据生成输出数据)和后向进程(利用随机梯度下降算法优化连接权值),并不断迭代前向后向进程直至收敛得到最优参数网络。

5.2VGG模型

VGG模型[14]是建立在Caffe框架下的一个实用型CNN模型,在2014年ImageNet比赛中的图像分类和目标识别方面分别取得了第二名和第一名。相对于2012年比赛冠军(11×11滤波器,步长为4)和2013年冠军(7×7滤波器,步长为2),VGG网的主要改进在于采用了更小的滤波器(3×3滤波器,步长为1)和更深的层数(19个权值层)。由于小型滤波器能够表达更多输入图像特征进而使得决策函数更具区分性,同时还能减少参数数量,VGG模型使用3个堆叠的3×3滤波器卷积层取代1个7×7滤波器卷积层(其卷积输出结果图像大小相等,缺点是由于层数增加导致计算代价增大)。一共有6个模型(A-LRN/VGG-11/VGG-13/VGG-16/VGG-16*/VGG-19)参与了研究分析,前四个主要用于实验测试对比以及参数初始化,后两个分别用于目标识别和图像分类。VGG-19模型一共包含16个卷积层、5个池化层和3个全连接层以及1个soft-max分类层,其中含连接权值的卷积层和全连接层一共19个(VGG-19名字源于此),其结构如图3所示(图中各层详细示意图标注于主框架图下方)。

图3 VGG-19网络结构图

由于深层网络的梯度具有不稳定性,一般先用随机连接权值初始化浅层网络,再将训练后的浅层网络的各层连接权值作为深层网络对应层的初始化权值(该深层网络的其余未赋值层连接权值使用随机初始化值),最后使用梯度下降法自动迭代训练优化连接权值,得到最终应用模型。VGG-19模型的前4层卷积层和后3层全连接层的初始化权值来自训练后的VGG-11模型的对应层,剩余12层则采用随机初始化值。利用大数据集训练完毕的VGG网络除了可直接运用于图像分类和目标识别外,还可推广应用到其他小数据集建立特征表达,并结合传统机器学习分类器实现对小数据集的图像分类和目标识别。

6 基于VGG-19的纹理生成模型

VGG-19纹理生成模型[15]的结构是在VGG-19模型的基础上移除最后3个全连接层以及将5个最大值池化层转为平均值池化层,其工作原理源于P&S模型,是一个基于CNN的参数法纹理生成模型。VGG-19模型建立了一种新型特征表达(关系矩阵)来表示纹理,可用于合成纹理图;此外,该模型在不同卷积层生成的阶段性纹理还可用于探测分析人脑视觉成像的不同阶段。

上述特征表达形成步骤原理如图4所示。

图4 纹理特征表达形成步骤原理

VGG-19纹理模型建立的纹理图的效果比P&S模型及Caffe结果更好[15],但依然弱于Graph-cut方法。该模型工作原理类似于人脑视觉成像过程(由低级信息合成中级信息直至最终形成高级成像信息,逐层清晰化),在每个层次上合成的纹理图可以用于探测视觉成像系统,根据不同信号反馈分析模型和成像系统的层与层之间的联系。此外,由于所采用的特征表达为关系矩阵集,该模型生成非纹理图时,保留了图像中的目标信息,但丢失了相关目标之间的全局联系信息。

图5 VGG-19纹理生成模型

7 结束语

纹理作为数字图像的一个重要基础特征广泛应用于计算机视觉等图像处理领域,分析式纹理合成方法是重要的纹理合成技术之一。以基于Graph-cut模型的非参数法、基于P&S模型的参数法和基于CNN的VGG-19网络模型为研究对象,综合回顾并对比分析三者的框架结构、过程原理和实现步骤,并讨论了非参数法、参数法的应用发展趋势和优缺点。通过深入剖析VGG-19纹理合成模型原理,得出了引入深度学习卷积神经网络新兴技术的参数法能有效缩短参数设计改进周期并显著提高合成效果的结论。此外,还进行了大量合成式纹理主流与新兴技术的调研,对于计算机视觉领域的图像纹理合成研究工作有一定借鉴意义。下一步将调研分析信息应用于相关研究课题项目上,并进一步论证其在相关领域方面的实际功效。

[1] Johnson J,Karpathy A.Convolutional neural networks for visual recognition[EB/OL].2015.http://cs231n.github.io/convolutional-networks.

[2] Kwatra V,Schödl A,Essa I,et al.Graphcut textures:image and video synthesis using graph cuts[J].ACM Transactions on Graphics,2003,22(3):277-286.

[3] Efros A A,Freeman W T.Image quilting for texture synthesis and transfer[C]//Proceedings of the 28th annual conference on computer graphics and interactive techniques.[s.l.]:IEEE,2001:341-346.

[4] 杨 刚,王文成,吴恩华.基于边界图的纹理合成方法[J].计算机研究与发展,2005,42(12):2118-2125.

[5] 熊昌镇,黄 静,齐东旭.基于不规则块的纹理合成方法[J].计算机研究与发展,2007,44(4):701-706.

[6] 邹 昆,韩国强,李 闻,等.基于Graph Cut的快速纹理合成算法[J].计算机辅助设计与图形学学报,2008,20(5):652-658.

[7] 朱文浩,魏宝刚.基于样本的纹理合成技术综述[J].中国图象图形学报,2008,13(11):2063-2069.

[8] 徐晓刚,鲍虎军,马利庄.纹理合成技术研究[J].计算机研究与发展,2002,39(11):1405-1411.

[9] Portilla J,Simoncelli E P.A parametric texture model based on joint statistics of complex wavelet coefficients[J].International Journal of Computer Vision,2000,40(1):49-70.

[10] Simoncelli E P,Freeman W T.The steerable pyramid:a flexible architecture for multi-scale derivative computation[C]//International conference on image processing.[s.l.]:[s.n.],1995:444-447.

[11] 徐晓刚,鲍虎军,马利庄.基于相关性原理的多样图纹理合成方法[J].自然科学进展,2002,12(6):665-668.

[12] 肖春霞,黄志勇,聂勇伟,等.结合图像细节特征的全局优化纹理合成[J].计算机学报,2009,32(6):1196-1205.

[13] Ia Y,Shelhamer E,Donahue J,et al.Caffe:convolutional architecture for fast feature embedding[C]//Proceedings of the 22nd ACM international conference on multimedia.[s.l.]:ACM,2014:675-678.

[14] Karen S,Andrew Z.Very deep convolutional networks for large-scale image recognition[EB/OL].2015-04-10.http://www.robots.ox.ac.uk/vgg/research/very_deep/.

[15] Gatys L A,Ecker A S,Bethge M.Texture synthesis using convolutional neural networks[C]//Proceedings of the 28th international conference on neural information processing systems.[s.l.]:[s.n.],2015.

[16] Zhu C,Byrd R H,Lu P,et al.Algorithm 778:L-BFGS-B:fortran subroutines for large-scale bound-constrained optimization[J].ACM Transactions on Mathematical Software,1997,23(4):550-560.

AnalyzedTexture-synthesisTechniquesandTheirApplicationsinDeepLearning

LI Hong-lin

(Life-Information System Course,Graduate-School of Yamanashi University,Kofu 400-8510,Japan)

The state-of-the-art analyzed texture synthesis techniques are divided into non-parametric and parametric methods,which contribute to the current corresponding research on computer vision.By summarizing and comparing their principles,structures,development trends,advantages and disadvantages,a non-parametric method based on graph-cut model and a parametric method based on P&S model are analyzed in detail.In addition,the structures and principles of Convolution Neural Network (CNN) based on deep-learning which are widely applied in image-process filed are also discussed.Finally,a new texture synthesis model VGG-19 is introduced,which is the combination of CNN-based Caffe network with VGG model that obtained high scores in the 2014 ImageNet classification and object detection competence.The VGG-19 model can be also used to analyze human visual process.The analyzed results show the facts as below.Non-parametric methods can synthesize high-quality textures of various kinds with high speed.Parametric methods are appropriate for being used as analysis tools.CNN applied in parametric methods can greatly reduce the time period of designing and adjusting feature representations and parameters and improve the synthesized results synchronously,which is proved to be valuable tools for analyzing theory and realizing applications on texture-synthesis work.

analyzed texture synthesis method;non-parametric texture generation;parametric texture generation;deep learning;convolutional neural network;VGG-19

2016-10-30

2017-02-10 < class="emphasis_bold">网络出版时间

时间:2017-07-19

李宏林(1979-),男,讲师,博士,研究方向为计算机视觉、图像处理、数据挖掘等。

http://kns.cnki.net/kcms/detail/61.1450.TP.20170719.1109.032.html

TP37

A

1673-629X(2017)11-0007-07

10.3969/j.issn.1673-629X.2017.11.002

猜你喜欢
权值纹理卷积
一种融合时间权值和用户行为序列的电影推荐模型
基于3D-Winograd的快速卷积算法设计及FPGA实现
基于5G MR实现Massive MIMO权值智能寻优的技术方案研究
基于BM3D的复杂纹理区域图像去噪
卷积神经网络的分析与设计
从滤波器理解卷积
使用纹理叠加添加艺术画特效
强规划的最小期望权值求解算法∗
基于傅里叶域卷积表示的目标跟踪算法
程序属性的检测与程序属性的分类