王卫兵 王卓 徐倩 孙宏
摘 要:为提高不易分割诊断的毛玻璃结节的分类准确率,同时针对VGG16网络结构卷积层数深,参数多的问题,提出一种基于灰度增强、纹理和形状滤波增强的三维深度卷积神经网络用于肺结节分类。对VGG16网络结构进行优化,提出的模型在肺结节公开数据集LIDC-IDRI上进行训练和测试。结果表明,采用灰度增强、纹理和形状滤波增强相结合的方法图像分类精度最高,准确率为91.7%,其他评价指标包括敏感性和特异性也略有提高,优于现有方法。
关键词:肺结节;深度学习;卷积神经网络
DOI:10.15938/j.jhust.2021.04.012
中图分类号:TP391.41
文献标志码:A
文章编号:1007-2683(2021)04-0087-07
Abstract:In order to improve the classification accuracy of ground glass nodules that are difficult to segment and diagnose and at the same time, the VGG16 network structure has deep convolutional layers and many parameters, A 3D deep convolutional neural network based on intensity, texture, and shape-enhanced images for pulmonary nodule recognition was proposed. The VGG16 network structure was optimized, and the proposed model was trained and tested on the public nodule dataset of lung nodules LIDC-IDRI. The results showed that the proposed method using the composition of intensity, texture and shape-enhanced has the highest image classification accuracy, with an accuracy of 91.7%. Other measures, including sensitivity and specificity, also improved slightly, It is superior to existing methods.
Keywords:pulmonary nodule;deep learning;convolutional neural network
0 引 言
国际癌症研究机构制定的癌症发病率和死亡率报告显示,肺癌是最常见的癌症,且是死亡率较高的癌症之一[1]。中国人口众多,肺癌的发病率和死亡率同样居高不下,我国男性肺癌发病率和死亡率均排名前列[2]。引起肺癌的原因除了遗传因素外,主要与大气污染、大量吸烟、工作压力和精神因素有关。早期准确的诊断在肺癌治疗中起着重要的作用。然而,由于良性和恶性肺结节之间的细微差别,即使对于医学专家来说,肺癌诊断也是一项艰巨的任务。此外,放射诊断的准确性也各不相同,在很大程度上取决于临床医生的主观经验。计算机辅助诊断(computer aided diagnosis,CAD)是指通过医学图像处理技术以及其他可能的生理、生化手段,结合计算机的分析计算,辅助发现病灶,可以有效降低误诊概率和提高诊断准确率。因此,为了降低医生的误诊概率以及减少医生的工作压力,需要发展计算机辅助诊断系统,以帮助医生对肺结节检测作出正确诊断,进行针对性治疗,提高治愈几率具有重要意义。
近年来,深度学习在计算机视觉、自然语言处理、音频识别等领域取得突破性进展。卷积神经网络是一种深度的监督学习下的神经网络,局部感知和共享权值的独特结构使CNN在图像识别和处理领域具有独特的优势。局部感知使图像的局部空间像素联系的更加紧密,共享权值则减少了网络训练参数的个数,降低了计算的复杂程度[3]。与旧的传统框架相比,深度学习具有多种优势。首先,深度学习可以直接从训练数据中发现特征,特征提取过程大大简化,相对简单的端到端训练过程,以及更容易对系统性能进行调整。Bengio[4]系统地介绍了深度学习所包含的网络结构和学习方法。卷积神经网络的局部连接、权值共享及池化操作等特性使之可以有效地降低网络的复杂度,减少训练参数的数量[5]。在图像处理方面,Long等[6]构建端到端全卷积网络,该网络接收任意大小的输入并通过有效的学习产生相应大小的输出。且后续提出的深度卷积神经网络(deep convolutional neural network,DCNN)在目前最大的图像识别数据库ImageNet上取得了超出之前最先进成果要好得多的成绩[7]。2018年,Unar等[8]提出一种通过利用图像的视觉和文本特征来检索相似文本图像的新方法。第一步提取视觉特征,然后在下一步中检测和识别文本,基于内核的方法将视觉和文本信息融合。随后,2019年,Unar等[9]提出结合视觉和文本特征来检索分类相似的图像的CBIR方法,支持三种检索模式:图像查询、关键字以及二者的组合。在4個数据集上的实验结果表明了所提出的视觉和文本图像方法的效率和准确性。
当前针对肺结节的分类方法大致分为两类。一是基于传统的机器学习算法的肺结节分类,即通过人工提取特征,使用随机森林、直方图特征、支持向量机(support vector machine,SVM)等分类器完成分类。Messay T等[10]提出一种新的CAD系统用于肺结节检测,通过放射科医师对肺结节公开数据集(the lung image database consortium and image database resource initiative database,LIDC-IDRI)的84幅CT影像进行手动分割,使用LIDC-IDRI数据集进行7倍交叉验证性能,分析显示CAD灵敏度为82.66%。Jacobs C等[11]对所提出的CAD系统进行性能优化,由经验丰富的放射科医师对CAD系统的输出进行回顾性分析,所提出的系统达到80%的灵敏度,表明CAD系统能够找到筛选数据库中未包含的亚实性结节。以上方法虽取得良好的实验结果,但需要专业人员的专业知识,且提取特征所需的人力需求高,耗时费力,需要复杂的检测过程。二是基于深度学习的肺结节分类,该方法由网络模型自己学习特征。Shen等[12]提出一种新的卷积神经网络MC-CNN模型对肺结节的恶性程度进行分类,所提出的方法不依赖于结节分割。Sun等[13]设计并实现了三种多通道提取ROI(region of interest, ROI)的深度结构化算法,性能显著高于传统计算机辅助诊断系统。Setio等[14]提出一种多视图卷积神经网络,在公开的LIDC-IDRI数据集的888次扫描中,该方法在每次扫描达到90.1%的高检测灵敏度。Li等[15]提出一种卷积神经网络(E-CNNs)集成框架,省去了分割过程,避免了传统检测方法中的肺结节丢失,并利用该框架显著降低了假阳性。Zhou等[16]提出一种用于医学图像分割的网络结构UNet++,将UNet++与多个医学图像分割结构进行了比较,取得更好的效果。刘露等[17]将深度置信网络(deep belief network, DBN) 用于肺结节良恶性分类任务当中,将新提出的DBN模型与基于纹理特征和多分辨率直方图特征的SVM模型进行对比,在不考虑医学特征的情况下,DBN模型的识别准确率高达86%。Xie等[18]通过反向传播神经网络和AdaBoost构建集成分类器,融合3个整体分类器的决策,分别对3个特征进行训练,在LIDC-IDRI数据集上性能优异。Gu等[19]提出了一种3D检测深卷积神经网络与多尺度预测策略相结合的方法,包括多尺度立方体预测和立方体聚类,以检测肺结节。
以上关于肺结节的分类研究已经取得了较好的成果,然而,对于肺部结节中的微小结节仍然存在特征提取难,诊断难的问题,如毛玻璃结节,因此对于毛玻璃结节的分类非常重要。
针对以上问题,主要介绍3个贡献来提高毛玻璃结节分类准确率的问题。首先,本文提出一种基于灰度增强、纹理和形状滤波增强的三维深度卷积神经网络,以经典的VGG16网络结构为基础,构建适用于毛玻璃结节分类的网络结构,对LIDC-IDRI数据集进行预处理,对数据集进行分割得到肺实质图像,将数据归一化并对数据进行增强操作,完成特征提取;并引入一种从结节中提取任意数量视图的方法,在目标域数据集训练分类器,将特征提取的输出作为分类器的输入,对模型进行微调,通过无监督学习方法从数据集中学习特征。并在LIDC-IDRI数据集上进行训练和测试,得到分类结果;此外,为了比较深度学习架构与经典分类器分类方法的性能,训练了K最近邻(k-nearest neighbor, KNN),随机森林(random forest, RF)和支持向量机(SVM)分类器,与本文所提出的基于灰度增强、纹理和形状滤波增强相结合的三维深度卷积神经网络方法进行对比。实验结果表明,所提方法针对毛玻璃结节具有最高的分类准确率,其他评价指标也有小幅度提高,具有最好的分类性能。
1 肺结节分类
1.1 实验数据
实验数据集为LIDC-IDRI,LIDC-IDRI为美国癌症研究所公开数据集[20]。LIDC-IDRI数据集包含1018个研究实例,每个实例包含临床肺部CT图像和相关的XML文件,其中每个图像包含一个或多个肺结节。对于每个实例中的图像,都由4位经验丰富的放射科医师进行两阶段的诊断标注。
CT图像的亮度值是Hu(Hounsfield unit单位),CT图像的Hu值反映组织对X射线吸收值(衰减系数u),参考肺窗设定值,在0到255的范围内执行数据之间的数据归一化,使得肺结节在CT图像上可见。
1.2 数据预处理
基于数据集提供的位置坐标,以二维的候选结节的像素中心为质心,提取固定尺寸的结节三维块作为分类网络训练集数据。
为了解决数据之间的不平衡和过拟合问题,执行数据增强操作,阳性样本围绕X、Y和Z轴为标准,随机旋转,增加数量,直到其为样本数量的100倍,并且将阴性样本也随机旋转为样本数量的100倍,对其进行随机采样,以解决可能因数据不对称导致的模型过拟合问题。向图像中的RGB通道添加随机扰动(噪声)。常用的噪声是高斯噪声和椒盐噪声。添加噪声的图像如图1所示。
在该研究中,从CT图像中手动提取感兴趣区域(ROI),重新训练CNN模型。从具有多个卷积层和池化层的深度卷积网络中获取固定大小的feature maps,使用可以反映毛玻璃结节特征的ROI作为输入图像。对于卷积神经网络分类所需的图像特征,使用全局图像特征提取。例如清晰度、颜色直方图和亮度直方图。对于一般的图像分类,可以通过分析图像的二维信息获取所需的特征。然而,在CT图像中检测病变部位,病变部位的形状特征是多样的,因此图像的空间特征非常重要。本研究中,对于图像中R、G和B 3个通道中的每个通道,通过将结节候选者的轴向、冠状和矢状图像分配到红色、绿色和蓝色通道,生成伪彩色图像。因为图像数据含有空间的信息,所以通过DCNN以学习更多特征,减少假阳性的判断。提取ROI图像的示例如图2所示。
初始分割采用的算法是Fast Marching,分割肺实质,对结节进行检测,并对其分别进行灰度增强、纹理和形状滤波增强,突出毛玻璃结节边缘特征。
在图像分割步骤之后,找到图像中毛玻璃结节的坐标。使用OpenCv连通域处理函数connectedComponentsWithStats()。此函数返回连通域图和相应连通域重心坐标。获取假阳性结节,以提高分类准确率。
将分好的數据集进行预处理,采用python的pillow库中crop操作,设定固定的裁剪区域将所有图像的尺寸都裁剪为224×224。为了减少图像的方向依赖性,通过对所有CT图像使用线性插值法,使z轴方向上的间隔与x和y轴方向上的间隔一致。对数据进行预处理,将数据归一化。数据归一化采用组归一化方式,对数据沿通道进行归一化。按照每连续3张图像来建立一个子文件夹,将连续的3张224×224图像作为VGG网络的输入。将二维图像依次叠加,转换为224×224×3三维图像。
1.3 模型设计
现有的肺结节分类方法,只利用一个网络结构进行训练,存在一定的局限性。且提取的毛玻璃结节边缘的纹理特征对于区分恶性结节和良性结节及正确分类至关重要。为了提取毛玻璃结节的特征,需要将多分辨率影像作为信道信息使用,或将输入影像的部分区域作为特征图使用。因此提出一种基于灰度增强、纹理和形状滤波增强的三维深度卷积神经网络,将获得的特征图在内部网络结构进行集成和训练。本文以经典的VGG16网络结构为基础,设计适用于毛玻璃结节分类的模型。
VGG16探索了卷积神经网络的深度与其性能之间的关系,通过反复堆叠3×3的小型卷积核和2×2的最大池化层,错误率大幅下降[21]。VGG16通过约100万张自然图像进行训练学习,由13层卷积层和池化层组成的特征提取结构,从输入图像中提取4 096维的特征向量。
通过对灰度增强、纹理和形状滤波增强的结节信息和去除血管和胸壁的信息相结合,作为所构建网络结构的输入图像。输入层用于数据输入,所包含的神经元个数等于特征向量的维数。输入层是数据进入卷积神经网络的第一层,在该层进行数据的均值化、归一化、降维和白化。将不同形式、不同规则的数据进行标准化,以便于准确抽取特征和构建评价。每个输入图像使用轴向、冠状和矢状平面来反应三维空间信息,以便最能反映毛玻璃结节的特征。
各输入图像通过13个卷积层(convolution layer)和3个全连接层(fully-connected layer)组成的整合模块。卷积层执行卷积运算,并生成特征图。优化的适用于肺结节分类的VGG16的网络结构如图3所示。池化层采用最大池化(max-pooling)操作,通过使用max-pooling可以提高计算效率,max-pooling通过选择邻域的最大值来总结输出神经元[22]。输出层对输入图像进行分类所采用的方法为Softmax回归。在卷积层激活函数采用线性整流函数ReLU,加快网络收敛速度,减少消耗的计算资源和训练时间[23]。
对卷积层的前16层未做改动,将第17层卷积块替换成3个分开的卷积块,分开的卷积块最后再结合,得到所需的特征图。优化的网络结构17层参数数量总数704 512,相较于原始的VGG16网络结构第17层参数数量2 359 296明显减少。且提出的优化网络结构每个卷积块之后都可以增加一个ReLU激活函数,可以学习到更多特征,鲁棒性更强。
Keras和TensorFlow是深度学习的框架,允许使用图形进行各种数值计算并且支持GPU运算。本研究基于Keras和TensorFlow完成实验,Keras作为前端,TensorFlow作为后端。在这项工作中防止卷积神经网络过拟合的方法是Dropout方法。Dropout在每次训练的时候,通过在每个训练中随机省略一半特征检测器[24]。这样做是为了减少每次迭代中具有不同连接的网络训练节点之间的相互依赖性,防止过拟合。新的权重值可以通过反向传播算法使用两个概率和标注数据0或1来更新。当精度达到预定值或收敛条件时,终止训练过程。然后,使用常规的反向传播算法进行监督训练,以对整个网络进行微调。通过构建的VGG16的网络体系结构和数据预处理,实现特征提取和选择。最后,使用训练模型对测试数据进行评估分析。
1.4 实验与分析
评价标准采用肺结节分类方法常用的敏感性、特异性、准确性、受试者工作特征(receiver operating characteristic, ROC)曲线作为评价标准。为了评估毛玻璃结节的分类性能,分类准确性、敏感性和特异性方程由以下等式表示。
式中:TP为毛玻璃结节正确分类个数;TN为非毛玻璃结节正确分类的个数;FP为毛玻璃结节错误分类个数;FN为非毛玻璃结节错误分类的个数。
对于所提方法进行实验,训练数据集和测试数据集以4:1的比例随机组成,图像的尺寸裁剪为224×224,切片间隔为1 mm。定义的两个数据集之间没有患者或结节的任何重叠,并基于相同比例分布两组中的结节类型。
使用随机梯度下降法进行学习,最大限度地减少交叉熵的分类损失。学习率:0.001,批尺寸:20。使用加权交叉熵作为损失函数。LIDC-IDRI数据集使用5折交叉验证进行评估,4个子集用于训练/验证,1个用于测试。提出的网络结构使用Adadelta优化器进行训练,在公开的LIDC-IDRI數据集上预训练。从头开始训练最大迭代次数设置为150。
采用MATLAB 2016中的现成KNN和RF算法。当决策树数目设置为100时,该算法取得了较好的效果。采用深度学习工具Matconvnet,该工具是由Vedaldi A等人为MATLAB设计的[25]。
为了比较输入图像对毛玻璃结节分类结果的影响,分别构建基于原始图像作为输入图像的实验方法、基于灰度增强作为输入图像的实验方法、基于纹理和形状滤波增强作为输入图像的方法,前三种方法采用单输入图像,另构建本文所提出的基于灰度增强、纹理和形状滤波增强的多输入图像实验方法。表1给出了采用不同实验方法的肺结节分类的性能。
基于原始图像作为输入图像的实验方法和基于灰度增强作为输入图像的实验方法的分类准确率分别为68.3%和74.3%。基于纹理和形状滤波增强作为输入图像的方法的准确率为82.8%,在单输入图像中分类性能最好,但毛玻璃结节的分类准确率仍不高。本文所提出的基于灰度增强、纹理和形状滤波增强的多输入图像实验方法准确率为91.7%,敏感性为85.3%,特异性为88.5%。敏感性和特异性也均有提高,在所有方法中显示出了最好的分类性能。
通过优化VGG16网络结构,减少模型参数,加快网络收敛速度,减少了模型的过拟合问题。同时,对于本文所提出的方法,研究比较了与三种传统分类器的分类性能,包括K最近邻(KNN),随机森林(RF)和支持向量机(SVM),其中SVM具有最佳性能。表2给出了3种分类器对毛玻璃结节的分类性能。
由表2可知,SVM具有最好的分类性能,其准确率、敏感性、特异性分别为90.7%、83.3%、85.5%,在3种分类器中性能最佳,但3种评价指标均低于本文提出的方法。
此外,采用ROC曲线来检验分类性能,ROC曲线如图4所示。ROC曲线图是反映敏感性与特异性之间关系的曲线。曲线下部分的面积被称为AUC(area under curve),用来表示预测准确性,AUC值越高,曲线下方面积越大,说明预测准确率越高。
由图4可知,本文所提方法对毛玻璃结节分类效果良好,且相比于传统分类器的分类性能更好。
最后,将本文所提方法与同使用LIDC-IDRI数据集的肺结节分类方法进行比较,验证方法同使用5折交叉验证,其准确率、敏感性和特异性对比如表3所示。
由表3可知,其他三种方法的准确率和敏感性皆低于本文提出的基于灰度增强、纹理和形状滤波增强的三维深度卷积神经网络用于肺结节(毛玻璃结节)分类方法。本文所提方法可有效提高毛玻璃结节分类性能。特异性高意味着误诊率低,本文所提方法在特异性上略低于文[12]和文[18],但相比于准确率和敏感性的提高是可以接受的。出现这种情况可能是因为数据分割及标注过程出现的误差所致,说明本文方法倚赖于良好的结节分割,这也是后续研究需要重点克服的困难。
2 結 论
本文研究了基于三维卷积神经网络的肺结节分类,创新的提出一种基于灰度增强、纹理和形状滤波增强的方法,并对VGG16网络模型进行优化。与原始图像、仅使用灰度增强和使用纹理和形状滤波增强的方法相比,结果表明所提出的基于灰度增强、纹理和形状滤波增强的三维深度卷积神经网络分类方法可以更好地从三维图像中提取毛玻璃结节特征,并有效地将其特征用于识别分类结节,优于当前几种传统分类器算法。
本文的不足是该方法在很大程度上依赖于良好的结节分割。一旦对肺结节区域的描述不正确,该方法可能性能有所下降。论文对图像ROI的提取采用的是基于人工的方法,部分实验研究工作量较大。因此下一步是解决ROI的自动提取问题和对三维网络结构进一步优化,加深网络层,提取高维特征,提高分类性能。
早期的肺结节检测对于发现肺部病变以提高患者治疗几率并增加生存率非常重要,因此肺结节检测分类具有重要意义。此外,理论上本文提出的方法可以通过迁移学习,应用到其他医学影像或者更多领域的数据集之中。
参 考 文 献:
[1] BRAY F,FERLAY J, SOERJOMATARAM I, et al. Global Cancer Statistics 2018:GLOBOCAN Estimates of Incidence and Mortality Worldwide for 36 Cancers in 185 Countries[J].CA:a Cancer Journal for Clinicians,2018, 68(6):394.
[2] CHEN W, ZHENG R, BAADE P D, et al. Cancer Statistics in China, 2015[J].CA:a Cancer Journal for Clinicians,2016, 66(2):115.
[3] 李兰英,孔银,陈德运.一种新的卷积神经网络的ECT图像重建算法[J].哈尔滨理工大学学报,2017,22(4):28.
LI Lanying,KONG Yin,CHEN Deyun. A New ECT Image R Econstruction Algorithm Based on Convolutional Neural Network[J]. Journal Of Harbin University of Science and Technology,2017,22(4):28.
[4] BENGIO Y. Learning Deep Architectures for AI[J]. Foundations and Trends in Machine Learning,2009, 2(1):1.
[5] 周飞燕,金林鹏,董军.卷积神经网络研究综述[J].计算机学报,2017,40(6):1229.
ZHOU F Y, JIN L P, DONG J. Review of convolutional neural network [J]. Chinese Journal of Computers. 2017, 40(6):1229.
[6] LONG J, SHELHAMER E, DARRELL T. Fully Convolutional Networks for Semantic Segmentation[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition,2015:3431.
[7] KRIZHEVSKY A, SUTSKEVER I, HINTON G E. Imagenet Classification with Deep Convolutional Neural Networks[C]//Advances in Neural Information Processing Systems,2012:1097.
[8] UNAR S, WANG X, ZHANG C. Visual and Textual Information Fusion Using Kernel Method for Content Based Image Retrieval[J]. Information Fusion,2018,44:176.
[9] UNAR S, WANG X, WANG C, et al. A Decisive Content Based Image Retrieval Approach for Feature Fusion in Visual and Textual Images[J]. Knowledge-Based Systems,2019,179:8.
[10] MESSAY T, HARDIE R C, ROGERS S K. A New Computationally Efficient CAD System for Pulmonary Nodule Detection in CT Imagery[J]. Medical image analysis,2010,14(3):390.
[11] JACOBS C, van RIKXOORT E M, TWELLMANN T,et al. Automatic Detection of Subsolid Pulmonary Nodules in Thoracic Computed Tomography Images[J]. Medical Image Analysis, 2014, 18(2):374.
[12] SHEN W, ZHOU M, YANG F, et al. Multi-crop Convolutional Neural Networks for Lung Nodule Malignancy Suspiciousness Classification[J].Pattern Recognition,2017,61:663.
[13] SUN W, ZHENG B, QIAN W. Automatic Feature Learning Using Multichannel ROI Based on Deep Structured Algorithms for Computerized Lung Cancer Diagnosis[J]. Computers in Biology and Medicine, 2017, 89:530.
[14] SETIO A A A, CIOMPI F, LITJENS G,et al. Pulmonary Nodule Detection in CT Images:False Positive Reduction Using Multi-view Convolutional Networks[J]. IEEE Transactions on Medical Imaging,2016, 35(5):1160.
[15] LI C, ZHU G, WU X, et al. False-positive Reduction on Lung Nodules Detection in Chest Radiographs by Ensemble of Convolutional Neural Networks[J]. IEEE Access, 2018, 6:16060.
[16] ZHOU Z, SIDDIQUEE M M R, TAJBAKHSH N, et al. Unet++:A Nested U-net Architecture for Medical Image Segmentation[M]//Deep Learning in Medical Image Analysis and Multimodal Learning for Clinical Decision Support. Springer, Cham, 2018:3.
[17] 刘露,杨培亮,孙巍巍,等.深度置信网络对孤立性肺结节良恶性的分类[J].哈尔滨理工大学学报,2018,23(3):9.
LIU Lu,YANG PeiIiang,SUN Reiuwei,et al. DBN Classifier for Classification of Benign and Malignant Solitary Pulmonary Nodule[J]. Journal Of Harbin University of Science and Technology,2018,23(3):9.
[18] XIE Y, ZHANG J, XIA Y, et al. Fusing Texture, Shape and Deep Model-learned Information at Decision Level for Automated Classification of Lung Nodules on Chest CT[J]. Information Fusion, 2018,42:102.
[19] GU Y, LU X, YANG L, et al. Automatic Lung Nodule Detection Using a 3D Deep Convolutional Neural Network Combined with A Multi-scale Prediction Strategy in Chest CTs[J]. Computers in Biology and Medicine, 2018,103:220.
[20] JACOBS C, van RIKXOORT E M, MURPHY K, et al. Computer-aided Detection of Pulmonary Nodules:A Comparative Study Using the Public LIDC/IDRI Database[J]. European Radiology, 2016, 26(7):2139.
[21] SIMONYAN K, ZISSERMAN A. Very Deep Convolutional Networks for Large-scale Image Recognition[J]. arXiv Preprint arXiv:1409.1556, 2014.
[22] GONG Y, WANG L, GUO R, et al. Multi-scale Orderless Pooling of Deep Convolutional Activation Features[C]//European Conference on Computer Vision. Springer, Cham, 2014:392.
[23] XU B, WANG N, CHEN T, et al. Empirical Evaluation of Rectified Activations in Convolutional Network[J]. arXiv Preprint arXiv:1505.00853, 2015.
[24] HINTON G E, SRIVASTAVA N, KRIZHEVSKY A, et al. Improving Neural Networks by Preventing Co-adaptation of Feature Detectors[J]. arXiv Preprint arXiv:1207.0580, 2012.
[25] VEDALDI A, LENC K. Matconvnet:Convolutional Neural Networks for Matlab[C]//Proceedings of the 23rd ACM International Conference on Multimedia.ACM, 2015:689.
(編辑:温泽宇)