叶林飞 徐建省 孔德昱
摘 要: 为了实现消化道图像中出血病灶的自动识别,本文提出了一种基于卷积神经网络的图像识别系统。该识别系统使用python以及TensorFlow进行卷积神经网络的搭建,并通过对比不同网络结构的识别准确度,选择合适的网络参数和训练参数,最后利用网络的识别结果,通过区域回归方法标记图像中的病灶区域。最终的实验结果表明:该图像识别系统的对于消化道出血图像的识别准确度可达92.30%,并能够在图像中标记出血区域。
关键词: 图像;卷积神经网络;出血;检测
【Abstract】: In order to realize automatic recognition of hemorrhagic lesions in digestive tract images, an image recognition system based on convolution neural network is proposed in this paper. The recognition system used Python and TensorFlow to construct convolution neural network. By comparing the recognition accuracy of different network structures, the appropriate network parameters and training parameters were selected. Finally, the recognition results of the network were used to mark the lesion area in the image by regression method. The result shows that the recognition accuracy of the image recognition system for gastrointestinal bleeding image are measured as 92.30%, and the bleeding area can be marked in the image.
【Key words】: Images; Convolutional neural network; Bleeding; Detection
0 引言
消化道出血是十分常見的一种消化道疾病,也是判别消化道是否存在病灶的主要依据之一。近年来发展迅速的胶囊内窥镜由于其具有非侵入性而受到患者喜爱,并且由于其能够观察小肠而成为消化道疾病检查的主要方法之一[1]。目前,对于胶囊内窥镜图像的出血检测主要是通过医生观察全部的胶囊内窥镜产生的图像。胶囊内窥镜依靠消化道蠕动而前进,在消化道内工作时间大约为7小时,单次检测所产生的图片往往多达55000张[2]。在如此巨大数量下进行出血检测是十分耗时且枯燥的工作,因此,利用计算机技术进行出血病灶的智能检测是一个必然的趋势。
现有的出血病灶识别方法主要通过前期的特征提取以及特定分类器的训练,利用分类器对于图像的判别结果从而判别是否存在出血病灶。常使用的手工特征包括图像的颜色特征[3-5]、结构特征[6-7]等。在获得手工特征后,需要使用分类器对图像进行判别,常使用的分类器包括多层感知机[5-7],支持向量机[4-8]等。
Sonu等[2]使用红绿蓝(RGB)空间的颜色特征如均值、标准差、能量等,用于识别无线胶囊胃镜出血图像,并对比了使用不同特征的结合组合的识别效果。Li等[5]利用色调、色饱和度、亮度(HSI)空间的颜色特征和多层感知机进行识别。Sindhu等[7]通过计算感兴趣区域的区块的SIFT特征和灰度共生矩阵等结构特征,并利用多层感知机用于识别图像。Yi等[8]使用最小生成树对图像进行聚类,并使用支持向量机对图像进行识别分类。Pan等[9]在HSI颜色空间对图像进行分割后使用概率神经网络(PNN)进行识别。
手工特征的选取需要根据出血病灶在图像上的具体表现,专门针对某种表现而设计,因此对特定目标十分有效。但是,手工特征需要与分类器结合才可发挥作用,并且手工特征仅仅针对单一表现,无法根据图像信息进行优化。因此,需要寻找一种更加优异的方法用于检测出血病灶图像。
随着计算机技术和深度学习技术的发展,使用卷积神经网络(CNN)用于识别胶囊内窥镜图像中的病灶成为一种新的图像识别方法。CNN不仅能够用于图像分类任务[10-14],也可用于图像中的病灶识别任务[14-15]。CNN相比于手工特征,其能够寻找到手工特征无法描述的特征共性,从而能够达到更优的识别效果。
本文提出了一种使用卷积神经网络用于识别胶囊内窥镜图像中的出血病灶的方法,首先将出血区域的图像作为网络的输入,之后通过卷积层获取到卷积特征,并利用降采样减少特征数量,之后使用全连接层获得能够进行分类的特征,最后将特征输入到分类器中进行分类,获得分类结果。训练后的网络可对图像进行识别分类,并可通过处理分类结果获得出血病灶区域。
1 卷积神经网络
神经网络最初由Lecun等人提出[16],之后经过多次改进,最终形成了较为成熟的可完成现实任务的网络[17-20]。本文提出了一个共9层的卷积神经网络,网络包括3层卷积层(C1-C3)、3层最大值池化层(MP1-MP3)、以及3层全连接层(FC1-FC3)。网络的具体结构如图1所示。本文使用线性整流函数(Relu)作为3层卷积层和前两层全连接层的激活函数。使用最大值池化函数(Maxpool)选取池化层输入的最大值,从而减少需要计算的数据量。最后,使用柔性最大值(Softmax)函数作为第三层全连接层的激活函数,其具有两个神经元,能够输出是否为出血或正常的分类结果。
1.2 训练过程
本文使用的CNN网络采用Python与TensorFlow进行编写,选取的批尺寸(Batchsize)为30,学习率(Learning rate)为0.0001,迭代次数为5000。
2 实验结果与分析
2.1 消化道图像的选取
本文使用的图像集来自于金山公司提供的胶囊内镜临床疾病图谱[21],共有1700张图像,图像大小为120×120×3,其中1200张用于训练,500张用于测试,训练和测试所使用的正常和出血图像数量的比例为3∶1。如图2所示,使用的正常图像共1200张,出血图像共500张图像。出血图像类型主要有两种,点状出血的以及片状出血。点状出血表现为单个或多个深红色点状出血区域,块状出血多为块状浅红色或鲜红色区域。
2.2 网络结构的选择
为了选取最适合图像数据集的网络结构,本文对比了使用不同大小卷积核的网络的识别准确度,并对比了全连接层的神经元个数对网络识别准确度的影响。在卷积层C1、C2和C3中,使用的卷积核个数分别为32、64和128。如表1所示,通过改变使用的卷积核大小,图像的识别准确度也有所变化。针对使用的图像数据集而言,若使用5×5的卷积核,识别结果并不可以达到文献中所描述的较高的准确度00。若使用11×11的卷积核,识别准确度明显下降。结果显示,在使用全部大小为3×3的卷积核时,网络的识别率达到最高,大约为92.3%。
通过设置全连接层FC1和FC2的神经元结点个数,对比不同情况下的识别准确度,最终确定全连接层FC1和FC2所使用的神经元结点数。如表2所示,由于第三层卷积层的卷积核个数为128,若第一层全连接层的神经元结点数在其1/2和两倍之间,识别准确度变化不大,但是若超出一定范围后,识别准确度有较大的下降。第二层全连接层的神经元结点个数在合适范围内能够保证识别准确度基本不变,但结点数不可超过256个。结果显示,在使用全连接层神经元个数分别为128和32的网络的识别准确度最高。
2.3 训练参数的选择
训练参数尤其是批尺寸和学习率的选择不仅影响训练时的计算时间,而且对于最终的识别准确度也有一定的影响。针对训练参数对准确度的影响,本文通过对比在不同参数值情况下的识别准确度,获得最适合于数据集的参数。具体数值如表3所示。
如表3所示,学习率对于准确度的影响较大,并且学习率对于准确度的有效区间较小,往往需要对学习率进行微调,以达到最佳系数,因此在确认网络结构时需要先确定学习率的大小。网络使用的批尺寸大小与识别准确度的关系并不密切,但不可小于20。通过比较使用不同的批尺寸和学习率的网络识别准确度,选择批尺寸为30,学习率为0.0001时,能够达到最佳的准确度。
最后,本文对比了不同识别方法对于出血图像的识别准确度,如表4所示。所对比的方法包括Sonu等[2]使用的基于RGB空间的方法、Li等[5]使用的基于HSI和多层感知机的方法、Pan等[9]使用的基于HSI和PNN的方法以及本文使用的基于CNN的识别方法。使用的数据为同一数据集。结果显示,对比与传统识别方法,基于CNN的识别方法有其优 越性。
2.4 区域回归
在獲得最终的分类网络后,由于网络训练和测试时使用的图像大小为120×120,而胶囊内窥镜获得的图像大小为576×576,因此,需要对大图像进行区域提取,获得120×120的图像,之后在输入到网络中进行分类,获得分类结果。通过对分类结果进行处理,能够获得图像的区域信息,判断某个区域是否存在病灶,最后对该区域进行标记,标记结果如图3所示。
如图3所示,通过病灶区域回归步骤,能够获得病灶区域的大致位置,虽然可能由于准确度不足而无法标记到准确位置,但对于较为明显的病灶,标记结果尚可。
3 结论
本文使用卷积神经网络用于胶囊内窥镜图像中的出血病灶识别,通过对比不同网络结构以及网络参数和训练参数下的准确度,获得最佳的卷积核大小、数量、批尺寸大小以及学习率,最终网络的分类准确度可达92.30%。最后,在获得分类结果后,使用区域回归方法获得病灶的区域并标记。未来需要提高分类的准确度从而使区域标记更加准确,提高分类准确度可通过改进网络结构、增加图像特征等方法实现。
参考文献
[1] 张伟, 谢德明. 胶囊内镜的技术进展及临床应用[J]. 生物医学工程与临床, 2012, 16(05): 499-503.
[2] Sainju Sonu, Bui Francis M, Wahid Khan, Bleeding detection in wireless capsule endoscopy based on color features from histogram probability[J]. doi: 10.1109/CCECE.2013.6567779. 2013 26th IEEE Canadian Conference on Electrical and Computer Engineering (CCECE), 2013: 1-4.
[3] 潘国兵. 无线胶囊内窥镜系统及内窥图像中出血智能识别研究[D]. 上海交通大学, 2010: 73-79.
[4] Ghosh T, Bashar S. K, Fattah S. A, Shahnaz C, Wahid K. A, A feature extraction scheme from region of interest of wireless capsule endoscopy images for automatic bleeding detection[J]. doi: 10.1109/ISSPIT.2014.7300597. 2014 IEEE International Symposium on Signal Processing and Information Technology (ISSPIT), 2014: 000256-000260.
[5] Li B, Meng M Q. Computer-aided detection of bleeding regions for capsule endoscopy images.[J]. IEEE transactions on bio-medical engineering, 2009, 56(4): 1032.
[6] Kumar R, Qian Zhao, Seshamani S, Mullin G, Hager G, Dassopoulos T, Assessment of Crohn's Disease Lesions in Wireless Capsule Endoscopy Images[J]. doi:10.1109/TBME. 2011.2172438. IEEE Transactions on Biomedical Engineering, 2012, 2: 355-362.
[7] Sindhu C. P, Valsan Vysak, A novel method for automatic detection of inflammatory bowel diseases in wireless capsule endoscopy images[J]. doi: 10.1109/ICSCN.2017.8085711. 2017 Fourth International Conference on Signal Processing, Communication and Networking (ICSCN), 2017: 1-6.
[8] Yi Xiong, Yiting Zhu, Zhiyong Pang, Yuzhe Ma, Dihu Chen, Xinying Wang, Bleeding detection in wireless capsule endoscopy based on MST clustering and SVM[J]. doi:10.1109/ SiPS.2015.7345001. 2015 IEEE Workshop on Signal.
[9] Guobing Pan, Guozheng Yan, Xiangling Qiu, and Jiehao Cui. Bleeding detection in wireless capsule endoscopy based on probabilistic neural network. Journal of medical systems, 35(6): 1477-1484, 2011.
[10] 張晓明, 尹鸿峰. 基于卷积神经网络和语义信息的场景分类[J]. 软件, 2018, 39(01): 29-34.
[11] 刘腾飞, 于双元, 张洪涛, 等. 基于循环和卷积神经网络的文本分类研究[J]. 软件, 2018, 39(01): 64-69.
[12] 宋婷婷, 徐世许. 基于全采样和L1范数降采样的卷积神经网络图像分类方法[J]. 软件, 2018, 39(2): 75-80.
[13] 吴亚熙, 岑峰. 基于卷积神经网络的多层级目标检测方法[J]. 软件, 2018, 39(4): 164-169.
[14] Jia Xiao, Meng Max Q.-H, Gastrointestinal bleeding detection in wireless capsule endoscopy images using handcrafted and CNN features[J]. doi: 10.1109/EMBC.2017.8037526. 2017 39th Annual International Conference of the IEEE Engineering in Medicine and Biology Society (EMBC), 2017: 3154-3157.
[15] Jia X, Meng M Q, Xiao J, et al. A deep convolutional neural network for bleeding detection in Wireless Capsule Endoscopy images.[J]. IEEE Engineering in Medicine and Biology Society, 2016: 639-642.
[16] Lecun Y, Bottou L, Bengio Y, Haffner P, Gradient-based learning applied to document recognition[J]. doi: 10.1109/ 5.726791. Proceedings of the IEEE, 1998, 11: 2278-2324.
[17] Krizhevsky Alex, Sutskever Ilya, Hinton Geoffrey, ImageNet classification with deep convolutional neural networks[J]. doi: 10.1145/3065386. Communications of the ACM, 2017, 6: 84-90.
[18] Simonyan K, Zisserman A. Very Deep Convolutional Networks for Large-Scale Image Recognition[J]. Computer Science, 2014.
[19] 蒲杰方, 卢荧玲. 基于聚类算法和神经网络的客户分类模型构建[J]. 软件, 2018, 39(4): 130-136.
[20] 赵文可, 孙玉国. 弹性RBF神经网络在人脸识别中的应用研究[J]. 软件, 2018, 39(5): 203-206.
[21] 重庆金山科技有限公司. 胶囊内镜临床疾病图谱[OL]. (2018-12-19). http://www.jinshangroup.com/