胡 典,郑璐瑶,郭彦铭,计明杰,徐光毅
(沈阳工业大学信息科学与工程学院,沈阳110870)
青光眼是一种引起眼睛视神经损伤、导致视力下降的疾病,也被称为“无声的视力窃贼”,是全球第二大致盲原因[1]。其特征是神经节细胞的功能丧失,导致视神经头部结构、视网膜神经纤维层厚度、神经节细胞和内丛状层的改变。据统计,全球人群中青光眼的患病率为3.54%,约有6426 万人;预计到2020 年和2040 年分别将达7602 万人和11182万人[2]。由于该病具有较高的隐蔽性,若得不到及时治疗,会对视神经造成不可逆转的损害,导致永久性视力丧失。
数字眼底图像是辅助医生分析、判断疾病的重要医疗工具[3],可以利用眼底图像对青光眼进行前期检测。及时发现可进一步控制青光眼的疗效,以免病情恶化。因此,早期诊断青光眼可以显著降低永久性失明的风险。近年来,眼底图像在视网膜疾病诊断中的应用越来越多,许多国内外学者基于眼底图像在青光眼诊断方面做了深入研究。传统的诊断方法[4-11]通过人工提取眼底图像特征对视盘(OpticDisk,OD)和视杯(Optic Cup, OC)进行分割,并进行青光眼分类,但由于分割误差大且耗时较长,容易出现人为的分类错误。因此,需要改进的自动化的机器学习方法辅助青光眼诊断,首先从视网膜图像中高效且准确地分割出视盘和视杯,然后使用不同的分类方法,通过计算性能指标等参数[12-13]将其诊断为正常或异常。
为改进现有方法,Wong 等人[14]提出了一种基于融合的杯盘比(CDR)进行青光眼评估,结合不同方法计算CDR 值,并将其输入分类器,采用神经网络和支持向量机对分割后的图像进行正常和异常分类。在性能分析上,支持向量机的CDR 错误率优于神经网络,提高了青光眼分类性能。但由于输入图像中存在血管而导致轮廓边界不均匀,影响了分割性能。Avushi 等人[15]提出了一种基于CDR 和边缘盘比(RDR)特征诊断青光眼的方法,首先采用大津阈值法对红色通道进行视盘分割,在绿色通道进行视杯分割并计算CDR 比值;然后通过视盘和视杯减除获得视网膜神经边缘,利用每个象限的掩膜得到ISNT 区域,计算RDR 比值;最后将特征输入支持向量机进行青光眼分类。结果表明,该方法在诊断青光眼准确性、灵敏度和特异性方面都有所提高。柯士园等人[16]提出基于集成学习的计算机辅助诊断青光眼算法,对杯盘比和视神经纤维层厚度原始数据降维后分别提取出新的二维特征来代表尺度和形状信息,将杯盘比和视神经纤维层厚度两种特征融合起来,分别采用线性和非线性分类器联合诊断青光眼。文献[17]基于彩色眼底图像中视盘自动定位来辅助青光眼诊断,通过自动检测OD 中心点并确定OD 直径来进行青光眼评估,克服了青光眼自动检测和定位的问题,但是由于视盘内有血管存在,可能导致视盘边界的错误检测。因此,为了更加准确地诊断青光眼疾病,在进行视盘定位与分割之前对眼底图像进行去除血管操作是预处理过程必不可少的。
为解决上述问题,提高计算机辅助青光眼检测技术的准确性,在此提出一种方法,首先对原始眼底图像的绿色通道分量进行中值滤波去噪和对比度增强操作,以更加方便地进行后续的血管分割、局部视盘区域分割操作;接着基于深度卷积神经网络对图像处理技术的预处理结果进行青光眼检测。为了提高青光眼检测的准确性。
对原始眼底图像进行前期预处理操作,利用视盘血管密集且粗大的特性进行血管分割,降低血管对视盘定位的影响,提高局部视盘区域的分割准确率,接着采用深度卷积神经网络(DCNN)进行青光眼检测。该方法的具体步骤如图1 所示。
图1 改进的青光眼检测方法步骤图
眼底图像处理过程如图2 所示。首先对原始眼底图像的三色通道进行分析。据研究,与蓝色通道分量相比,红色通道分量中的ROI 整体亮度值较高,与背景区域的连接处灰度变化剧烈,但血管信息损失严重且视盘亮度极高以至边界模糊;而绿色通道分量血管信息保留完整,视盘亮度较高且轮廓明显,如图2(b)所示,可以用来进行后续的血管分割、局部视盘区域分割操作。总体处理步骤可归纳如下:
1) 预处理
首先,使用双线性插值技术对原始眼底图像进行尺寸调整;然后,为了尽量避免噪声干扰的同时尽可能保留图像中的边缘信息,对眼底图像的绿色通道分量进行中值滤波去噪;最后,采取CLAHE 对比度增强算法来进行图像增强,在有效增强图像局部对比度的同时保留更多细节信息,此时进行后续的血管分割可以得到较好的效果,如图2(c)所示。
2) 血管分割
为了凸显血管像素并抑制背景像素需进行血管增强操作,使用形态学操作,即顶帽变换和底帽变换。这样会使微小或低对比度血管的对比度增强,但仍存在噪声,使得常规血管和微小血管的分析变得更加困难。为了解决这一问题,此处使用大津阈值分割操作,可粗略分割出血管像素[18],能更好地观察正常血管以及微小或低对比度的血管。使用此方法进行血管分割有助于后续准确地定位视盘,从而有利于实现局部视盘区域的精确分割,如图2(d)所示。
3) 局部视盘区域
在前步血管分割的基础上,依据血管提取结果,基于DLC 定向局部对比度算法进行快速提取OD候选区,以候选区附近的血管分支数为依据选取视盘亮斑即OD 定位结果,如图2(e)所示;而局部OD区域会以更高的分辨率保留更详细的信息,有利于学习精细的表示。因此,最后以OD 定位结果为中心裁剪出局部OD 区域,如图2(f)所示。
图2 眼底图像处理过程图
针对图像预处理结果,使用基于深度卷积网络(DCNN)进行青光眼检测,并使用Softmax 分类器进行二分类:青光眼和正常眼。在临床试验中,常采用精细测量来评价疾病指标,Salehinejad 等人[19]指出几何变换可以改变病理区域的形态,进而增强检测变换。在此,基于深度卷积神经网络模型,结合kmeans 分割算法对局部OD 区域进行OC 分割。最后在Softmax 激活作为像素化分类,以产生青光眼概率图,实现青光眼眼底图像检测。
深卷积神经网络是一种人工神经网络,它的权值分担网络结构使其更接近于生物神经网络,降低了网络模型的复杂性,减少了权值的数量。当网络的输入是多维图像时,其优势更加明显,可以直接将图像作为网络的输入,避免了传统识别算法的复杂特征提取和数据重建过程。该网络结构对平移、缩放、倾斜或其他形式的变形具有高度的不变性。
此处使用8 层DCNN,前5 层是卷积层,其余3层是完全连接层,最后一个完全连接层的输出被送入一个二路Softmax 分类器,它在两个类标签上产生一个分布。基于DCNN 的青光眼检测和分级分类器的概述如图3 所示。每一层由若干个二维特征图组成,其中每个特征图通常捕获图像的特定方面,如颜色、对象类别或属性,同时以粗分辨率保留空间信息。例如,pool5 层由256 个特征图组成,每个特征图的分辨率为6×6,因此,该层的特征图以6×6 的分辨率保存空间信息。虽然早期的图层捕获了一些基本的概念,如线、圆和条纹,但较深层的要素图可以识别出更多的高阶概念[20]。
图3 基于DCNN 的青光眼检测与分级分类器
3.1.1 实验数据库
为验证本方法的较高鲁棒性,采用Dhristi-GS数据库图像进行验证。该数据库共101 幅眼底图像,其中训练集50 幅,测试集51 幅,在该数据集释放中,眼底区域(具有视网膜结构的图像区域)已通过消除周围非眼底黑色区域从原始图像中提取,以获得约2047×1760 像素的图像。并且该眼底图像库包含专家标定的青光眼的CDR 值和INST 规则,并且为每幅眼底图像标注了OD 和OC 掩膜二值图。
由于训练数据量很小,为防止模型过拟合,提高模型的准确性和鲁棒性,对训练集图像进行数据扩充,通过以下选项之一随机采样每幅训练图像:
步骤1:使用整个原始输入图像;
步骤2:在300 像素范围内随机上下移动输入图像;
步骤3:按[0°,360°]范围内随机旋转输入图像;
步骤4:按[0,8,15]的因子随机缩放输入图像。
具体各类别下眼底图像数量如表1 所示。
表1 各分类下眼底图像数量对比
3.1.2 评价标准
采用四种常用的评估标准来衡量绩效:准确率(Accuracy)、召回率(Recall)、精确率(Precision)和 F1指标(F1_meature)。准确率是分类性能的总体度量,它是分类正确的样本数与总样本数之比;召回率是所有正例样本中被分对的比例;精确率是被分为正例的样本中实际为正例的比例;F1 指标是精确率和召回率的调和均值。它们的计算方法如下:
式中以 A、R、P 和 F1_meature分别代表准确率、召回率、精确率和F1 指标。以TP和TN分别表示真阳性和真阴性的数目;FP和FN分别表示假阳性和假阴性的数目。以Dhristi-GS 数据库青光眼样本为例,“真阳性”意味着样本被正确分类为青光眼。若青光眼样本被错误地归为其他分类,即称为“假阴性”。“真阴性”和“假阳性”的含义类似,“真阴性”意味着其他分类样本未被错误地归为青光眼,而“假阳性”意味着其他分类样本被错误地归为青光眼。调整诊断阈值可得到一系列标准得分,然后使用F1 指标得分最高的阈值作为最终阈值来预测青光眼分类性能。
为进一步验证该基于深度卷积神经网络辅助青光眼诊断方法的有效性,针对扩充后的眼底图像数据库,使用DCNN 模型对数据扩充后的训练集图像进行模型训练,测试结果如图4 所示。
图4 基于DCNN 的OD 和OC 分割结果图
如图4(a)所示,本方法提取的OD 掩膜(外圈)与数据库中专家给出的OD 掩膜(内圈)几乎重合。据分析可知,通过图像处理方法获取的局部OD 区域具有较高的分割准确性,便于后期进行二分类。
基于深度卷积神经网络模型,使用k-means 算法对OC 进行分割,并结合OC 呈圆形或椭圆形特性,利用基于最小二乘法椭圆拟合算法将不规则的曲线拟合成规则的椭圆形,如图4(b)所示。
对DCNN 模型训练完成后,利用数据扩充后的训练集图像进行青光眼验证。其中青光眼的召回率为86.24%,正常眼的召回率为96.41%。随后,用训练时模型未接触过的测试集进行测试,测试集包含图像共51 张,其中医生判定为青光眼的有38 张,正常眼13 张,系统分类后的分布情况如表2 所示。
表2 测试集样本分布情况
按照前文定出的评价标准,该系统的性能如表3 所示。
表3 模型可靠性判定结果
由表中数据可知,识别正常眼时的准确率最高,这是因为正常眼底图像的视盘和视杯轮廓清晰,特征更明显,而青光眼的特征则较为多样,且在有些情况下视盘与视杯的区分界限不够明确,更不容易进行区分,从而影响青光眼模型检测的准确性。可计算出,该模型的平均准确率为96.14%,平均召回率为95.47%,平均精确度为94.37%,平均F1 指标为95.13%。根据临床使用标准,该系统具有实用性。另外,根据表2 还可以看出,正常眼底图像错分为青光眼图像的概率为0,这增强了系统的实用性。
基于深度卷积神经网络提出一种青光眼检测方法,利用图像处理技术对眼底图像进行预处理,结合k-means 算法对局部OD 区域进行OC 分割,训练后的模型可将被检测的青光眼数据库图像分为正常眼底图像和青光眼图像两类。同时,采用的Dhristi-GS眼底图像库包含专家标定的青光眼的CDR 值和INST 规则,有助于开发出可靠和成熟的青光眼评估解决方案。该模型的准确率达96.14%,优于现有的青光眼检测方法,具有实用性,也为临床诊断提供了很好的辅助作用。