基于改进K-medoids的聚类质量评价指标研究①

2019-07-23 02:08邹臣嵩段桂芹
计算机系统应用 2019年6期
关键词:中心点聚类定义

邹臣嵩,段桂芹

1(广东松山职业技术学院 电气工程系,韶关 512126)

2(广东松山职业技术学院 计算机系,韶关 512126)

聚类是在没有任何先验知识的指导下,从样本集合中挖掘出潜在的相似模式,并将其划分成多个组或簇的过程,其目的是使得簇内相似度高,而簇间相似度低,数据对象的簇可以看做隐含的类,聚类可以自动地发现这些类.由于在聚类过程中并没有提供类的标号信息,因此,聚类又被称做无监督学习,对于无先验知识的样本来说,如何对其聚类结果进行有效评价是国内外的研究热点,许多经典的内部聚类评价指标先后被提出,如CH,I,DB,SD,BWP 等,然而这些指标可能会受噪声等异常的影响,因此,如何改进或设计出更为科学合理的评价指标是聚类评价领域的一个重要研究方向.此外,聚类结果评价除了和有效性指标本身有关,还与所采用的聚类算法密不可分,研究表明,没有任何一种聚类算法可以得到所有数据集的最优划分[1],而应用范围较广的K-means、K-medoids 及其衍生算法[2]在实际应用中又存在一定的不足.为此,本文对常用聚类评价指标进行了对比分析,提出了一个新的评价指标,并对K-medoids 算法进行了改进,在此基础上,设计了聚类质量评价模型,先后采用UCI 数据集和KDD CUP99数据集对新模型进行了验证,实验结果表明,新评价指标的聚类数正确率明显高于其他四种常用指标,聚类质量评价模型可以给出精准的聚类数范围.

1 研究现状

1.1 划分式聚类算法

划分式聚类算法[3]在运算前需要人工预定义聚类数k,再通过反复迭代更新各簇中心,不断优化(降低)目标函数值,逐渐逼近最优解,完成最终聚类,Kmeans 和K-medoids 是两种典型的划分式聚类算法.Kmeans 算法的簇中心是通过计算一个簇中对象的平均值来获取,它根据数据对象与簇中心的距离完成"粗聚类",再通过反复迭代,将样本从当前簇划分至另一个更合适的簇来逐步提高聚类质量,其核心思想是找出k个簇中心,使得每个数据点到其最近的簇中心的平方距离和被最小化.该方法描述容易、实现简单快速,是目前研究最多的聚类方法,文献[4-6]从初始簇中心的选择、对象的划分、相似度的计算方法、簇中心的计算方法等方面对该经典算法进行了改进,使其适用于不同的聚类任务,但在使用中存在一些不足:簇的个数难以确定;聚类结果对初始值的选择较敏感;算法容易陷入局部最优值;对噪音和异常数据敏感;不能用于发现非凸形状的簇,或具有各种不同规模的簇.

当样本中存在一个或多个极值对象时,采用均值算法会显著地扭曲数据的分布,而平方误差函数的使用会进一步地扩大这一影响,针对这一问题,Kmedoids 通过试图最小化所有对象与其所属簇的中心点之间的绝对误差之和的方式找出簇中心点.典型基于中心的划分方法有PAM、CLARA 和CLARANS[7],虽然K-medoids[8]算法对噪声和异常数据的敏感程度有所改善,但仍依赖于初始类簇中心的随机选择,且更新类簇中心时采用全局最优搜索,故耗时较多.文献[9]提出一种快速K-medoids 算法,从初始聚类中心选择、类簇中心更新方法两方面对PAM 算法进行改进,基本思想是:首先计算数据集中每个样本的密度,选择前k个位于样本分布密集区域的样本为初始聚类中心,再将其余样本分配到距离最近的类簇中心,产生初始聚类结果;然后,在每个类簇内部找一个新中心,使该簇非中心样本到中心样本距离之和最小,进而得到k个新中心;最后按距离最近原则,重新分配所有非中心样本到最近类簇中心,如果本次迭代所得聚类结果与前一次不同,则转至下一次迭代,否则算法停止.在实际应用中,该算法的初始中心在一定程度上存在过于集中的可能,因此,从样本的空间结构来看,各中心点的分散程度不高,代表性依然不足.

1.2 内部评价指标

聚类有效性评价指标是对聚类结果进行优劣判断的依据,通过比较指标值可以确定最佳聚类划分和最优聚类数,在对聚类结果进行评估时,内部评价指标在不涉及任何外部信息的条件下,仅依赖数据集自身的特征和度量值,通过计算簇内部平均相似度、簇间平均相似度或整体相似度来评价聚类效果的优劣和判断簇的最优个数.理想的聚类效果是簇内紧密且簇间分离,因此,常用内部评价指标的主要思想是通过簇内距离和簇间距离的某种形式的比值来度量的.

为便于对各指标和本文算法进行描述,设样本集合X={x1,x2,…,xi,…,xN},|X|=N,各样本特征数为p,该样本集由k个簇构成,即X={C1,C2,…,Ck},每簇样本数为n,c为样本集的均值中心,簇中心集合V={v1,v2,…,vk}(k<N),常见的内部评价指标及其特点如下:

(1)DB 指标(Davies-Bouldin Index)[10]

DB 指标将相邻两簇的簇中各样本与簇中心的平均距离之和作为簇内距离,将相邻两簇的簇中心间的距离作为簇间距离,取二者比值最大者作为该簇的相似度,再对所有簇的相似度取平均值得到样本集的DB 指标.可以看出,该指标越小意味着各簇间的相似度越低,从而对应更佳的聚类结果.DB 指标适合评价"簇内紧凑,簇间远离"的数据集,但当数据集的重叠度较大(如:当遇到环状分布数据时),由于各簇的中心点重叠,因此DB 指标很难对其形成正确的聚类评价.

(2)CH 指标(Calinski-Harabasz)[11]

CH 指标将各簇中心点与样本集的均值中心的距离平方和作为数据集的分离度,将簇中各点与簇中心的距离平方和作为簇内的紧密度,将分离度与紧密度的比值视为CH 的最终指标.该指标越大表示各簇之间分散程度越高,簇内越紧密,聚类结果越优.Milligan 在文献[12]中,对CH 等评价指标的性能进行了深入探讨,实验结果表明:CH 指标在多数情况下,都要优于其它的指标,但当聚类数趋近于样本容量N时,各样本自成一簇,簇中心即为样本自身,此时簇内距离和约等于0,分母为极小值,CH 指标将趋于最大,此时的聚类评价结果无实际意义.

(3)XB 指标(Xie-Beni)[13]

和CH 指标一样,XB 也是将簇内紧密度与簇间分离度的比值作为指标的表达式,期望在簇内紧密度与簇间分离度之间寻找一个新的平衡点,使其达到一个理想化的极值,从而得到最优的聚类结果.与CH 指标不同是:XB 指标使用最小簇中心距离的平方作为整个样本集的分离度.

(4)Sil 指标(Silhouette-Coefficient)[14]

式中,a(x)是样本x所属簇的簇内凝聚程度,用x与其同一个簇内的所有元素距离的平均值来表示,凝聚度a(x)定义为:

式中,b(x)是样本x与其他簇的簇间分离程度,用x与其它簇之间平均距离的最小值来表示,分离度b(x)定义为:

从式(4)可以看出,当簇内距离减小,簇间距离增大时,Sil 指标值增大,聚类结果趋于理想,因此,要取得最佳聚类,就需要减少簇内各点之间的距离,同时增大簇间的距离.然而,与CH 指标类似,当数据接近散点状分布时,聚类结果并不理想,此外,当数据成条状分布的时,各簇中心非常接近,且聚类结果非常理想,但Sil 指标此时最小,并不能对聚类结果做出客观的评价.

2 聚类质量评价模型

聚类质量评价模型由聚类算法和内部评价指标两部分构成,鉴于K-medoids 算法及其改进算法在初始聚类中心选择阶段存在的问题,以及上述常用内部评价指标存在的缺陷,本文对二者分别进行了改进,具体如下.

2.1 改进K 中心点聚类算法

本文在文献[7,8]的基础上,选取被其他样本紧密围绕且相对分散的数据对象作为初始聚类中心,使得中心点在确保自身密度较大的同时还具备良好的独立性.基本思路是:首先通过计算样本集中各样本间的距离得到样本集的距离矩阵;将样本集与各样本的平均距离的比值作为样本的密度,选取密度值最高的α个样本存入高密度点集合H中,α表示候选代表点在样本集中所占的比例,该值可由用户指定,本文实验环节中的α值为30%;从集合H中选取相对分散且具有较高密度的初始中心存入集合V,即V={v1,v2,…,vk}.最后,借鉴文献[7]的算法,将各样本按最小距离分配至相应簇中,重复这一过程,直至准则函数收敛,本文算法的定义和公式如下.

定义1.空间任意两点间的欧氏距离定义为

其中,i=1,2,…,N;j=1,2,…,N

定义2.数据对象xi的平均距离定义为:xi与全部样本的距离之和除以样本集的总个数.

定义3.样本集的平均距离定义为:各数据对象间的距离总和除以从样本集中任选两个对象的所有排列次数.

定义4.数据对象xi的密度定义为:样本集的平均距离与数据对象xi的平均距离的比值.

定义5.数据对象xi与所属簇的各数据对象的距离之和为:

其中,xi,xj∈Ct,t=1,2,…,k

定义6.簇Ct的簇内距离和矩阵为:

其中,t=1,2,…,k

定义7.数据对象xi在簇更新过程中被视为簇中心的条件为:

其中,xi∈Ct,t=1,2,…,k

定义8.聚类误差平方和E的定义为

其中,xtj是第t簇的第j个数据对象,vt是第t簇的中心.

2.2 聚类有效性指标Improve-XB

在对无先验知识样本的聚类结果进行评价时,通常将“簇内紧密,簇间分离”作为内部评价的重要标准,文献[11]和文献[13]将各簇中心之间的距离作为簇间距离,可能会出现因簇中心重叠而导致聚类评价结果失效等问题,为此本文提出:使用两个簇的最近边界点间的距离取代簇中心之间的距离,为了便于分析,以图1所示的人工数据集进行说明,该数据集由三个环形结构的簇构成,各簇中心极为接近,从DB、XB 指标公式可知,在计算该数据集的簇间距离时,由于簇中心点趋于重叠,必然会出现簇间距离近似于0 的情况,当以"簇内紧密,簇间分离"作为评判依据时,意味着此时簇间的相似度极高,从聚类划分的角度来看,应将二者合并为一簇以提高聚类质量,而事实上,这种错误的划分将导致图1的最终聚类全部合并为一个簇,这显然与真实的结果有着明显偏差.而本文使用簇间最近边界点间的距离表示簇间距离,则可以从几何特征上确保各簇的结构差异性,进而避免簇间距离为0 现象的发生,最大程度地反映出簇间的相似程度,克服了环状中心点因重叠而导致的聚类结果合并等问题,新指标IXB 定义及公式如下.

定义9.簇内紧密度(Compactness)定义为:各样本与所属簇的中心点的距离平方和.实质为:

定义10.簇间分离度(Separation)定义为:簇间最邻近边界点的距离平方和与簇内样本个数的乘积.

其中,xi和xj是簇Ci和Cj之间距离最近的边界点.

定义11.IXB 指标定义为簇内紧密度与簇间分离度的比值与其倒数之和,即实质为:

定义12.最优聚类数k定义为IXB(k)取最大值时的聚类数目,即:

其中,kmin=2,kmax采用文献[15]的AP 算法得到.

图1 环状分布数据集

IXB 指标由两部分组成:Sep/Comp随着聚类数k的增加而递增,Comp/Sep随着聚类数k的增加而递减,可以看出,IXB 指标通过制衡Sep/Comp和Comp/Sep之间的关系,确保了最优聚类划分,IXB 越大,意味着聚类质量越好.

2.3 聚类质量评价模型描述

将改进的K 中心点算法与IXB 指标相结合,构建聚类质量评价模型如图2所示,模型描述如下:

图2 聚类质量评价模型

(1)根据式(6)~(8)依次计算整个样本集的任意两点间的欧氏距离、各数据对象的平均距离和样本集的平均距离.

(2)根据式(10)计算各数据对象的密度,选取密度值最高的α个样本存入候选初始中心集合H中,令k=2.

(3)根据式(6)将集合H中相距最远的两个高密度点v1和v2存入初始中心集合V中.

(4)从H中选择满足与v1、v2距离乘积最大的v3,将其存储至V中.依次类推,得到相对分散且具有较高密度的初始中心集合V,V={v1,v2,…,vk}.

(5)在更新簇中心阶段,根据式(11)、式(12)得到簇内距离和矩阵,根据式(13)选出新的簇中心,沿用文献[7]的算法,将各样本按最小距离分配至相应簇中,重复这一过程,直至准则函数式(14)收敛.

(6)使用式(17)计算IXB 指标,对当前聚类结果进行评价,令k=k+1,重复步骤(4),直至k=kmax.

(7)使用式(18),将IXB 取最大值时的k值作为最优聚类数.

2.4 模型的性能分析

本文算法将样本集与各样本的平均距离比值作为样本的密度,将高密度点视为候选簇中心,确保了聚类中心的代表性,使用最大乘积法对高密度点进行二次筛选,增强了候选簇中心在空间上的离散程度,使得聚类中心兼具代表性和分散性,提高了逼近全局最优解的概率,这样选择的初始聚类中心更符合样本的分布特征,甚至有可能位于真实的簇中心,因此,所得到的初步聚类划分与样本的真实分布更加接近.在聚类结果评价方面,通过将簇间最邻近边界点的距离平方和与簇内样本个数的乘积作为簇间分离度,在簇内紧密度与簇间分离度之间寻找一个新的平衡点,从而得到一个理想化的极值,通过搜索该极值,即可有效地完成最优聚类划分,确定最优聚类数目k,从而得到更好的聚类结果,从整体上提升无先验知识样本的检测率和分类正确率等评价指标.

3 实验结果与分析

实验分为两个部分,第一部分对聚类质量评价模型的有效性进行了验证:首先选用表1中的UCI 数据集对本文算法和其他改进算法的准确率、迭代次数、总耗时进行了对比测试,然后使用本文算法依次结合IXB 及其它4 个评价指标完成了聚类数对比测试;第二部分将模型应用于数据集KDD CUP99,从检测率、分类正确率、漏报率三个方面验证模型的实用性.本文实验环境:Intel(R)Core(TM)i3-3240 CPU @3.40 GHz,8 GB 内存,Win10 专业版,实验平台Matlab 2011b.

表1 实验数据

3.1 聚类质量评价模型的有效性测试

(1)改进聚类算法的对比测试

从表2~表4的实验对比结果可以看出,改进聚类算法的聚类准确率、迭代次数和总耗时全部优于其他四种算法,主要原因在于K 中心点的初始中心随机分布令迭代次数与总耗时同时增加,而文献[7]的初始中心点过于集中,文献[8]的初始中心虽然具有一定的分散性,但每次迭代都将簇平均值作为簇中心,个别维度存在受异常数据影响的隐患,因此,本文算法的整体耗时要低于文献[7,8]算法.需要特别指出的是,由于本文算法的初始聚类中心同时兼具代表性和分散性,不仅提高了聚类准确率,同时还降低了算法后期的迭代次数,因此,对算法的运算效率的提升产生了正向的推动作用.

表2 聚类准确率比较

表3 迭代次数

表4 聚类总耗时(单位:s)

(2)IXB 指标的有效性对比测试

观察表5可知,IXB 在5 个UCI 数据集上的聚类数正确率为80%,而DB、CH、XB 和Sil 指标依次为40%,60%,40%,60%,IXB 指标的聚类数正确率明显高于其他四种指标.

3.2 聚类质量评价模型在KDD CUP99 中的应用

本实验环节选取KDD CUP99[16]训练集中的17330 条记录作为训练数据,从corrected 数据集中随机抽取11420 条数据作为测试集用于检验模型的性能.为提高整体运行效率,在数据预处理方面,首先使用独热编码完成字符数据的格式转换,再通过属性简约法将数据集的41 个特征约简为15 个[17],最后将数据集归一化处理,形成新样本集,KDD CUP99 数据描述如表6.

表5 各内部评价指标聚类数对比

表6 KDD CUP99 数据集

(1)最优k值的获取

借鉴文献[15],使用AP 算法对样本集完成"粗聚类"得到训练集的最大聚类数kmax=29,如图3所示,在训练过程中,当15≤k≤20 时,K 中心点算法的IXB 增幅较大,当k=20 时,IXB 达到峰值,此后,随着k值的不断增大,IXB 总体呈下降趋势;文献[8],文献[9]和本文算法的IXB 随着k值的不断增大而缓慢增加,当25≤k≤28 时,三种算法的IXB 依次达到峰值,此后随着k值的再次增大,IXB 缓慢下降.由定义11 可知,当IXB 最大时k值即为最优,因此,三种算法使用IXB 得到训练集的最优k值分别为:k文献[8]=26,k文献[9]=28,k本文算法=28.

(2)IXB 对入侵检测指标的影响

在验证IXB 是否有助于提高检测精度的环节中,将图3中IXB 缓慢上升至峰值,再从峰值缓慢下降的这一阶段所对应的多个连续k值定义为最优聚类数范围,并对该范围内的各入侵检测指标进行对比,由于K 中心点算法的随机性较强,各项指标与k值之间无明显规律可循,因此,这里仅对其他三种算法的结果进行统计与分析.

图3 训练集的IXB-K 的关系图

如图4所示,当聚类数在[26,28]范围内时,3 种算法的检测率达到了最大,分别是:92.68%、91.69%、93.2%.

图4 不同k值的检测率

从图5的漏报率对比结果中可以看出:当聚类数在[26,27]范围内时,文献[8]和本文算法的漏报率最小,分别是:3.81%、2.86%.

图5 不同k值的漏报率

图6的正确分类率结果表明:当聚类数在[27,28]范围内时,3 种算法的正确分类率达到最大,分别是:94.27%、94.38%、94.78%.从图4~6 可以看出,IXB 越大,入侵检测指标越优.综上所述,本文提出的IXB 能够合理、客观地评价聚类结果,能够准确地反映出聚类质量,可以为无先验知识样本集的有效聚类提供重要参考依据.

图6 不同k值的分类正确率

5 结语

针对K 中心点算法的初始聚类中心代表性不足,稳定性差等问题,提出了一种改进的K 中心点算法,将样本集与样本的各自平均距离比值作为样本的密度参数,采用最大距离乘积法选择密度较大且距离较远的k个样本作为初始聚类中心,兼顾聚类中心的代表性和分散性.针对常用内部评价指标在聚类评价中的局限性,提出将簇间边界最近点的距离平方作为整个样本集的分离度,定义了以簇内紧密度与簇间分离度的比值与其倒数之和为度量值的内部评价指标IXB,结合改进的K 中心点算法设计了聚类质量评价模型.在UCI 数据集的测试表明,IXB 指标的聚类数正确率明显高于其他四种常用指标,在KDD CUP99 数据集的实验结果表明,本文提出的聚类质量评价模型可以给出精准的聚类数范围,能够在保持较低漏报率的同时,有效提高入侵检测率和分类正确率.

猜你喜欢
中心点聚类定义
一种傅里叶域海量数据高速谱聚类方法
以爱之名,定义成长
一种改进K-means聚类的近邻传播最大最小距离算法
AR-Grams:一种应用于网络舆情热点发现的文本聚类方法
严昊:不定义终点 一直在路上
定义“风格”
一种基于标准差的K-medoids聚类算法
Scratch 3.9更新了什么?
如何设置造型中心点?
基于Spark平台的K-means聚类算法改进及并行化实现