采用机器学习的聚类模型特征选择方法比较

2017-01-13 09:04赵玮
关键词:机器学习特征选择

赵玮

(北京联合大学 应用科技学院, 北京 100101)

采用机器学习的聚类模型特征选择方法比较

赵玮

(北京联合大学 应用科技学院, 北京 100101)

针对机器学习聚类模型在特征选择时存在的问题,首先,对特征选择在聚类模型中的适用性进行分析并对其进行调整和改进.然后,基于R语言中的递归特征消除(RFE)特征选择方法和Boruta特征选择方法进行特征选择算法设计.最后,应用聚类内部有效性指标,对在线品牌忠诚度聚类模型优化结果进行分析,进而对特征选择方法进行比较研究.结果表明:Boruta特征选择方法更具优势. 关键词: 特征选择; 聚类模型; 机器学习; 递归特征消除算法; Boruta方法

特征选择对基于机器学习的模型构建和优化有着重要意义.优质特征的选择和构建可以选择有限合理的特征,剔除不相关的特征,让模型得到数据集中良好的结构,使模型运算速度更快,模型结果更易理解,模型更易维护.因此,使模型发挥优良效果,需要通过特征选择的方法对模型进行优化.然而,基于机器学习的聚类模型进行特征选择存在以下2个问题.1) 特征选择方法通常是针对机器学习中的监督学习模型,需要具备目标特征变量,而聚类模型属于无监督学习[1-2],没有目标特征变量.2) R语言作为机器学习比较好的实践环境,提供了相应的特征选择包,但需要做比较分析.本文对特征选择在聚类模型中的适用性进行分析,应用R语言进行特征选择算法设计.

1 理论基础

1.1 特征选择适用性分析

特征选择要考虑聚类模型的适用性问题.聚类属于无监督学习[3],只有聚类特征变量,没有目标特征变量.因此,从在线消费数据集[4]中,以各品牌作为目标特征变量,研究聚类特征变量集对目标特征变量的影响,并根据影响程度的大小,决定选择哪些特征作为衡量品牌忠诚度的聚类特征.

1.2 R语言特征选择方法分析

以R语言作为机器学习特征选择和模型优化的实践环境.该环境中递归特征消除(RFE)特征选择方法[5]和Boruta特征选择方法具备特征选择基本方法的功能.再结合启发式搜索中的序列后向选择对特征进行选择,即从特征全集开始,每次减少一个特征用于模型构建,从而选择最优.

2 R语言特征选择算法设计

2.1 基于 RFE特征选择方法的算法设计

算法以聚类特征变量集和目标特征变量作为算法输入参数,具体实现的功能是评价变量的重要性和模型的精确性.算法核心程序如下所示.

f_select_feature_accuracy<-function(x_set,y_set)

{x_scale_filter <<- sbf(x_set,y_set,sbfControl=sbfControl(functions=rfSBF,verbose=F,method=‘cv’))

x_set<-x_set[x_scale_filter$optVariables]

x_scale_profile <<-rfe(x_set,y_set,sizes =c(1,2,3,4,5,6,7,8,9,10,11,12),rfeControl=rfeControl(functions=rfFuncs,method=‘cv’))

plot(x_scale_profile,type=c(‘o’,‘g’))}

由算法程序可知:算法核心是针对聚类特征变量集x和目标特征变量y实施过滤方法,并在此基础上确定变量对模型精确性的影响程度.其中,RFE方法应用rfe( )函数执行特征选择,其程序要点如下:rfe(x,y,sizes=1:MAX,rfeControl=control).

特征选择就是根据聚类特征变量集x对目标特征y的影响程度进行评价,从而对x中的特征重要性进行排序.其中,Size是特征个数;rfeControl用来指定特征选择算法的细节.

2.2 基于Boruta特征选择方法的算法设计

根据特征选择原理和思路,算法包括两个子算法,具体实现的功能主要是:对于子算法f_select_feature_Boruta,基于随机森林方法思想,通过循环迭代的方式对各特征的重要性进行评价,并对结果进行可视化呈现.对于子算法f_select_feature_Boruta_final,将特征重要性未被确定的暂定项进行最终判别.算法核心程序如下所示.

f_select_feature_Boruta<-function(x_set,y_set,mr,pv=0.01,mc=TRUE,do=2,hh=TRUE,gi=getImpRfZ)

{…boruta_total_scale<<-Boruta(x_set,y_set,maxRuns=mr,pValue=pv,mcAdj=mc,doTrace=do,holdHistory=hh,getImp=gi)…

plot(boruta_total_scale,xlab = “ ”,xaxt = “n”,main=“Boruta算法特征重要性”)…}

f_select_feature_Boruta_final<-function(boruat_result)

{…final_boruta_total_scale<-TentativeRoughFix(boruat_result) …

plot(final_boruta_total_scale,xlab = “ ”,xaxt = “n”,main=“Boruta算法特征重要性确认”)…

getSelectedAttributes(final_boruta_total_scale,withTentative = F)

result_df_boruta_total_scale <-attStats(final_boruta_total_scale) …}

由算法程序可知:算法核心是对于子算法f_select_feature_Boruta来说,主要通过Boruta()对各特征的重要性进行评价;对于子算法f_select_feature_Boruta_final来说,主要通过TentativeRoughFix( )方法对特征重要性进行最终判别.其中,Boruta方法应用Boruta( )函数执行特征选择,即Boruta(x,y,pValue=0.01,mcAdj=TRUE,maxRuns=100,doTrace=0,holdHistory=TRUE,getImp=getImpRfZ,…).特征选择就是根据评价特征集合x对目标特征y的影响程度进行评价,x中的特征对y的影响越显著,则x中的这个特征越重要.

3 实验及结果分析

3.1 实验数据

以在线消费者特征集作为聚类特征变量集x,通过特征选择方法选择出有效特征,实现在线品牌忠诚度的度量.其中,聚类特征变量集包含x_sum_count,sum_count,c_rate,x_sum_price,sum_price,p_rate,x_avg_score,x_sum_score,max_commentdate,max_buydate,max_usrtypenum,max_usrlocnum.目标特征变量y为L4(各品牌名称).

用以上数据进行特征选择和模型优化后,应用内部有效性指标针对模型优化结果对特征选择效果进行检验和分析.内部有效性指标包括SSE,SSB,IntraDPS和InterDPS[6-7].衡量的含义是SSE越小,SSB越大,IntraDPS越小和InterDPS越大,模型有效性越好,特征选择的效果也越好[8-10].未进行特征选择的初始模型内部有效性指标SSE,SSB,IntraDPS,InterDPS分别为225 429.700 0,101 762.300 0,0.689 0,0.311 0.

3.2 应用RFE特征选择算法的实验分析

应用RFE特征选择算法之前,将聚类特征变量集x和目标特征变量y作为参数,执行函数sbf,实施过滤方法.其结果作为rfe函数的参数,实施封装方法,实现变量重要性的评价及对模型精确性的判断,其结果如图1所示.由图1可知:通过递归特征消除算法,在数据集的9个特征中选取4个特征作为重要特征,分别是x_sum_price,sum_price,max_buydate,x_sum_count.当重要特征数量达到4个时,模型的精确性最高,如图2所示.

图1 模型精确性结果 图2 模型精确性可视化结果 Fig.1 Model accuracy result Fig.2 Model accuracy visualized result

基于4个重要特征的模型优化的结果,需要结合初始模型和RFE特征选择优化模型内部有效性检验的结果,进行比较分析,如表1所示.由表1可知:在4个指标中,RFE特征选择优化模型在SSE,InterDPS,InterDPS这3个指标上优于初始模型,表明经过RFE特征选择的模型,其有效性得到提升.

表1 初始模型和RFE特征选择优化模型内部有效性指标Tab.1 Internal validity index of initial model and RFE feature selection optimization model

3.3 应用Boruta特征选择算法的实验分析

将聚类特征变量集x、目标特征变量y和Boruta方法参数要素作为参数,执行函数f_select_feature_Boruta,没有特征被确定为重要特征和非重要特征,12个特征均被确定为暂定项.

由于存在暂定项,需要以f_select_feature_Boruta算法的执行结果集作为参数,执行f_select_feature_Boruta_final算法中的TentativeRoughFix函数以判别暂定项的重要性.经过进一步的判定,12个暂定项最终被归为重要特征.对于特征重要性确认结果,还可以通过getSelectedAttributes和attStats函数确认特征列表和创建一个数据框架进行描述.

对数据框架信息中的各项重要性指标进行分析.按照medianImp指标,可得指标结果及特征重要性的排序:38.404 31(x_sum_count)>26.929 42(sum_count)>26.783 07(x_avg_score)>25.623 44(c_rate)>25.094 46(x_sum_price)>24.051 46(x_sum_score)>23.583 09(p_rate)>19.840 42(sum_price)>15.650 59(max_buydate)>14.739 77(max_commentdate)>12.200 94(max_usrlocnum)>11.395 70(max_usrtypenum).

根据Boruta特征选择算法的特征重要性排序结果,结合序列后向选择,从聚类特征变量集的全集开始,每次减少一个进行模型构建.针对这些聚类特征变量集依次进行模型构建,分别命名为Boruta优化模型1~10,并从这些模型中选取最优.应用内部有效性检验指标分别对Boruta优化模型1~10进行检验.由检验结果可知:Boruta优化模型10各项指标明显优于初始模型及Boruta优化模型1~9.

3.4 RFE和Boruta特征选择方法的比较

RFE方法属于最小优化方法,依赖于特征的子集,其优势是最大限度地减少了随机森林模型的误差,而劣势是会丢失一些相关的特征.Boruta方法依赖全体特征,其特点是找到所有的特征,无论其与决策变量的相关性强弱与否.与传统的RFE特征选择算法相比,Boruta方法的优势是能够返回变量重要性的更好结果,解释性更强.因此,从方法上看,Boruta方法的特征选择更加有效.应用RFE和Boruta特征选择方法进行模型优化的内部有效性评价指标,如表2所示.由表2可知:采用Boruta方法选择的特征用于模型优化时,模型的聚类效果和有效性最好.

表2 RFE和Boruta特征选择方法进行模型优化的内部有效性评价指标Tab.2 Internal validity index of RFE and Boruta feature selection optimization model

4 结束语

解决了聚类模型特征选择存在的问题,设计了基于R语言中的RFE特征选择方法和Boruta特征选择方法实现特征选择的算法.在此基础上,应用聚类内部有效性指标,对在线品牌忠诚度聚类模型优化结果进行分析,并对RFE特征选择方法和Boruta特征选择方法进行比较.由此可知:Boruta特征选择方法对在线品牌忠诚度聚类模型优化更加适用和有效.

[1] 钱彦江.大规模数据聚类技术研究与实现[D].成都:电子科技大学,2009:4-5.

[2] 汪永旗,王惠娇.旅游大数据的MapReduce客户细分应用[J].华侨大学学报(自然科学版),2015,36(3):292-296.

[3] 方匡南.基于数据挖掘的分类和聚类算法研究及R语言实现[D].广州:暨南大学,2007:78-84.

[4] 刘蓉,陈晓红.基于数据挖掘的移动通信客户消费行为分析[J].计算机应用与软件,2006,23(2):60-62.

[5] 卢运梅.SVM-RFE算法在数据分析中的应用[D].长春:吉林大学,2009:16-28.

[6] 王曰芬,章成志,张蓓蓓,等.数据清洗研究综述[J].情报分析与研究,2007(12):50-56.

[7] 周开乐,杨善林,丁帅,等.聚类有效性研究综述[J].系统工程理论与实践,2014,34(9):2417-2431.

[8] 胡勇.聚类分析结果评价方法研究[D].包头:内蒙古科技大学,2014:62-63.

[9] KANUNGO T,MOUNT D M.A local search approximation algorithm fork-means clustering[J].Computational Geometry,2004,28(2/3):89-112.

[10] ELKAN C.Using the triangle inequality to acceleratek-means[C]∥Proceedings of the Twentieth International Conference on Machine Learning.Menlo Park:AAAI Press,2003:147-153.

(责任编辑: 钱筠 英文审校: 吴逢铁)

Comparison of Feature Selection Method of Clustering Model Using Machine Learning

ZHAO Wei

(College of Applied Science and Technology, Beijing Union University, Beijing 100101, China)

Targeting at problems during the feature selection process of machine learning clustering model, at first, it makes analysis on the applicability of the feature selection for clustering model and makes adjustment and improvement. Then makes feature selection algorithm design based on R language recursive feature elimination (RFE) feature selection method and Boruta feature selection method. At last, applying cluster interior validity indexes to analyze the optimization result of online brand loyalty clustering model, a further comparative study is made on the feature selection method. The results show that the Boruta feature selection method has more advantages. Keywords: feature selection; clustering model; machine learning; recursive feature elimination algorithm; Boruta method

10.11830/ISSN.1000-5013.201701020

2016-11-25

赵玮(1981-),女,讲师,博士,主要从事数据挖掘与数据分析、电子商务的研究.E-mail:yykjtzhaowei@buu.edu.cn.

北京市教委科研计划项目(KM201511417010)

TP 181

A

1000-5013(2017)01-0105-04

猜你喜欢
机器学习特征选择
网络入侵检测场景下的特征选择方法对比研究
基于最大信息系数和近似马尔科夫毯的特征选择方法
Kmeans 应用与特征选择
基于词典与机器学习的中文微博情感分析
基于网络搜索数据的平遥旅游客流量预测分析
前缀字母为特征在维吾尔语文本情感分类中的研究
基于支持向量机的金融数据分析研究
机器学习理论在高中自主学习中的应用
联合互信息水下目标特征选择算法
基于特征选择聚类方法的稀疏TSK模糊系统