最优间隔分布脊回归

2017-08-31 19:49陈加略
计算机研究与发展 2017年8期
关键词:类间流形正则

陈加略 姜 远

(计算机软件新技术国家重点实验室(南京大学) 南京 210023) (软件新技术与产业化协同创新中心 南京 210023) (chenjl@lamda.nju.edu.cn)

最优间隔分布脊回归

陈加略 姜 远

(计算机软件新技术国家重点实验室(南京大学) 南京 210023) (软件新技术与产业化协同创新中心 南京 210023) (chenjl@lamda.nju.edu.cn)

脊回归(ridge regression, RR)是经典的机器学习算法之一,广泛应用于人脸识别、基因工程等诸多领域.其具有优化目标凸、存在闭合解、可解释性强以及易于核化等优点,但是脊回归的优化目标并没有考虑样本之间的结构关系.监督流形正则化学习是最具代表性的、最成功的脊回归正则化方法之一,其通过最小化每类类内方差来考虑样本之间的类内结构关系,可是单纯地只考虑类内结构仍然不够全面.以一种全新的视角重新审视最近提出的“最优间隔分布学习”原理,发现了最优间隔分布的目标可以同时优化类内间隔方差和类间间隔方差,从而同时优化了局部的类内结构和全局的类间结构.基于此提出了一种充分考虑数据结构化特征的脊回归算法——最优间隔分布脊回归(optimal margin distribution machine ridge regression, ODMRR)算法,该算法具有RR以及MRRR(manifold regularization ridge regression)的各种优势.最后通过实验验证了该方法具有优越的性能.

脊回归;流形正则化;最优间隔分布;间隔方差;全局结构

脊回归(ridge regression, RR)[1]的优化目标致力于最小化模型输出以及样本标记之间的二次误差,在人脸识别[2]、基因工程[3]、肝脏致癌预测[4]等诸多领域[5]有着广泛的应用.脊回归具有优化目标凸、存在闭式解、可解释性强以及易于核化等优点.但其优化目标并没有体现出数据的结构(structral)特征,这就意味着原始的脊回归算法没有考虑分类样本之间存在的潜在相互关系.在分类模型的优化目标中加入正则化约束来假设数据之间的结构关系通常可以有效地提升性能.流形正则化(manifold regularization, MR)[6]是一种常见的做法,在诸多领域得到了广泛应用,如多标记学习[7]、集成学习[8]、特征提取[9]、谱图理论[10]、网页图像标记[11]等.MR是一种基于半监督[12]流形假设的适用于有标记和无标记样本学习的正则化框架,它的优化目标是最小化每类样本的类内方差,即要求分类器输出类内紧凑.将MR加入到有监督RR后的优化目标也是凸的,并且存在闭合解,因此具备脊回归算法所具有的各种优势.

相比于最大化最小间隔[13],最优间隔分布学习理论[14-15]的核心思想在于通过优化“间隔分布”来有效提升模型的泛化性能.由此提出的ODM[16],LDM[17]和cisLDM[18]算法都取得了很好的性能*此类方法以往被称为“大间隔分布学习”方法[17-18],但由于“间隔分布”本身并没有“大小”之别,因此“最优间隔分布”这个称谓比“最大间隔分布”更合适[16]..在最优间隔分布学习理论中,优化间隔分布是通过最大化间隔均值并同时最小化间隔方差[13]来实现的.本文选择了一种崭新的视角,从优化数据结构特征的角度重新分析了最优间隔理论中优化间隔分布的目标,并发现最小化间隔方差这个目标可以拆解成最小化类内间隔方差和最大化类间间隔方差2项.针对分类模型进行分析,可以发现,MR中最小化类内方差的目标和最优间隔分布学习理论中最小化间隔方差的目标是相同的,都要求类内紧凑,即两者都是在优化数据的局部类内结构.进一步对最优间隔学习理论中最大化间隔均值和最小化类间间隔方差这2项的目标进行分析,可以发现两者共同作用的目的都是为了使分类器输出类间松散.而类间松散可以看成是优化一种全局的结构关系.所以,MR的优化目标只优化了类内紧凑这一种局部分类特性,而最优间隔分布学习理论不仅考虑了类内紧凑,还进一步优化了类间松散这一种全局分类特性.换句话说,相比于MR,最优间隔分布学习理论考虑了更加全面的数据结构信息.

在本文中,我们借鉴了最优间隔分布学习理论思想,并提出了一种新的正则化方法即最优间隔分布正则化.流形正则化方法可看作为最优间隔正则化方法的特例.我们将其应用于脊回归中得到了最优间隔分布脊回归(optimal margin distribution machine ridge regression, ODMRR)算法,ODMRR算法的优化目标也是凸的,并且具有解析解,在多个真实数据集上取得很好效果.

1 研究背景

S={(x1,y1),(x2,y2),…,(xn,yn)}.

机器学习的目标就是通过训练集S学习一个分类器,使其能够预测未来从未见过的样本标记.

假设f(x)=wTφ(x)+b是一个线性判别模型.其中w是线性分类面,b是截距,φ(x)是x在核k上的一个特征投影,并满足k(xi,xj)=φ(xi)Tφ(xj).样本(xi,yi)的间隔可以定义为

γi=yi(wTφ(xi)+b), ∀i=1,2,…,n.

为了方便表示,可以将分类面w以及截据b拼接成一个增广的向量:w′=[w;b],将所有样本的特征尾部拼上一个常数1形成增广的特征φ(xi)′=[φ(xi);1].令X′=[φ(x1)′,φ(x2)′,…,φ(xn)′],y=[y1,y2,…,yn]T.

对于线性判别分类器,其解w*通常存在表示形式:

φ(xi)=Xα,

(1)

其中,α=[α1,α2,…,αn]T是系数向量.可以将系数向量α和截距b拼成一个增广的向量:α′=[α;b].

为了方便将算法推广到核空间上,我们用K表示n×n的核矩阵,其第(i,j)个位置的元素为k(xi.xj),可以发现K=XTX.在K的最后一行拼上K′=[K;11×n],其中1m×n表示维度为m×n的全1矩阵.

1.1脊回归和流形正则化

脊回归(rigde regression, RR)的优化目标是找到一个分类面w和截距b,使得样本输出f(xi)和样本标记yi之间的二次误差之和尽量小.其优化目标可以形式化为

(2)

式(2)中的目标可以通过式(1)的表示定理转化成等价的形式:

(3)

式(3)的优化目标是凸的,并且具有闭合的解析解,其解的形式为

α′=(λB+K′K′T)-1K′y,

流形假设数据采样于高维欧式空间的一个低维流形,处于局部领域的示例具有相似的性质,即它们的标记也应该相似.对于分类问题,流形正则化的目标是减小2类样本的类内方差.所以,监督型流形正则化的脊回归(manifold regularization ridge regression, MRRR)的优化目标表示为

(4)

其中,λ1和λ2是正则化因子,C1和C2分别代表第1和第2类样本.式(4)中最后2项就是流形正则化项,它们分别优化了第1,2类样本的类内方差.可以发现,如果式(4)中的λ2=0,MRRR将会退化为RR算法,即RR是MRRR的特例.

式(4)中的目标也可以通过式(1)中的表示定理转化成等价形式:

(5)

其中,In表示维度为n的单位阵,而:

n1和n2分别表示第1,2类样本的数目.

式(5)的目标也是凸的,并且也具有闭合的解析解,其解的形式为

α′=(λ1B+K′(In+2λ2M)K′T)-1K′y.

1.2最优间隔分布学习理论

相比于最大化最小间隔,最优间隔分布学习理论揭示了优化间隔分布对于提升模型的泛化性能将更加显著.最优间隔分布学习理论指出优化间隔分布具体表现为最大化间隔均值和最小化间隔方差.其中,间隔均值定义为

间隔方差定义为

根据间隔方差的定义可以发现,当yi=yj时,间隔方差的形式和流形正则化项的形式相同,即对于分类模型,类内方差即是类内的间隔方差.两者的目的都是为了使分类器输出类内紧凑.

当yi≠yj时,间隔方差的形式为

φ(xi)′+w′Tφ(xj)′)2,

经过分析可以发现,这一项实际上代表了类间间隔方差.最小化间隔方差和最大化间隔均值两者共同作用的目标是为了使分类器输出类间分散.

所以最优间隔分布学习理论既考虑了使分类器输出类内紧凑这一局部分类特性,还考虑了使分类器输出类间分散这一全局分类特性.

2 最优间隔分布脊回归

最优间隔分布(ODM)的主要思想就是利用最优间隔分布学习理论中同时考虑分类器输出类内紧凑、类间松散这2个分类特性的优势.将最大化间隔均值和最小化间隔方差作为正则化项加入到分类模型的优化目标中.

脊回归的二次误差项表示为等价的矩阵形式:

可以发现,最小化-2yTX′Tw′的目标就是最大化间隔均值,即脊回归的优化目标中本身就包含了最大化间隔均值.所以,对于脊回归问题,最优间隔分布只需要考虑最小化间隔方差一项正则化项就可以了.于是,我们将ODM运用于脊回归问题,并得到了ODMRR的优化目标:

w′TX′(In+2λ2(D∘diag(yyT)-

S∘yyT))X′Tw′+λ1w′TAw′,

(6)

定理1. 优化目标(6)中的最优解w*存在式(1)的表示形式.

证明.w*可以分解成有φ(xi)伸张以及和φ(xi)正交2个部分,形式为

φ(xi)+v=Xα+v,

其中,XTv=0.可以发现:

X′Tw′=XTw+b=XT(Xα+v)+b=XTXα+b,

所以,在优化目标式(6)中,只有w′TAw′与v相关,其他项都与v独立,可以证明:

w′TAw′=wTw=(Xα+v)T(Xα+v)=
αTXTXα+vTv≥αTXTXα

且不等式当且仅当v=0时才成立.

所以,设置v=0不会影响到优化目标式(6)的最优值,即w*可以表示成式(1)的表示形式.

证毕.

于是,通过定理1,可以将优化目标式(6)转换为等价的形式:

(7)

式(7)的优化目标是凸的,也具有闭合和解析解,其解的形式为

α′=(λ1B+K′(In+2λ2(D∘diag(yyT)-
S∘yyT))K′T)-1K′Ty.

为了能够控制类内间隔方差和和类间间隔方差的权重,也可以把优化目标等价表示为

(8)

其中,λ1,λ2,λ3全是正则化因子,式(8)中第2项是第1类的类内间隔分布,第3项是第2类的类内间隔分布,最后一项是2类样本的类间间隔分布,我们将式(8)的优化目标记为ODMRR-3h.可以发现,如果λ3=0,式(8)的优化目标就会退化为式(4)流形正则化方法的优化目标,如果λ2=0和λ3=0,式(8)的优化目标将会退化为式(2)的脊回归的优化目标.所以脊回归算法以及流形正则化的脊回归算法都可以看作最优间隔正则脊回归算法的特例.

根据定理1的证明,式(8)也存在等价的表示形式:

(9)

其中,

式(9)的优化目标为凸,其解也为解析解,其形式为

α′=(λ1B+K′(In+P+Q)K′T)-1K′y.

4 实验测试

本节将先介绍实验的设置,然后给出实验的结果,并对结果进行简单地分析.

4.1实验设置

实验共选择了14个数据集,其中digit1和g241n是半监督数据集.austra,isolet,vehicle和wdbc都是UCI数据集.Letter是多标记数据集,从中选出8对相对比较难分类的字符组成了8组2分类数据集,分别记为DvsP,EvsF,IvsJ,IvsL,MvsN,UvsY,VvsY,DvsO.表1中列出了所有数据集的样本和特征维度.并且所有数据集都通过随机采样以1∶1的比例平分成训练数据和测试数据.

实验1共选择了6组对比算法:RR,MRRR,ODMRR,ODMRR_3h,ODMRR_S1,ODMRR_S1_3h.其中,在ODMRR算法中,带有_S1后缀代表相似性矩阵S采用全1矩阵,没有_S1后缀的相似性矩阵S则采用高斯距离矩阵.带有_3h的后缀表示优化目标采用式(9)的表示形式,否则采用式(6)的表示形式.

Table 1 Dataset and the Dimension of Its Instances and Features

4.2实验结果

表2中的实验结果是在每个数据集上进行10次实验所得到平均精度和方差.其中,深色背景都是我们算法的实验结果.我们使用加粗字体来标明每个数据集中测试精度最高的一组算法的结果.

在每轮实验中,所有参数全部都是采用固定其余所有参数,然后通过10次交叉验证的方法选出的最优值.在交叉验证的过程中,选择80%的训练数据用于训练模型,用剩下的20%的数据来验证模型参数.10次交叉验证又包含先粗调后细调的过程,粗调的参数取值为[10-5,10-4,…,105],细调的参数取值为[2-4,2-3,…,24].而ODMRR和ODMRR_3h算法中使用到的高斯距离矩阵中的σ参数则采用σ=1的默认值设置.

Table 2 Experiment Result表2 实验结果

由于3个脊回归的算法都需要计算一次矩阵的求逆计算,所以这3个算法的速度都不是特别快.在这3个算法中,RR包含一个参数,MRRR包含2个参数,而ODMRR算法包含3个参数.为了减少调参的时间,我们采用固定其余参数,只调整一个参数的方法.从表2的实验结果中可以发现,即便在如此简单的调参方法下,ODMRR算法在14个数据集中有10个达到最优结果,其中2个和最优结果打平.并且可以很明显地发现对于给类内间隔分布和类间间隔分布分配不同参数的ODMRR_3h方法相比使用相同参数的ODMRR方法取得了更多的最优结果.所以这也一定程度上说明,类内结构关系和类间结构关系在对于分类器的贡献在部分数据集上可能是不同的.

5 结束语

脊回归算法及其流形正则化算法是机器学习领域的经典方法.这2种算法都没有充分考虑数据全局的结构化关系.我们以一种全新的视角分析了最优间隔分布学习理论对于优化间隔分布的优化目标、提出了了一种充分考虑类内结构关系和类间结构关系的正则化脊回归算法——最优间隔分布脊回归算法(ODMRR).由于脊回归算法和流形正则化的脊回归算法都是ODMRR算法的特例,所以ODMRR算法保有了脊回归和流形正则化的脊回归算法中所共有的优化目标为凸函数、有解析解、易于核化等优势.考虑到类内结构关系和类间结构关系对于模型的贡献不同,我们也提出了ODMRR算法的一种简单变形ODMRR_3算法方便用户调节两者之间的权重.最后,我们在真实数据集上进行了实验且在大部分数据集上取得了最优的结果.

[1] Hoerl A E, Kennard R W. Ridge regression: Biased estimation for nonorthogonal problems[J].Technometrics, 1970, 12(1): 55-67

[2] Xue Hui, Zhu Yulian, Chen Songcan. Local ridge regression for face recognition[J].Neurocomputing, 2009, 72(4): 1342-1346

[3] Cule E, Vineis P, De Iorio M. Significance testing in ridge regression for genetic data[J]. BMC Bioinformatics, 2011, 12(1): 372-378

[4] Liu Shujie, Kawamoto T, Morita O, et al. Discriminating between adaptive and carcinogenic liver hypertrophy in rat studies using logistic ridge regression analysis of toxicogenomic data: The mode of action and predictive models[J]. Toxicology and Applied Pharmacology, 2017, 318(9): 79-87

[5] Marquardt D W, Snee R D. Ridge regression in practice[J].The American Statistician, 1975, 29(1): 3-20

[6] Belkin M, Niyogi P, Sindhwani V. Manifold regularization: A geometric framework for learning from labeled and unlabeled examples[J]. Journal of Machine Learning Research, 2006, 7(11): 2399-2434

[7] Luo Yong, Tao Dacheng, Xu Chang, et al. Multiview vector-valued manifold regularization for multilabel image classification[J]. IEEE Trans on Neural Networks and Learning Systems, 2013, 24(5): 709-722

[8] Geng Bo, Tao Dacheng, Xu Chao, et al. Ensemble manifold regularization[J].IEEE Trans on Pattern Analysis and Machine Intelligence, 2012, 34(6): 1227-1233

[9] Xu Zenglin, King I, Lyu M R T, et al. Discriminative semi-supervised feature selection via manifold regularization[J]. IEEE Trans on Neural Networks, 2010, 21(7): 1033-1047

[10] Luo Siwei, Zhao Lianwei. Manifold learning algorithms based on spectral graph theory[J].Journal of Computer Research and Development, 2006, 43(7): 1173-1179 (in Chinese)(罗四维, 赵连伟. 基于谱图理论的流形学习算法[J]. 计算机研究与发展, 2006, 43(7): 1173-1179)

[11] Liu W, Liu H, Tao D, et al. Manifold regularized kernel logistic regression for Web image annotation[J]. Neurocomputing, 2016, 172(C): 3-8

[12] Zhu Xiaojin. Semi-supervised learning literature survey[J].Computer Science, University of Wiscousin-Madison, 2006, 2(3): 4-64

[13] Vapnik V. The Nature of Statistical Learning Theory[M]. Berlin: Springer, 1995

[14] Zhou Zhihua. Large margin distribution learning[C] //Proc of the Workshop on Artificial Neural Networks in Pattern Recognition. Berlin: Springer, 2014: 1-11

[15] Gao Wei, Zhou Zhihua. On the doubt about margin explanation of boosting[J].Artificial Intelligence, 2013, 203(5): 1-18

[16] Zhang Teng, Zhou Zhihua. Multi-class optimal distribution machine[C] //Proc of the 34th Int Conf on Machine Learning. 2017 [2017-04-01]. http://cs.nju.edu.cn/zhouzh/zhouzh.files/publication/icml17mcODM.pdf

[17] Zhang Teng, Zhou Zhihua. Large margin distribution machine[C] //Proc of the 20th ACM SIGKDD Int Conf on Knowledge Discovery and Data Mining. New York: ACM, 2014: 313-322

[18] Zhou Yuhang, Zhou Zhihua. Large margin distribution learning with cost interval and unlabeled data[J]. IEEE Trans on Knowledge and Data Engineering, 2016, 28(7): 1749-1763

OptimalMarginDistributionRidgeRegression

Chen Jialüe and Jiang Yuan

(NationalKeyLaboratoryforNovelSoftwareTechnology(NanjingUniversity),Nanjing210023) (CollaborativeInnovationCenterofNovelSoftwareTechnologyandIndustrialization,Nanjing210023)

Ridge regression (RR) has been one of the most classical machine learning algorithms in many real applications such as face detection, cell prediction, etc. The ridge regression has many advantages such as convex optimization objection, closed-form solution, strong interpretability, easy to kernelization and so on. But the optimization objection of ridge regression doesn’t consider the structural relationship between instances. Supervised manifold regularized (MR) method has been one of the most representative and successful ridge regression regularized methods, which considers the instance structural relationship inter each class by minimizing each class’s variance. But considering the structural relationship interclasses alone is not a very comprehensive idea. Based on the recent principle of optimal margin distribution machine (ODM) learning with a novel view, we find the optimization object of ODM can include the local structural relationship and the global structural relationship by optimizing the margin variance interclasses and the margin variance intraclasses. In this thesis, we propose a ridge regression algorithm called optimal margin distribution machine ridge regression (ODMRR) which fully considers the structural character of the instance. Besides, this algorithm can still contain all the advantages of ridge regression and manifold regularized ridge regression. Finally, the experiments validate the effectiveness of our algorithm.

ridge regression (RR); manifold regularization; optimal margin distribution machine (ODM); margin variance; global structure

n, born in 1976.

her PhD degree in computer science from Nanjing University in 2004. Currently professor and PhD supervisor at the Department of Computer Science & Technology, Nanjing University. Her main research interests include machine learning and data mining.

Chen Jialüe, born in 1991. PhD. His main research interests include machine learning and data mining.

2017-05-23;

:2017-06-25

国家自然科学基金项目(61673201) This work was supported by the National Natural Science Foundation of China (61673201).

姜远(jiangy@lamda.nju.edu.cn)

TP181

猜你喜欢
类间流形正则
J-正则模与J-正则环
π-正则半群的全π-正则子半群格
Virtually正则模
基于OTSU改进的布匹检测算法研究
基于贝叶斯估计的多类间方差目标提取*
基于类间区分度的属性约简方法*
局部对称伪黎曼流形中的伪脐类空子流形
对乘积开子流形的探讨
任意半环上正则元的广义逆
基于改进最大类间方差法的手势分割方法研究