祝青芳 华剑
摘 要: 在聚类分析中,关键一步就是要选择测量距离,马氏距离是非常重要的测量样本点与总体或样本点之间距离的工具,但大多数多元统计分析教材中并不对马氏距离做详细的讲解,这让初学聚类分析的学生深感不便,不能体会马氏距离的重要性。本文的目的就是以尽可能浅显易懂的语言阐述马氏距离的意义,帮助大家搬开学习路上的绊脚石。
关键词: 马氏距离 协方差矩阵 聚类分析
多元统计分析处理的是如下多维的样本数据:
在聚类分析中,需要计算样本点与数据重心之间的距离,然后根据距离的远近对不同样本进行分类。欧氏距离是大家比较熟悉的距离度量工具,如果用欧氏距离来度量样本点到数据重心的距离虽然简单,但存在一些不足之处。它没有考虑到总体变异对“距离”的影响,在变异程度不同的维上,虽然欧氏距离相同,但是变异程度大的维上的样本点距数据重心的距离直观上比变异程度小的维上的样本点距数据重心的距离要小一些。另外,欧氏距离受变量量纲影响,这对多元数据的处理是不利的。对于第一个方面,我们可以借助下图获得更直观的感知。
如果在X轴与Y轴上选取两点P1、P2,并使这两点距数据重心(此例的数据重心为原点)的欧氏距离相同,但P2点在Y轴上相对原点有较大的变异,而P1点在X轴上相对原点有较小的变异,所以P1点距原点的直观距离比P2点的小。
为了弥补以上提到的欧氏距离的两点不足,印度统计学家马哈拉诺比斯给出了新的距离定义,即“马氏距离”(Mahalanobis Distance)。马哈拉诺比斯提出”马氏距离“的基本思路是先将不同维上的数据方差统一,此时,如果不同维度上的点到原点的欧氏距离相同,则它们也拥有相同的直观距离。如下图:
以上思路更直观的说法是将不同维上的数据进行压缩,使得各维上的方差保持一致。这种压缩的最简单做法是每一个维上的数据除以该维的标准差,那么每一个维上的方差就是1。但是,如果不同维之间相关,即协方差矩阵不为对角阵,这种简单的压缩很不理想。如下图: