欧式距离源自N维欧氏空间中两点 x 1 , x 2 x_1,x_2 x1,x2间的距离公式:
d = ∑ i = 1 N ( x 1 i − x 2 i ) 2 d = \sqrt{\sum_{i=1}^N(x_{1i}-x_{2i})^2} d=i=1∑N(x1i−x2i)2
引入标准化欧式距离的原因是一个数据 x i x_i xi的各个维度之间的尺度不一样。
【对于尺度无关的解释】如果向量中第一维元素的数量级是100,第二维的数量级是10,比如v1=(100,10,30),v2 = (500,40),则计算欧式距离
d = 100 ⋅ ( 50 − 10 ) 2 + ( 40 − 10 ) 2 d = \sqrt{100\cdot(50-10)^2+(40-10)^2} d=100⋅(50−10)2+(40−10)2
可见欧式距离会给与第一维度100权重,这会压制第二维度的影响力。对所有维度分别进行处理,使得各个维度分别满足标准正态分布。
还有一种对欧式距离的处理是均值化但没有归一化(Normalized),即
d = ∑ i = 1 N ( x i − y i ) 2 s i 2 d = \sqrt{\sum_{i =1}^N \frac{(x_i-y_i)^2}{s_i^2}} d=i=1∑Nsi2(xi−yi)2
其中 s i 2 s_i^2 si2是第i维度的方差(此处虽然举例只有X,Y两个点,但整个数据集中会有无数个点,根据数据集得到方差分布)
网络上的Normalized Euclidean distance和Standard Euclidean distance的定义对应这两种处理。
标准化欧式距离即是将集合 X = { x i } X = \{x_i\} X={xi}先进行归一化,映射到正太分布N(0,1)的区间:
x i p o s t = ( x i − u ) / s x_ipost = (x_i-u)/s xipost=(xi−u)/s
其中u为均值, s 2 s^2 s2为方差。
其实,这就是马氏距离要做的事。马氏距离的结果也是将数据投影到N(0,1)区间并求其欧式距离。
马氏距离又称为数据的协方差距离。它是一种有效的计算两个未知样本集的相似度的方法。与标准化欧氏距离不同的是它考虑到各种特性之间的联系。
假设 u x u_x ux为向量 X = { x 1 , x 2 , . . . , x N } X = \{x_1,x_2,...,x_N\} X={x1,x2,...,xN}的均值, u y u_y uy为 Y = { y 1 , y 2 , . . . y N } Y = \{y_1,y_2,...y_N\} Y={y1,y2,...yN}的均值, Σ \Sigma Σ 是X与Y的协方差
点X与Y的马氏距离:
( x − u x ) T Σ − 1 ( y − u y ) \sqrt{(x-u_x)^T\Sigma^{-1}(y-u_y)} (x−ux)TΣ−1(y−uy)
这个式子可以用矩阵的迹来重写:
( x − u x ) T Σ − 1 ( y − u y ) = t r ( Σ − 1 ( y − u y ) ( x − u x ) T \sqrt{(x-u_x)^T\Sigma^{-1}(y-u_y)}=\sqrt{tr(\Sigma ^{-1} (y-u_y)(x-u_x)^T} (x−ux)TΣ−1(y−uy)=tr(Σ−1(y−uy)(x−ux)T
其中 Σ \Sigma Σ是X与Y的协方差矩阵
可见:
如果 Σ \Sigma Σ是单位矩阵,则马氏距离退化成欧式距离;
如果 Σ \Sigma Σ是对角矩阵,则称为归一化后的欧式距离。
所以马氏距离的特点:
马氏距离可以通过协方差自动生成相应的权重,而使用逆则抵消掉这些权重。
最典型的就是根据距离作判别问题,即假设有n个总体,计算某个样品X归属于哪一类的问题。此时虽然样品X离某个总体的欧氏距离最近,但是未必归属它,比如该总体的方差很小,说明需要非常近才能归为该类。对于这种情况,马氏距离比欧氏距离更适合作判别。
严格来讲余弦距离不是距离,而只是相似性。其他距离直接测量两个高维空间上的点的距离,如果距离为0则两个点“相同”;余弦的结果为在 [ 0 , 1 ] [0,1] [0,1]之中,如果为 1,只能确定两者完全相关、完全相似。
假设两用户同时对两件商品评分,向量分别为(3,3)和(5,5),这两位用户对两件商品的喜好其实是一样的,余弦距离此时为1,欧式距离给出的解显然没有余弦值直观。
相对于标准化后的欧式距离,余弦距离少了将数据投影到一个均值为0的区间里这一步骤。对于点X和点Y,其余弦距离:
d = ∑ i = 1 N x i y i ∑ i N x i 2 ∑ i N y i 2 d = \frac{\sum_{i=1}^{N}x_iy_i}{\sqrt{\sum_i^N {x_i^2}}\sqrt{\sum_i^N y_i^2}} d=∑iNxi2∑iNyi2∑i=1Nxiyi
余弦距离在给文本分类的词袋模型中使用,例如给一篇文章一共出现过6000个词,则用一个6000维度的向量X表示这篇文章,每个维度代表各个字出现的数目;另外一篇文章也恰好只出现过这6000字,用向量Y表示该文章,则这两篇文章相似度可以用余弦距离来测量。
优点:余弦距离根据向量方向来判断向量相似度,与向量各个维度的相对大小有关,不受各个维度直接数值影响。
某种程度上,归一化后的欧氏距离和余弦相似性表征能力相同。
汉明距离是两个等长字符串之间的汉明距离是两个字符串对应位置的不同字符的个数。比如:
1011101 与 1001001 为 2
2143896 与 2233796 是 3
可以把它看做将一个字符串变换成另外一个字符串所需要替换的字符个数。
此外,汉明重量是字符串相对于同样长度的零字符串的汉明距离,如:
11101 的汉明重量是 4。
所以两者间的汉明距离等于它们汉明重量的差a-b
曼哈顿距离的定义如下:
∑ p ∣ ∣ I 1 p − I 2 p ∣ ∣ \sum_p||I_1^p-I_2^p|| p∑∣∣I1p−I2p∣∣
p是I的维度。当I为图像坐标时,曼哈顿距离即是x,y坐标距离之和。
先将 Σ \Sigma Σ进行SVD分解(由于协方差矩阵是对称矩阵,因此此处严格说来是特征值分解EVD)。
由于协方差矩阵是对称的,
U Λ V T = Σ = Σ T = ( U Λ V T ) T = V Λ U T U\Lambda V^T = \Sigma = \Sigma^T =(U\Lambda V^T)^T = V\Lambda U^T UΛVT=Σ=ΣT=(UΛVT)T=VΛUT
即 V = U n × n = [ u 1 , u 2 , . . . , u n ] V = U_{n\times n} = [u_1,u_2,...,u_n] V=Un×n=[u1,u2,...,un]。
因此SVD分解结果:
Σ = U Λ U T = ∑ i = 1 n λ i u i u i T \Sigma =U \Lambda U^T = \sum_{i=1}^n\lambda_i u_i u_i^T Σ=UΛUT=i=1∑nλiuiuiT
则:
Σ − 1 = ( U T ) − 1 Λ − 1 U − 1 = U Λ − 1 U T = ∑ i = 1 n λ i − 1 u i u i T \Sigma ^{-1} = (U^T)^{-1}\Lambda^{-1} U^{-1} = U\Lambda^{-1} U^T = \sum_{i=1}^n\lambda_i^{-1} u_i u_i^T Σ−1=(UT)−1Λ−1U−1=UΛ−1UT=i=1∑nλi−1uiuiT
因此马氏距离:
d = ( x i − u x ) Σ − 1 ( y i − u y ) T d = (x_i-u_x)\Sigma^{-1}(y_i-u_y)^T d=(xi−ux)Σ−1(yi−uy)T
= ( x i − u x ) ( ∑ i = 1 n λ i − 1 u i u i T ) ( y i − u y ) T = (x_i-u_x)(\sum_{i=1}^n\lambda_i^{-1} u_i u_i^T)(y_i-u_y)^T =(xi−ux)(i=1∑nλi−1uiuiT)(yi−uy)T
= ∑ i = 1 N λ i ( x i − u x ) u i u i T ( y i − u y ) T = \sum_{i=1}^N\lambda_i(x_i-u_x)u_iu_i^T(y_i-u_y)^T =i=1∑Nλi(xi−ux)uiuiT(yi−uy)T
= ∑ i = 1 N p i q i = \sum_{i=1}^Np_iq_i =i=1∑Npiqi
上式中,由于U是正交矩阵,可以将其视作旋转矩阵,对向量X,Y进行旋转;再对其除以特征值,可以视作尺度处理。这两者的结果就是将数据处理旋转并缩放到一个标准化的空间里去。
[1]马氏距离及其几何解释
http://www.weixinnu.com/tag/article/1082683923
[2]欧氏距离和余弦相似度的区别是什么?
https://www.zhihu.com/question/19640394