数据降维及可视化之TSNE理论及利用sklearn对digits数据集可视化实现python

今天来简单总结一下TSNE~

SNE

首先来说说SNE,全称为随机相邻嵌入(Stochastic Neighbor Embedding),其将数据之间的高维的欧几里得距离转化为表示相似性的条件概率:数据点 x j x_j xj与数据点 x i x_i xi的相似性表示为条件概率的样子 p j ∣ i p_{j|i} pji,表达为 x i x_i xi选择 x j x_j xj作为邻居,表达式为:
p j ∣ i = e x p ( − ∣ ∣ x i − x j ∣ ∣ 2 / 2 σ i 2 ) ∑ k ≠ i e x p ( − ∣ ∣ x i − x k ∣ ∣ 2 / 2 σ i 2 ) p_{j|i}=\frac{exp(-||x_i-x_j||^2/2\sigma_i^2)}{\sum_{k\neq i}exp(-||x_i-x_k||^2/2\sigma_i^2)} pji=k=iexp(xixk2/2σi2)exp(xixj2/2σi2)
其中 σ i \sigma_i σi x i x_i xi为中心的高斯分布的方差。( p i ∣ i = 0 p_{i|i}=0 pii=0)
当我们把高维数据映射到低维空间中时,我们要保证其数据分布应与原来的相同,或者说是数据点之间的相似性相同。那么设刚刚数据点 x j x_j xj与数据点 x i x_i xi对应的低维中的数据点为 y j y_j yj y i y_i yi,他们之间的相似度为:
q j ∣ i = e x p ( − ∣ ∣ y i − y j ∣ ∣ 2 ) ∑ k ≠ i e x p ( − ∣ ∣ x i − x k ∣ ∣ 2 ) q_{j|i}=\frac{exp(-||y_i-y_j||^2)}{\sum_{k\neq i}exp(-||x_i-x_k||^2)} qji=k=iexp(xixk2)exp(yiyj2)
同样,( q i ∣ i = 0 q_{i|i}=0 qii=0)
所以,我们的目标就是尽可能地让这两个条件概率相等。利用KL三度给出损失函数C:
C = ∑ i K L ( P i ∣ ∣ Q i ) = ∑ i ∑ j p j ∣ i l o g ( p j ∣ i q j ∣ i ) C=\sum_i KL(P_i||Q_i)=\sum_i\sum_j p_{j|i}log(\frac{p_{j|i}}{q_{j|i}}) C=iKL(PiQi)=ijpjilog(qjipji)
这样做有个缺点,由于KL散度的不对称性质,因此低维空间中成对距离的不同类型的误差权重并不相等。 尤其是,使用小的 q j ∣ i q_{j|i} qji来模拟大的 p j ∣ i p_{j|i} pji存在巨大的损失,但是使用低维空间中的相近的数据点代表高维空间中相互分离的数据点仅造成很小的损失,这就造成了一些分类异常的情况。SNE损失函数C着重于保留数据的局部结构,而非全局结构。
损失函数利用梯度下降法迭代,梯度为:
∂ C ∂ y i = 2 ∑ j ( p j ∣ i − q j ∣ i + p i ∣ j − q i ∣ j ) ( y i − y j ) \frac{\partial C}{\partial y_i}=2\sum_j (p_{j|i}-q_{j|i}+p_{i|j}-q_{i|j})(y_i -y_j) yiC=2j(pjiqji+pijqij)(yiyj)

拥挤问题

对于拥挤问题,我们举例进行说明。我们都知道,n+1个数据点在n维空间中可能存在相互等距的情况,导致这n+1个数据点没有办法在更低维的空间中真实地建模。我们假设,一个球体将 x i x_i xi作为球体的中心点,其球体的半径为r,其m维的球体的体积为 r m r_m rm,假设在十维空间上的流形图上,数据点呈均匀分布的趋势,我们采用Python来模拟二维空间中数据点 x i x_i xi到其余数据点的距离,得到下面的“拥挤问题”:
数据降维及可视化之TSNE理论及利用sklearn对digits数据集可视化实现python_第1张图片
图中横坐标表示数据点到圆心的距离,纵坐标表示数据点的数量。由图可以清楚地看出,大部分流形上的数据点都随着维度的增大而聚集在m球的表面,分布并不均衡。如果这种距离关系直接被保留到低维空间中,则一定会出现上述拥挤问题。

T分布的长尾特性

t分布会随着自由度的增大而逐渐趋近于标准正态分布,当自由度趋近于无穷大时,我们可以用正态分布的概率密度函数去近似t分布的概率密度公式。
数据降维及可视化之TSNE理论及利用sklearn对digits数据集可视化实现python_第2张图片
顶端黑色曲线是正态分布曲线,下方红色曲线是自由度为1的t分布曲线,两条曲线之间的众多曲线是t分布随着自由度增加而升高的曲线。从图中我们可以看出t分布比正态分布的尾端更为平缓,这就是t分布的长尾特性。
数据降维及可视化之TSNE理论及利用sklearn对digits数据集可视化实现python_第3张图片
上方图中无异常点时,正态分布与t分布的拟合结果基本一致。但是出现部分异常点的图中,由于t分布对异常点的不敏感性,更好地保留了原始数据的整体特征。相比较而言,正态分布对异常点更为敏感,而且的尾部较低,这使得正态分布的方差较大,因此其拟合结果并不理想。所以t分布拥有正态分布没有的一个特性:可以排除异常值对其拟合的干扰

TSNE

其中TSNE分为T和SNE:T表示t分布,SNE表示对称的SNE。对称的条件概率:
p i j = ( p j ∣ i + p i ∣ j ) / 2 n p_{ij}=(p_{j|i}+p_{i|j})/2n pij=(pji+pij)/2n
得到对称的SNE模型梯度:
∂ C ∂ y i = 4 ∑ j ( p i j − q i j ) ( y i − y j ) \frac{\partial C}{\partial y_i}=4\sum_j (p_{ij}-q_{ij})(y_i-y_j) yiC=4j(pijqij)(yiyj)
对称的SNE模型匹配了高维与低维空间中的联合概率,但实际上并没有匹配高维与低维空间中的距离,所以对称的SNE模型并没有从根本上解决拥挤问题,所以我们将利用t分布去缓解如下的拥挤问题。
定义联合概率:
q i j = ( 1 + ∣ ∣ y i − y j ∣ ∣ 2 ) − 1 ∑ k ≠ l ( 1 + ∣ ∣ y k − y l ∣ ∣ 2 ) − 1 q_{ij}=\frac{(1+||y_i-y_j||^2)^{-1}}{\sum_{k\neq l}(1+||y_k-y_l||^2)^{-1}} qij=k=l(1+ykyl2)1(1+yiyj2)1
TSNE的迭代梯度:
∂ C ∂ y i = 4 ∑ j ( p i j − q i j ) ( y i − y j ) ( 1 + ∣ ∣ y i − y j ∣ ∣ 2 ) − 1 \frac{\partial C}{\partial y_i}=4\sum_j (p_{ij}-q_{ij})(y_i-y_j)(1+||y_i-y_j||^2)^{-1} yiC=4j(pijqij)(yiyj)(1+yiyj2)1
数据降维及可视化之TSNE理论及利用sklearn对digits数据集可视化实现python_第4张图片
展示了对称的SNE、UNI-SNE和TSNE三个模型中两个低维空间数据点之间的梯度来模拟它们在高维和低维空间中的距离函数。其中,梯度的正值表示低维空间中数据点之间的吸引作用,而负值表示排斥作用。从图中,我们可以观察到T-SNE的梯度对比于对称的SNE和UN-SNE的梯度的两个主要优点:

  • 首先,TSNE梯度强烈地排斥了一些不相似的数据点,这些不相似的数据点是低维空间中对应的小的成对距离拟合造成的。
  • 其次,虽然TSNE在小的成对距离模拟的不同数据点之间引入了非常强烈的排斥,但这些排斥并不是无用的。

总之,TSNE着重强调通过大的成对距离拟合不相似的数据点,并且通过小的成对距离拟合相似的数据点。

测试

采用Sklearn中的digits数据集,其中该数据集共包含1760个样本,包含10类,每个数据含有8*8个特征。我们利用sklearn中的tsne测试:

import matplotlib
import matplotlib.pyplot as plt
def test_digits():
    import pandas as pd
    import time
    import matplotlib
    import matplotlib.pyplot as plt
    from sklearn.manifold import TSNE
    from sklearn import datasets
    data=datasets.load_digits()
    target=data.target
    color=['yellow','black','green','red','blue','orange','brown','pink','purple','grey']
    t1=time.time()
    Y1=TSNE(n_components=2,learning_rate=100).fit_transform(data.data)
    t2=time.time()
    t=t2-t1
    print("Sklearn KL-TSNE cost time: %s"%str(round(t,2)))
    for i in range(10):
        xxx1=Y1[target==i,0]
        xxx2=Y1[target==i,1]
        plt.scatter(xxx1,xxx2,c=color[i])
    plt.xlim(numpy.min(Y1)-5,numpy.max(Y1)+5)
    plt.xlim(numpy.min(Y1)-5,numpy.max(Y1)+5)
    plt.title('KL-SKLEARN: %ss'%str(round(t,2)))
    plt.show()
test_digits()

数据降维及可视化之TSNE理论及利用sklearn对digits数据集可视化实现python_第5张图片

你可能感兴趣的:(机器学习,人工智能,数据分析,python,可视化)