聚类概念:
有个比较好玩的聚类算法可视化网站,可以方便理解聚类算法。
k-means
DBSCAN
(a)一堆没有标签的样本点
(b)随机初始化两个中心点(一红标签一蓝标签)
(c)遍历所有样本点,样本点到哪个中心点的距离最短,就贴上相应的标签。
(d)分别计算红色簇和蓝色簇的质心,作为新的中心点
(e)根据新中心点,重复(c)步骤
(f)重复(d)步骤
一直到质心不再改变,有时候可能会无限迭代下去,这时可以设置最大迭代次数。
由于是随机初始化中心点,所以同样的数据集,相同的K值,运行多次,每次得到的聚类效果可能都不一样。sklearn工具包中的k-means算法是默认跑10次然后取最好的那一次。
注意:这里的评估方法只是一个参考,并不代表最佳的参数选择方案。
kmeans.inertia_
属性来获得优势:简单、快速、适合常规数据集(成堆形状的数据集,比如上面流程中的数据集)
劣势:
如果要用聚类算法,首选 DBSCAN算法
Density-Based Spatial Clustering of Applications with Noise
优势:
劣势:
可以用上面提到过的轮廓系数。
Support Vector Machine
选出来离雷区最远的边界(雷区就是边界上的点,要Large Margin)
如果数据的特征是2维的,决策边界为一条线
如果数据的特征是3维的,决策边界为一个面
现在假设数据的特征是3维度的,决策平面的方程为 W T x + b = 0 W^Tx+b=0 WTx+b=0
在决策平面上有两个点 x ′ x' x′、 x ′ ′ x'' x′′,则有 W T x ′ = − b , W T x ′ ′ = − b W^Tx'=-b,W^Tx''=-b WTx′=−b,WTx′′=−b
W(法向量)垂直于决策平面,则 ( x ′ ′ − x ′ ) (x''-x') (x′′−x′)是平面上的一条向量,法向量 W W W 垂直于平面上的任意一条向量,因此两者点积为0,即 W T ( x ′ ′ − x ′ ) = 0 W^T(x''-x')=0 WT(x′′−x′)=0
由以上铺垫可以得到, d i s t ( x , b , w ) = ∣ W T ∣ ∣ W ∣ ∣ ( x − x ′ ) ∣ = 1 ∣ ∣ W ∣ ∣ ∣ W T x + b ∣ dist(x,b,w)=|\frac{W^T}{||W||}(x-x')|=\frac{1}{||W||}|W^Tx+b| dist(x,b,w)=∣∣∣W∣∣WT(x−x′)∣=∣∣W∣∣1∣WTx+b∣
数据集: ( x 1 , Y 1 ) 、 ( x 2 , Y 2 ) … ( x n , Y n ) (x_1,Y_1)、(x_2,Y_2)… (x_n,Y_n) (x1,Y1)、(x2,Y2)…(xn,Yn)
Y为样本的类别: 当 x x x 为正例时候 Y = +1 ;当 x x x 为负例时候 Y = -1。
决策方程: y ( x ) = w T Φ ( x ) + b y(x)=w^TΦ(x)+b y(x)=wTΦ(x)+b(其中 Φ ( x ) Φ(x) Φ(x)是对数据做了变换,后面继续说)
于是有:
{ y ( x i ) > 0 ⇔ Y i = + 1 y ( x i ) < 0 ⇔ Y i = − 1 } ⇒ Y i ⋅ y ( x i ) > 0 \left\{ \begin{array}{lr} y(x_i)>0 \Leftrightarrow Y_i=+1 \\ y(x_i)<0 \Leftrightarrow Y_i=-1\\ \end{array} \right\} \Rightarrow Y_i · y(x_i)>0 {y(xi)>0⇔Yi=+1y(xi)<0⇔Yi=−1}⇒Yi⋅y(xi)>0
通俗解释:找到一个条线(w和b),使得离该线最近的点(雷区)能够最远
将点到直线的距离化简得: Y i ⋅ ( W T Φ ( x i ) + b ) ∣ ∣ W ∣ ∣ \frac{Y_i · (W^TΦ(x_i)+b)}{||W||} ∣∣W∣∣Yi⋅(WTΦ(xi)+b)(由于 Y i ⋅ y ( x i ) > 0 Y_i · y(x_i)>0 Yi⋅y(xi)>0,所以将绝对值展开原始依旧成立)
放缩变换:对于决策方程(w,b)可以通过放缩使得其结果值 ∣ y ( x i ) ∣ ≥ 1 |y(x_i)|≥1 ∣y(xi)∣≥1,则有 Y i ⋅ ( W T Φ ( x i ) + b ) ≥ 1 Y_i · (W^TΦ(x_i)+b)≥1 Yi⋅(WTΦ(xi)+b)≥1(之前我们认为恒大于0,现在严格了些)
优化目标: arg max w , b { 1 ∣ ∣ W ∣ ∣ min i [ Y i ⋅ ( W T Φ ( x i ) + b ) ] } \argmax \limits_{w,b} \big\{ \frac{1}{||W||} \min \limits_i [Y_i · (W^TΦ(x_i)+b)] \big \} w,bargmax{∣∣W∣∣1imin[Yi⋅(WTΦ(xi)+b)]},由于 Y i ⋅ ( W T Φ ( x i ) + b ) ≥ 1 Y_i · (W^TΦ(x_i)+b)≥1 Yi⋅(WTΦ(xi)+b)≥1,只需要考虑 arg max w , b 1 ∣ ∣ W ∣ ∣ \argmax \limits_{w,b} \frac{1}{||W||} w,bargmax∣∣W∣∣1(目标函数搞定!)
当前目标: max w , b 1 ∣ ∣ W ∣ ∣ \max \limits_{w,b} \frac{1}{||W||} w,bmax∣∣W∣∣1,约束条件: Y i ⋅ ( W T Φ ( x i ) + b ) ≥ 1 Y_i · (W^TΦ(x_i)+b)≥1 Yi⋅(WTΦ(xi)+b)≥1
常规套路:将求解极大值问题转换成极小值问题----> min w , b 1 2 W 2 \min \limits_{w,b} \frac{1}{2}W^2 w,bmin21W2
如何求解:应用拉格朗日乘子法求解!
拉格朗日乘子法
我们的式子: L ( w , b , α ) = 1 2 W 2 − ∑ i = 1 n α i ( Y i ⋅ ( W T Φ ( x i ) + b ) − 1 ) L(w,b,α)= \frac{1}{2}W^2-\sum \limits_{i=1}^n α_i(Y_i · (W^TΦ(x_i)+b)-1) L(w,b,α)=21W2−i=1∑nαi(Yi⋅(WTΦ(xi)+b)−1)
数据:3个点,其中正例有 x 1 ( 3 , 3 ) x_1(3,3) x1(3,3)、 x 2 ( 4 , 3 ) x_2(4,3) x2(4,3),负例 x 3 ( 1 , 1 ) x_3(1,1) x3(1,1)
求解: 1 2 ∑ i = 1 n ∑ j = 1 n α i α j y i y j ( x i ⋅ x j ) − ∑ j = 1 n α i \frac{1}{2} \sum \limits_{i=1}^n \sum \limits_{j=1}^n α_iα_jy_i y_j(x_i·x_j)- \sum\limits_{j=1}^n α_i 21i=1∑nj=1∑nαiαjyiyj(xi⋅xj)−j=1∑nαi
约束条件:
α 1 + α 2 − α 3 = 0 α_1+α_2-α_3=0 α1+α2−α3=0
α i ≥ 0 , i = 1 , 2 , 3 α_i≥0,i=1,2,3 αi≥0,i=1,2,3
将数据代入: 1 2 ( 18 α 1 2 + 25 α 2 2 + 2 α 3 2 + 42 α 1 α 2 − 12 α 1 α 3 − 14 α 2 α 3 ) − α 1 − α 2 − α 3 \frac{1}{2}(18α_1^2+25α_2^2+2α_3^2+42α_1α_2-12α_1α_3-14α_2α_3)-α_1-α_2-α_3 21(18α12+25α22+2α32+42α1α2−12α1α3−14α2α3)−α1−α2−α3
由于: α 1 + α 2 = α 3 α_1+α_2=α_3 α1+α2=α3
化简可得: 4 α 1 2 + 13 2 α 2 2 + 10 α 1 α 2 − 2 α 1 − 2 α 2 4α_1^2+\frac{13}{2}α_2^2+10α_1α_2-2α_1-2α_2 4α12+213α22+10α1α2−2α1−2α2
分别对 α 1 α_1 α1、 α 2 α_2 α2求偏导,偏导等于0可得: α 1 = 1.5 , α 2 = − 1 α_1=1.5,α_2=-1 α1=1.5,α2=−1(并不满足约束条件 α i ≥ 0 , i = 1 , 2 , 3 α_i≥0,i=1,2,3 αi≥0,i=1,2,3,所以解应在边界上)
若 α 1 = 0 , α 2 = − 2 13 α_1=0,α_2=-\frac{2}{13} α1=0,α2=−132,带入原式=-0.153(不满足约束)
若 α 1 = 0.25 , α 2 = 0 α_1=0.25,α_2=0 α1=0.25,α2=0,带入原式=-0.25(满足啦!)
最小值在(0.25,0,0.25)处取得。
将ɑ结果带入求解: w = ∑ i = 1 n α 1 y i Φ ( x n ) w=\sum \limits_{i=1}^n α_1y_iΦ(x_n) w=i=1∑nα1yiΦ(xn)
w = 1 4 ∗ 1 ∗ ( 3 , 3 ) + 1 4 ∗ ( − 1 ) ∗ ( 1 , 1 ) = ( 1 2 , 1 2 ) b = y i − ∑ i = 1 n α i y i ( x i x j ) = 1 − ( 1 4 ∗ 1 ∗ 18 + 1 4 ∗ ( − 1 ) ∗ 6 ) = − 2 w=\frac{1}{4}*1*(3,3)+\frac{1}{4}*(-1)*(1,1)=(\frac{1}{2},\frac{1}{2}) \\ b=y_i-\sum \limits_{i=1}^n α_iy_i(x_ix_j)=1-(\frac{1}{4}*1*18+\frac{1}{4}*(-1)*6)=-2 w=41∗1∗(3,3)+41∗(−1)∗(1,1)=(21,21)b=yi−i=1∑nαiyi(xixj)=1−(41∗1∗18+41∗(−1)∗6)=−2
平面方程为: 0.5 x 1 + 0.5 x 2 − 2 = 0 0.5x_1+0.5x_2-2=0 0.5x1+0.5x2−2=0
软间隔:有时候数据中有一些噪音点,如果考虑它们咱们的线就不太好了
之前的方法要求要把两类点完全分得开,这个要求有点过于严格了,我们来放松一点!
为了解决该问题,引入松弛因子: y i ( w ⋅ x i + b ) ≥ 1 − ξ i y_i(w·x_i+b)≥1-ξ_i yi(w⋅xi+b)≥1−ξi
新的目标函数: m i n 1 2 ∣ ∣ w ∣ ∣ 2 + C ∑ i = 1 n ξ i min \frac{1}{2} ||w||^2+C \sum \limits_{i=1}^n ξ_i min21∣∣w∣∣2+Ci=1∑nξi
C是我们需要指定的一个参数!
当C趋近于很大时:意味着分类严格不能有错误
当C趋近于很小时:意味着可以有更大的错误容忍
核变换:既然低维的时候不可分,那我给它映射到高维呢?
目标:找到一种变换的方法,也就是 Φ()
高斯核函数: K ( X , Y ) = e x p { − f r a c ∣ ∣ X − Y ∣ ∣ 2 2 σ 2 } K(X,Y)=exp \{ -frac{||X-Y||^2}{2σ^2} \} K(X,Y)=exp{−frac∣∣X−Y∣∣22σ2}
空间中形如 Ax+By+Cz+D=0 的方程确定一个平面,其法向量就是向量(A,B,C)
写成矩阵形式就是 W T X + B = 0 W^TX+B=0 WTX+B=0 确定平面,法向量为 W
向量积,又称外积、叉积,物理中称矢积、叉乘,是一种在向量空间中向量的二元运算。它的运算结果是一个向量。并且两个向量的叉积与这两个向量和垂直。