西瓜书《机器学习》课后答案——chapter9

9.1 证明: p1 时,闵可夫斯基距离满足距离度量的四条基本性质。 0p<1 时,闵可夫斯基距离只满足非负性、规范性和对称性,不满足三角不等式。当p趋向于无穷大时,闵可夫斯基距离等于对应分量的最大绝对距离,也称为切比雪夫距离

limp+(u=1n|xiuxju|p)1p=maxu|xiuxju|.

解答:

  • p>0 时,
    非负性:显然为正。
    规范性:当 xi=xj 时,有 (nu=1|xiuxju|p)1p=0 ;当 (nu=1|xiuxju|p)1p=0 时,假设 xixj ,则 (nu=1|xiuxju|p)1p0 ,与条件矛盾,故假设不成立,应有 xi=xj
    对称性:绝对值不变,故距离不变。显然

闵可夫斯基不等式
p1 时,则有如下不等式成立,称为闵可夫斯基不等式:

(i=1n|ai+bi|p)1p(i=1n|ai|p)1p+(i=1n|bi|p)1p.

其中 ai,bi 为实数或者复数。

  • p1 时,根据闵可夫斯基不等式,有
    (u=1n|xiuxju|p)1p=(u=1n|xiuxku+xkuxju|p)1p(u=1n|xiuxku|p)1p+(u=1n|xkuxju|p)1p,(1)

    三角不等式成立。

至于 0p<1 时,怎么证明此不等式不成立就不知道了。

  • 切比雪夫距离:
    limp+(u=1n|xiuxju|p)1p=maxu|xiuxju|limp+(u=1n(|xiuxju|maxu|xiuxju|)p)1p=maxu|xiuxju|.(2)

    (|xiuxju|maxu|xiuxju|) 大于0小于等于1:对于小于1的项,当 p+ 时趋向于0,只有为1的项保留下来了, p+ 时还为1。因为只有有限个等于1的项,所以求和可以认为等于一个常数a,且 a1 ,则 limp+a1p=1 。于是(2)的第二个等式成立。

9.2 同一样本空间中的集合X与Z之间的距离可以通过豪斯多夫距离计算

distH(X,Z)=max(disth(X,Z),disth(Z,X)),

其中

disth(X,Z)=maxxXminzZ||xz||2.

试证明:豪斯多夫距离满足距离度量的四条基本性质。

解答:

非负性:显然。
规范性
X=Z 时,有 disth(X,Z)=0 ,所以 distH(X,Z)=0 .
distH(X,Z)=0 时,表明 disth(X,Z) disth(Z,H) 中最大的那个为0,又因为不可能为负,所以两个只能都为0。而 disth(X,Z)=0 意味着X中的任一点到Z的距离为0,这表示X中的任一点都必须属于Z,也就是说 XZ 。同样,由 disth(Z,H)=0 可以知道 ZX 。于是有 X=Z
对称性:显然。
三角不等式

disth(x,Z) =minzZ||xz||2=minzZ||xy+yz||2,yYminzZ(||xy||2+||yz||2),yY=||xy||2+minzZ||yz||2,yY||xy||2+maxyminzZ||yz||2,yY=||xy||2+disth(Y,Z),yY

对不等式右边求 miny ,有

disth(x,Z)miny||xy||2+disth(Y,Z),xX

对不等式右边求 maxx ,有

disth(x,Z)disth(X,Y)+disth(Y,Z),xX

对不等式左边求 maxx ,有

disth(X,Z)disth(X,Y)+disth(Y,Z)

参考:http://www.math.harvard.edu/library/sternberg/slides/1180910.pdf

9.3 分析k均值算法能否找到最小化(9.24)的最优解。
解答:
k均值算法是用迭代的方法求解优化问题(9.24)的,每次迭代分为两步:计算簇中心;根据样本到簇中心的距离重新聚类。两个步骤都可以使得代价函数降低(至于为什么,可以阅读PRML p.425),又因为代价函数是有界的(聚类方法是有限的),所以不断迭代之后,最终一定能收敛,但不一定收敛到全局最小。而且收敛结果是对初值敏感的,不同的初值得到的聚类结果可能有很大差别。

上面只是简单的叙述,至于能不能严格证明:k均值算法不一定收敛到最优解,就不得而知了。目前只听说过证明收敛性的。

9.4 编程实现k均值算法,设置三组不同的k值、三组不同初始中心点,在西瓜数据集4.0上进行实验比较,并讨论什么样的初始中心有助于得到好结果。
解答:西瓜书《机器学习》课后答案——chapter9 _9.4

9.5 基于DBSCAN的概念定义,若x为核心对象,由x密度可达的所有样本构成的集合为X,试证明:X满足连接性和最大性。
解答:
连接性:对 xiX,xjX ,有 xi xj 密度相连。
xiX xjX 分别表示 xi x 密度可达, xj x 密度可达,于是由密度相连的定义可以知道 xi xj 密度相连。

最大性:对 xiX xj xi 密度可达,则 xjC
因为 xiX ,所以 xi x 密度可达,又因为 xj xi 密度可达,所以 xj x 密度可达,于是 xjC

9.6 试析AGNES算法使用最小距离和最大距离的区别。
解答:
当两个类簇比较大且距离比较远,但是有两个点距离对方比较近时,那么单链接算法会把这两个类簇合并,导致产生拉长的类簇而不是一般情况下的圆形类簇,这被称为链式效应。因为这个算法经常由于链式效应而把不相似的对象放到同一类簇中,所以是空间压缩的(space contracting)。
当两个类簇中至少有一对比较远离的对象时,全链接算法会最后合并这两个类簇,于是相似对象会长时间待在不同类簇中,这被称为分离效果(dissection effect)。所以,全链接算法是空间扩张的(space dilating)。

参考:Finding Groups in Data: An Introduction to Cluster Analysis. L Kaufman , PJ Rousseeuw. 1990. p.225.

9.7 聚类结果中若每个簇都有一个凸包(包含簇样本的凸多面体),且这些凸包不相交,则称为凸聚类。试析本章介绍的哪些聚类算法只能产生凸聚类,哪些能产生非凸聚类。
解答:
k-means算法是凸聚类算法,生成的类簇有凸包包围并且凸包互不相交;
DBSCAN算法是非凸聚类算法;

9.8 试设计一个聚类性能度量指标,并与9.2中的指标比较。

9.9 设计一个能用于混合属性的非度量距离。
用于相似性度量的距离不一定要满足距离的定义,这样的距离称非度量距离。

9.10 设计一个能自动确定聚类数的改进k均值算法,编程实现并在西瓜数据集4.0上运行。

你可能感兴趣的:(机器学习)