测试【Machine Learning week7】Support Vector Machines

对于本章的课程,感觉自己没有完全学懂,这里也只能半知半解地做题,还好边看题边看课件还是能够解决问题的,但是对于SVM的原理还是没有完全掌握。

测试【Machine Learning week7】Support Vector Machines_第1张图片

分析:明显从图中可见是underfit,对于课件进行总结,可以得到下面这张表。根据这张表可知,应当选择较大的C和较小的σ2σ2
σ2

测试【Machine Learning week7】Support Vector Machines_第2张图片

答案:1


σ2

分析:对于这题,直接看课件上的案例就知道答案了,不过按照上面总结的那个表格也是可以推出答案的。因为σ2
取值小了,所以图像应当更不平滑,所以只能选择选项4了。
σ2

答案:4

测试【Machine Learning week7】Support Vector Machines_第3张图片

σ2

分析:当y=0时,要想使得整体最小,必须使得cost0最小。对照上图便可知:在z<=1时,cost0最小为0。同理可以推导出当y=1时,z>=1。
σ2

答案:2,3

测试【Machine Learning week7】Support Vector Machines_第4张图片

σ2

分析:这题我选错了,估计是多选了。大家可以对照这张ppt选择,首先n的值不是很大,m也不是很大,所以对应于第二种情况,所以应当用SVM with Gaussian kernel这个方法。对于n=10,选择neural network也是很好的,所以选项2是对的。对于选项3为什么不对,主要是造成underfit的原因并不是因为局部最优造成的。适当的增加特征也是可以解决underfit问题,选项4正确。

测试【Machine Learning week7】Support Vector Machines_第5张图片
σ2

答案:2,4

测试【Machine Learning week7】Support Vector Machines_第6张图片

σ2

分析:选项1可直接参考以下高斯核函数的公式,所以是正确的;选项2是错的,因为对one-vs-all其实与二分类没有太多区别的;选项3似乎也没什么问题;选项4可以参考cost函数,其实C的取值对于theta是有影响的。

测试【Machine Learning week7】Support Vector Machines_第7张图片
σ2

答案:1,3




σ 2

你可能感兴趣的:(Machine,Learning)