监督学习之三——核岭回归(Kernel ridge regression,krr)

1 KRR

KRR结合了岭回归和核函数的技术,与支持向量机类似。唯一的不同在于,KRR使用平方误差损失,而支持向量回归使用-不敏感损失。
与SVM相比,KRR的拟合可以以封闭的形式进行,对于中型数据集来说通常更快。另一方面,学习模型是非稀疏的,因此比SVM慢,后者在预测时学习稀疏模型。
目前我的理解是:KRR不如SVM

监督学习之三——核岭回归(Kernel ridge regression,krr)_第1张图片
图片来源于这里

2 sklearn.kernel_ridge实现krr

.KernelRidge(alpha=1, kernel=’linear’, gamma=None, degree=3, coef0=1, kernel_params=None)

实例:

from sklearn.kernel_ridge import KernelRidge
KRR = KernelRidge(alpha=0.6, kernel='polynomial', degree=2, coef0=2.5)

你可能感兴趣的:(#,监督学习,KRR,监督学习)