回归(Regression)

回归(Linear Regression)

一、基础

1.模型,(构建的模型可)用来描述现实中的问题或数据,即现实中的问题或数据的一种量化方式(数学化统计化),目的是通过模型更好地解决现实中的问题或发现数据的规律;

模型选择或建立后,用训练数据求模型中的参数Θ;怎么求?

通过构造目标函数(即代价函数),并求使目标函数的数值最小时,参数Θ的值(部分构造

目标函数的过程可用极大似然估计来构造或解释);

运用某些算法,如梯度下降算法,正规方程等,求出参数Θ的值;

若存在超参数,则需要于验证数据进行人工调参,也有某些算法进行调参,如枚举法、遗传法等;

最后通过测试数据来评价模型的优劣;

应用于实际问题。

2.机器学习的数据分为:

训练数据集、验证数据集、测试数据集;


二、线性回归(Linear Regression)

1.线性回归:解决预测问题、标签(Y)为连续值;

2.模型表示:XXX

模型选择:

通过可视化观察数据的特征;

直接通过内在逻辑选择合适的模型;

3.目标函数(代价函数):XXX

4.求参数Θ的取值,使目标函数最小的算法:

(1)梯度下降算法:

可求局部最小值,当目标函数为凸函数时可得全局最小值;

存在超参数:α;

(2)正规方程:矩阵需可逆;

(3)其他算法;


三、逻辑回归(Logistic Regression)

1.逻辑回归:解决分类问题、标签(Y)为离散值;

2.模型表示:XXX

3.目标函数(代价函数):XXX

4.求参数Θ的取值,使目标函数最小的算法:

(1)梯度下降算法;

(2)其他算法:

Conjugate gradient 共轭梯度法

BFGS 变尺度法

L-BFGS 限制变尺度法

等等;

5.多分类问题:

(1)一对余方法,构建多个分类器;

(2)Softmax回归;


四、正则化

1.模型常见问题

欠拟合:高偏差;

过拟合:高方差;

于模型精度和泛化能力两者之间权衡;

2.正则化技术:

目的:防止过拟合,减小参数Θ的值;

方法:通过修改目标函数:XXX

(1)Ridge回归、L2-Norm:

超参数:λ;平方和;

一般地,性能优于Lasso回归,但Lasso回归有特征选择功能;

(2)Lasso回归、L1-Norm:

超参数:λ;绝对值加和;

有特征选择功能、起到降维作用;

(3)Elastic Net;

两者综合;超参数:λ、ρ;


五、模型的评价指标:

1.MSE(均方误差);

2.R的平方(拟合优度);

3.AUC、ROC;

4.其他;


六、特征的选择和处理

1.特征缩放、特征归一化;

2.降维:PCA技术(主成分分析)等;

3.数据预处理;

4.其他;


七、关于梯度下降算法

1.BGD:批量梯队下降算法;

2.SGD:随机梯度下降算法;

3.Mini-batch SGD:小批量随机梯度下降算法;

4.超参数:α(学习率);


八、实践

1.广告通过不同渠道的投放所产生的效果的预测(广告不同渠道的花费与销售额的关系);

预测问题:线性回归模型;

正则化技术的比较;


2.鸢尾花的分类;

分类问题:逻辑回归模型;


3.波士顿的房价的预测;

预测问题:线性回归模型;


4.航空公司某航班乘客的人数预测;

预测问题:线性回归模型:时间相关:时间序列模型:自回归模型:ARIMA模型;

自回归模型也应用于:股价预测;


5.ROC与AUC(模型评价指标)

(1)ROC、AUC的基础;

(2)各模型于鸢尾花分类问题上的:ROC与AUC;


九、问题:

1.实践中的代码细节;

2.理论知识体系:参考周志华的《机器学习》;

3.其他;

你可能感兴趣的:(回归(Regression))