sklearn中的线性回归模型

sklearn中拥有有非常庞大的线性回归模型家族,采用各种算法用以解决各类线性回归问题。不同的线性回归模型的参数设置、模型方法和调参策略并不一样,本文并不具体介绍每个模型的具体接口和使用事项,仅简单梳理下sklearn中的部分线性回归模型。

线性回归模型按照正则化策略:可分为普通回归问题(无正则化项)、L1正则(Lasso问题)、L2正则(Ridge问题)和弹性网ElasticNet(L1正则+L2正则)。

线性回归模型按照计算策略:可分为最小二乘法、坐标轴轴下降法、最小角回归法、梯度下降法,同时对于Ridge回归可以利用核机巧将其推广到高维非线性空间。相关算法的细节可参考对应博文。值得强调的是,这里的梯度下降法是变形后的梯度下降法(如在Logsitic回归中介绍的各种优化器),因为原始的梯度下降法并不能解决L1正则项不可导的问题。

正则化策略计算策略这两个问题,对sklearn中的线性回归模型进行大概的梳理,可以得到不同的sklearn中不同模型的适用条件(见下图)。
sklearn中的线性回归模型_第1张图片

你可能感兴趣的:(sklearn,线性回归,sklearn)