机器学习中的分类模型整理

概要

机器学习中的分类模型有逻辑回归、朴素贝叶斯、决策树、支持向量机、随机森林、梯度提升树等分类算法,不仅可以进行二分类,还可以进行多分类。

一、逻辑回归

逻辑回归的本质就由线性回归演变而来,是一个线性分类器。sklearn实现的LogisticRegression不仅可用于二分类,也可以用于多分类。

优点:

  1. 模型训练速度非常快,计算量只与特征的数目有关。
  2. 模型的可解释性非常好,从特征的权重可以看到不同特征对最后结果的影响。
  3. 内存资源占用小,只需要存储特征权重等信息。
  4. 逻辑回归的抗噪能力比较强。

缺点:

  1. 若数据集是非线性的,逻辑回归并不能得到很好的结果。
  2. 逻辑回归对极不平衡的数据集训练效果不好。
  3. 逻辑回归对数据特征的分布和相关性要求相对较高。
  4. 逻辑回归本身无法筛选特征。
# 一般的训练模型代码
from sklearn.model_selection import train_test_split, cross_val_score
from sklearn.linear_model import LogisticRegression as LR
# data是dataframe对象数据,取特征与标签
X = data.iloc[:,1:] 
y = data.iloc[:,0]

# 使用交叉验证大概看一下模型效果。
lr_ = LR()
score_ = cross_val_score(lr_, X, y, cv=10).mean()
score_

# 使用学习曲线进行调参,此方法适合训练时间比较长的模型
# 逻辑回归中主要几个需要调的参数:penalty;C;solver。
l1 = []
l2 = []
C = np.arange(0.1, 20.1, 0.5)  # 
for i in C:
    lrl1 = LR(penalty='l1', solver='liblinear', C=i, max_iter=1000).fit(X_train, Y_train)
    l1.append(lrl1.score(X_vali, Y_vali))
    lrl2 = LR(penalty='l2', solver='liblinear', C=i, max_iter=1000).fit(X_train, Y_train)
    l2.append(lrl2.score(X_vali, Y_vali))

print(max(l1), C[l1.index(max(l1))])
print(max(l2), C[l2.index(max(l2))])
plt.figure(figsize=(20,5))
plt.plot(C, l1, label='l1')
plt.plot(C, l2, label='l2')
plt.legend(loc=4)
plt.show()

# 还可以使用网格搜索调参
# 网格搜索进行调参
from sklearn.model_selection import GridSearchCV
parameters = {'C':[*np.linspace(0.1,1,5)]
              ,'solver':('liblinear','saga','newton-cg','lbfgs', 'sag')
#               ,'max_iter':[100,150,200]
}
lr = LR(penalty='l2', C=0.1, solver='liblinear')
gs = GridSearchCV(lr, parameters, cv=10)
gs.fit(X_train, Y_train)
print("best params:", gs.best_params_)
print("best score:", gs.best_score_)

具体接口参见官方文档

二、决策树

决策树是一种非参数的有监督学习方法,它能够从一系列有特征和标签的数据中总结出决策规 则,并用树状图的结构来呈现这些规则,以解决分类和回归问题。

优点:

  1. 对数据不太敏感,无需做数据预处理。比如归一化、标准化。
  2. 决策树模型可以进行可视化分析,便于理解和解释
  3. 训练速度快

缺点:

  1. 容易发生过拟合
  2. 泛化能力比较差
  3. 容易忽略数据中特征的相关性
# 决策分类树模型训练
from sklearn import tree
clf = tree.DecisionTreeClassifier(criterion='entropy', 
                                  random_state=1, 
                                  splitter='random')
clf.fit(X_train, Y_train)
clf.score(X_vali, Y_vali)
# 调参方式和逻辑回归一样,可以使用学习曲线和网格搜索。

决策树可调的参数比较多,criterion(衡量分枝质量的指标)、splitter(分枝策略)、max_depth(树的最大深度)、max_features(做最佳分枝时考虑特征的个数)等等,具体接口参见官方文档

三、支持向量机

支持向量机是一种典型的二分类模型。

优点:

  1. SVM利用内积核函数代替向高维空间的非线性映射。
  2. SVM分类决策是由少数的支持向量决定的。计算复杂性取决于支持向量的数目。

缺点:

  1. SVM并不适合大规模训练样本
  2. SVM不能用于多分类问题
  3. 对于分类结果有"概率"值要求的不适用
# 支持向量机 SVM
from sklearn.svm import SVC
clf = SVC(kernel='linear'
          ,gamma='auto'
          ,degree=1
          ,cache_size=5000).fit(X_train, Y_train)
clf.score(X_vali, Y_vali)
# 调参方式和逻辑回归一样,可以使用学习曲线和网格搜索。

具体接口参加官方文档

四、随机森林

随机森林是一个集成算法分类器,其所有的基分类器都是决策树,然后通过装袋法(Bagging)进行集成。

优点:

  1. 可用于处理高维度的数据,并且不需要做特征选择
  2. 训练模型后可以知道哪些特征比较重要
  3. 对不平衡数据比较不敏感

缺点:

  1. 当数据集中有特征数据噪声比较大时,容易出现过拟合。
  2. 无法知道模型内部的运行,可解释性较差。
# 随机森林分类器
from sklearn.ensemble import RandomForestClassifier
rfc = RandomForestClassifier()
rfc.fit(X_train, Y_train)
rfc.score(X_test, Y_test)
# 调参方式和逻辑回归一样,可以使用学习曲线和网格搜索。

具体接口参见官方文档

五、XGBoost模型

XGBoost模型是一种使用提升法(Boosting)集成的集成分类器,利用许多弱分类器集成在一起形成一个强分类器的模型。

优点:

  1. 当样本存在缺失值时,XGBoost能自动学习分裂方向。
  2. XGBoost借鉴RF的做法,支持列抽样,不仅能防止过拟合,还能降低计算。
  3. XGBoost的代价函数引入正则化,控制了模型的复杂度,防止模型过拟合。

缺点:

  1. XGBoost在迭代之前需要对特征做预排序,大数据集下计算耗时。
  2. XGBoost采用level-wise算法生成决策树,同时分裂同一层的叶子,这样导致很多不必要分裂叶子节点被分裂,带来了不必要的开销。
# XGBoost模型
from xgboost import XGBRegressor as XGBR
reg = XGBR(n_estimators=100).fit(X_train,Y_train)
reg.score(X_test,Y_test)

# 调参方法与前面模型一致。

具体接口参见官方文档

六、LightGBM模型

LightGBM模型也是一种使用提升法(Boosting)集成的集成分类器,利用弱分类器(决策树)迭代训练以得到最优模型。

LightGBM提出的主要原因就是为了解决GBDT在海量数据遇到的问题,让GBDT可以更好更快地用于工业实践。

优点:

  1. 训练速度快。相对XGBoost,采用直方图算法进行样本遍历,极大降低了时间复杂度;训练过程中,采用单边梯度算法过滤梯度小的样本,减少了大量的计算;基于leaf-wise算法的增长策略构建树,减少了很多不必要的计算;同时采用了并行(特征并行、数据并行)的方式加速计算,优化了缓存,增加了缓存命中率。
  2. 内存消耗更小。

缺点:

  1. 使用leaf-wise算法可能会长出比较深的决策树,而产生过拟合。
  2. 由于LightGBM是基于偏差的算法,所以对噪点数据比较敏感。
# LightGBM模型
from lightgbm import LGBMClassifier
# lightgbm除了有分类器还有回归模型
gbm = LGBMClassifier(num_leaves=31, learning_rate=0.05, n_estimators=20)
gbm.fit(X_train, Y_train, eval_set=[(X_test, Y_test)], early_stopping_rounds=5)

# 网格搜索,参数优化
estimator = LGBMClassifier(num_leaves=31)
params = {
    'learning_rate': [0.01, 0.1, 1],
    'n_estimators': [20, 40]
}
gbm = GridSearchCV(estimator, params)
gbm.fit(X_train, Y_train)
print('Best parameters:', gbm.best_params_)

具体接口参见官方文档

七、朴素贝叶斯分类器

朴素贝叶斯分类器的本质是贝叶斯定理。其有个前提假设(属性条件独立),常用于文本分类。

优点:

  1. 对于特征独立的情况下,分类效果非常好。
  2. 对样本量的要求不高

缺点:

  1. 模型得出的概率没有实际意义
  2. 不适用数据中特征相关的分类
# 高斯朴素贝叶斯模型
from sklearn.naive_bayes import GaussianNB
gnb = GaussianNB()
gnb.fit(X_train, Y_train)

还有其他类型的贝叶斯模型,具体参见官方文档

官方原话:
On the flip side, although naive Bayes is known as a decent classifier, it is known to be a bad estimator, so the probability outputs from predict_proba are not to be taken too seriously.

[翻译] 另一方面,尽管朴素贝叶斯分类器被认为是一个不错的分类器,但它是一个糟糕的估计器,因此不必太认真地对待来自predict_proba的概率输出。

持续更新。。。

你可能感兴趣的:(人工智能,机器学习)