机器学习

机器学习

1、什么是机器学习?

机器学习,是人工智能一个基本条件,是建立大数据基础之上。从数据中提取出模型,并可以利用模型对未知的数据做出预测
机器学习_第1张图片

机器学习算法分类又分为监督学习和无监督学习

  • 监督学习

    定义:输入数据是由输入特征值目标值所组成。函数的输出可以是一个连续的值(称为回归),或是输出是 有限个离散值(称作分类

    算法:分类( k-近邻算法、贝叶斯分类、决策树与随机森林、逻辑回归、神经网络

    ​ 回归(线性回归、岭回归

  • 无监督学习

    定义:输入数据是由输入特征值所组成

    算法:聚类(k-means

    机器学习_第2张图片

机器学习一个流程图:
机器学习_第3张图片

2、机器学习算法

2.1、K-近邻算法(KNN)

2.1.1、算法介绍
  • 定义: 1) 如果一个样本在特征空间中的k个最相似(特征空间中最邻近)的样本中的大多数属于某一个类别,则该样本也属于这个类别

    ​ 2)欧氏距离计算

    ​ 3)根据你的‘邻居’来判断你的属性

  • 优点:简单,易于理解,易于实现,无需训练

  • 缺点:1)懒惰算法,对测试样本分类时的计算量大,内存开销大

    ​ 2)必须指定K值,K值选择不当则分类精度不能保证(可以使用模型调优,超参数搜索)

  • 应用场景:小数据场景,几千~几万样本,具体场景具体业务去测试

2.1.2、算法的API接口

sklearn.neighbors.KNeighborsClassifier(n_neighbors=5,algorithm='auto')

  • n_neighbors:int,可选(默认= 5),k_neighbors查询默认使用的邻居数

  • algorithm:{‘auto’,‘ball_tree’,‘kd_tree’,‘brute’},可选用于计算最近邻居的算法:‘ball_tree’将会使用 BallTree,‘kd_tree’将使用 KDTree。‘auto’将尝试根据传递给fit方法的值来决定最合适的算法。 (不同实现方式影响效率)

2.1.3、模型选择与调优API

sklearn.model_selection.GridSearchCV(estimator, param_grid=None,cv=None)

参数描述

  • estimator:估计器对象
  • param_grid:估计器参数(dict){“n_neighbors”:[1,3,5]}
  • cv:指定几折交叉验证

属性描述

  • fit:输入训练数据
  • score:准确率
  • bestscore:在交叉验证中验证的最好结果
  • bestestimator:最好的参数模型
  • cvresults:每次交叉验证后的验证集准确率结果和训练集准确率结果

2.2、朴素贝叶斯分类算法

2.2.1、算法介绍
  • 定义: 条件概率、联合概率计算方式与特征独立的关系去预测

  • 优点:1)朴素贝叶斯模型发源于古典数学理论,有稳定的分类效率。

    ​ 2)对缺失数据不太敏感,算法也比较简单,常用于文本分类。

    3)分类准确度高,速度快

  • 缺点:由于使用了样本属性独立性的假设,所以如果特征属性有关联时其效果不好

2.2.2、算法的API接口

sklearn.naive_bayes.MultinomialNB(alpha = 1.0)

  • alpha:拉普拉斯平滑系数

2.3、决策树算法

2.3.1、算法介绍
  • 定义:通过多层特征,并且选择特征有优先级

  • 优点:简单的理解和解释,树木可视化

  • 缺点: 决策树学习者可以创建不能很好地推广数据的过于复杂的树,这被称为过拟合

    ​ (使用随机森林树解决,相当于KNN算法使用模型调优)

2.3.2、算法的API接口

sklearn.tree.DecisionTreeClassifier(criterion=’gini’, max_depth=None,random_state=None)

  • criterion:默认是’gini’系数,也可以选择信息增益的熵’entropy’
  • max_depth:树的深度大小
  • random_state:随机数种子

2.4、随机森林算法

2.4.1、算法介绍
  • 定义: 一个包含多个决策树的分类器,并且其输出的类别是由个别树输出的类别的众数而定

  • 优点: 1)能够有效地运行在大数据集上,处理具有高维特征的输入样本,而且不需要降维

    ​ 2)在当前所有算法中,具有极好的准确率

    ​ 3)能够评估各个特征在分类问题上的重要性

2.4.2、算法的API接口

sklearn.ensemble.RandomForestClassifier(n_estimators=10, criterion=’gini’, max_depth=None, bootstrap=True, random_state=None, min_samples_split=2)

  • n_estimators:integer,optional(default = 10)森林里的树木数量
  • criteria:string,可选(default =“gini”)分割特征的测量方法
  • max_depth:integer或None,可选(默认=无)树的最大深度
  • max_features: 默认"auto”,每个决策树的最大特征数量
  • bootstrap:boolean,optional(default = True)是否在构建树时使用放回抽样
  • min_samples_split:节点划分最少样本数
  • min_samples_leaf:叶子节点的最小样本数

超参数:n_estimator, max_depth, min_samples_split,min_samples_leaf

2.5、逻辑回归算法

2.5.1、算法介绍
  • 定义: 逻辑回归就是解决二分类问题的利器
2.5.2、算法的API接口

sklearn.linear_model.LogisticRegression(solver='liblinear', penalty=‘l2’, C = 1.0)

  • solver:优化求解方式(默认开源的liblinear库实现,内部使用了坐标轴下降法来迭代优化损失函数) sag:根据数据集自动选择,随机平均梯度下降
  • penalty:正则化的种类
  • C:正则化力度

2.6、线性回归算法

2.6.1、算法介绍
  • 定义:利用回归方程(函数)对一个或多个自变量(特征值)和因变量(目标值)之间关系进行建模的一种分析方式
  • 过拟合:一个假设在训练数据上能够获得比其他假设更好的拟合, 但是在测试数据集上却不能很好地拟合数据,此时认为这个假设出现了过拟合的现象。(模型过于复杂)
  • 欠拟合:一个假设在训练数据上不能获得更好的拟合,并且在测试数据集上也不能很好地拟合数据,此时认为这个假设出现了欠拟合的现象。(模型过于简单)
  • 上诉两个问题,引出岭回归算法解决
2.6.2、算法的API接口

正规方程

sklearn.linear_model.LinearRegression(fit_intercept=True)

  • fit_intercept:是否计算偏置
  • LinearRegression.coef_:回归系数
  • LinearRegression.intercept_:偏置

梯度下降

sklearn.linear_model.SGDRegressor(loss="squared_loss", fit_intercept=True, learning_rate ='invscaling', eta0=0.01)

  • loss:损失类型 loss=”squared_loss”: 普通最小二乘法
  • fit_intercept:是否计算偏置
  • learning_rate : string, optional
    • 'constant': eta = eta0
    • 'optimal': eta = 1.0 / (alpha * (t + t0)) [default]
    • 'invscaling': eta = eta0 / pow(t, power_t)
    • 对于一个常数值的学习率来说,可以使用learning_rate=’constant’ ,并使用eta0来指定学习率。

2.7、岭回归算法

2.7.1、算法介绍
  • 定义:岭回归,其实也是一种线性回归。只不过在算法建立回归方程时候,加上正则化的限制,从而达到解决过拟合的效果
2.7.2、算法的API接口

sklearn.linear_model.Ridge(alpha=1.0, fit_intercept=True,solver="auto", normalize=False)

  • alpha:正则化力度,也叫 λ (λ取值:0~1 1~10
  • solver:会根据数据自动选择优化方法, sag:如果数据集、特征都比较大,选择该随机梯度下降优化
  • normalize:数据是否进行标准化, normalize=False:可以在fit之前调用preprocessing.StandardScaler标准化数据
  • Ridge.coef_:回归权重
  • Ridge.intercept_:回归偏置

2.8、k-means算法

2.8.1、算法介绍
  • 定义:无监督学习,由于数据没有标签,没有目标值
2.8.2、算法的API接口

sklearn.cluster.KMeans(n_clusters=8,init=‘k-means++’)

  • n_clusters:开始的聚类中心数量
  • init:初始化方法,默认为'k-means ++’
  • labels_:默认标记的类型,可以和真实值比较(不是值比较)

3、模型保存和加载

from sklearn.externals import joblib

  • 保存:joblib.dump(rf, 'test.pkl')
  • 加载:estimator = joblib.load('test.pkl')

4、算法评估

4.1、分类评估

  • 评估方式:准确率, 精确率和召回率
  • 评估API:sklearn.metrics.classification_report(y_true, y_pred, labels=[], target_names=None )
    • y_true:真实目标值
    • y_pred:估计器预测目标值
    • labels:指定类别对应的数字
    • target_names:目标类别名称
    • return:每个类别精确率与召回率

4.2 聚类评估

  • 评估方式:轮廓系数
  • 评估API:sklearn.metrics.silhouette_score(X, labels)
    • X:特征值
    • labels:被聚类标记的目标值

你可能感兴趣的:(机器学习)