sklearn中predict_proba、predict用法

 总的来说,predict返回的是一个预测的值,predict_proba返回的是对于预测为各个类别的概率。predict_proba返回的是一个 n 行 k 列的数组, 第 i 行 j列的数值是模型预测 第 i 个预测样本为某个标签的概率,并且每一行的概率和为1。

predict

 import numpy as np
 X = np.array([[-1, -1], [-2, -1], [1, 1], [2, 1]]) #数据特征
 y = np.array([1, 1, 2, 2])  # 数据对应的标签
 from sklearn.svm import SVC  # 导入svm的svc类(支持向量分类)
 clf = SVC()  # 创建分类器对象
 clf.fit(X, y)  # 用训练数据拟合分类器模型
 SVC(C=1.0, cache_size=200, class_weight=None, coef0=0.0,
    decision_function_shape=None, degree=3, gamma='auto', kernel='rbf',
    max_iter=-1, probability=False, random_state=None, shrinking=True,
    tol=0.001, verbose=False)
 clf.predict([[-0.8, -1]])  # 用训练好的分类器去预测[-0.8, -1]数据的标签[1]

predict_proba

clf.predict_proba,二分类则得到[(px1,px2),()] 分别表示预测为0的概率和预测为1的概率

from sklearn.linear_model import LogisticRegression
>>> import numpy as np
>>> x_train = np.array([[1,2,3],[1,3,4],[2,1,2],[4,5,6],[3,5,3],[1,7,2]])
>>> y_train=np.array([0,0,0,1,1,1])
>>> x_test = np.array([[2,2,2],[3,2,6],[1,7,4]])
>>> clf=LogisticRegression()
>>> clf.fit(x_train,y_train)
LogisticRegression(C=1.0, class_weight=None, dual=False, fit_intercept=True,
          intercept_scaling=1, max_iter=100, multi_class='ovr', n_jobs=1,
          penalty='l2', random_state=None, solver='liblinear', tol=0.0001,
          verbose=0, warm_start=False)
>>> clf.predict(x_test)
array([1, 0, 1])
>>> x_test = np.array([[3,5,3],[3,2,6],[1,7,4]])
>>> clf.predict(x_test)
array([1, 0, 1])
>>> clf.predict_proba(x_test)
array([[0.12552786, 0.87447214],
       [0.84401838, 0.15598162],
       [0.13147498, 0.86852502]])
# 返回预测属于某标签的概率

#即
# 预测[3,5,3]的标签是0的概率为0.12552786,1的概率为0.87447214
# 预测[3,2,6]的标签是0的概率为0.84401838, 1的概率是0.15598162

       类别标签是行索引,按行从小到大排列,predict_proba返回的是一个 n 行 k 列的数组, 第 i 行 第 j 列上的数值是模型预测 第 i 个预测样本#为某个标签的概率,并且每一行的概率和为1。

你可能感兴趣的:(python)