机器学习实战笔记之五(Logistic 回归)

Logistic 回归的一般过程

收集数据:采用任意方法收集数据。

准备数据:由于需要进行距离计算,因此要求数据类型为数值型。另外,结构化数据格式最佳。

分析数据:采用任意方法对数据进行分析。

训练算法:大部分时间将用于训练,训练的目的是为了找到最佳的分类回归系数。

使用算法:首先,我们需要输入一些数据,并将其转换成对应的结构化数值;接着,基于训练好的回归系数就可以对这些数值进行简单的回归计算,判定他们属于哪个类别;在这之后,我们就可以在输出的类别上做一些其他的分析工作。


Logistic回归

优点:计算代价不高,易于理解和实现。

缺点:容易欠拟合,分类精度可能不高。

适用数据类型:数值型和标称型数据。


Sigmoid函数,参见百度百科。


===========chapter 5.2===============

代码如下,修改了2处。

1. return weights.getA()

2. 移除weights=wei.getA()

#coding=utf-8

from numpy import *

# 打开文本文件并进行逐行读取
def loadDataSet():
    dataMat=[]
    labelMat=[]
    fr=open('testSet.txt')
    for line in fr.readlines():
        lineArr=line.strip().split()
        dataMat.append([1.0,float(lineArr[0]),float(lineArr[1])])
        labelMat.append(int(lineArr[2]))
    return  dataMat,labelMat

def sigmoid(inX):
    return 1.0/(1+exp(-inX))

# dataMatIn存放的是3个特征,是100*3的矩阵
# classLabels存放的是类别标签,是1*100的行向量
def gradAscent(dataMatIn,classLabels):
    # 转换为NumPy矩阵数据类型
    dataMatrix=mat(dataMatIn)
    labelMat=mat(classLabels).transpose()
    m,n=shape(dataMatrix)
    alpha=0.001 # 向目标移动的步长
    maxCycles=500 # 迭代次数
    weights=ones((n,1))
    for k in range(maxCycles):
        # 矩阵相乘
        h=sigmoid(dataMatrix*weights) # 列向量的元素个数等于样本个数
        error=(labelMat-h)
        weights=weights+alpha*dataMatrix.transpose()*error
    # getA() Return self as an ndarray object.
    return weights.getA()

def plotBestFit(weights):
    import matplotlib.pyplot as plt
    dataMat,labelMat=loadDataSet()
    dataArr=array(dataMat)
    n=shape(dataArr)[0]
    xcord1=[]
    ycord1=[]
    xcord2=[]
    ycord2=[]
    for i in range(n):
        if int(labelMat[i])==1:
            xcord1.append(dataArr[i,1])
            ycord1.append(dataArr[i,2])
        else:
            xcord2.append(dataArr[i,1])
            ycord2.append(dataArr[i,2])
    fig=plt.figure()
    ax=fig.add_subplot(111)
    ax.scatter(xcord1,ycord1,s=30,c='red',marker='s')
    ax.scatter(xcord2,ycord2,s=30,c='green')
    x=arange(-3.0,3.0,0.1)
    y=(-weights[0]-weights[1]*x)/weights[2] # 最佳拟合直线
    ax.plot(x,y)
    plt.xlabel('X1')
    plt.ylabel('X2')
    plt.show()
并在运行时,写入以下代码,定义weights:

>>> import logRegres
>>> from numpy import *
>>> dataArr,labelMat=logRegres.loadDataSet()
>>> weights=logRegres.gradAscent(dataArr,labelMat)
>>> weights
array([[ 4.12414349],
       [ 0.48007329],
       [-0.6168482 ]])
>>> logRegres.plotBestFit(weights)

===========chapter 5.3===============

5.3.1 准备数据:处理数据中的缺失值

可选的做法:

  • 使用可用特征的均值来填补缺失值;
  • 使用特征值来填补缺失值,如-1;
  • 忽略有缺失值的样本;
  • 使用相似样本的均值填补缺失值;
  • 使用另外的机器学习算法预测缺失值。

如果在测试数据集中发现了一条数据的类别标签已经缺失,那么我们的简单做法是将该条数据丢弃。因为类别标签与特征不同,很难确定采用某个合适的值来替换。


在运行代码 logRegres.multiTest() 时,会出现:


RuntimeWarning: overflow encountered in exp 的提示,说明计算的数据结果溢出了。虽然忽略这个报错也无妨。

如果有强迫症的话,比如本狗。。。需要做以下调整,使用longfloat() 来解决溢出:

def sigmoid(inX):
    return longfloat( 1.0/(1+exp(-inX)))


总结

Logistic回归的目的是寻找一个非线性函数Sigmoid的最佳拟合参数,求解过程可以由最优化算法来完成。





你可能感兴趣的:(机器学习)