收集数据:采用任意方法收集数据。
准备数据:由于需要进行距离计算,因此要求数据类型为数值型。另外,结构化数据格式最佳。
分析数据:采用任意方法对数据进行分析。
训练算法:大部分时间将用于训练,训练的目的是为了找到最佳的分类回归系数。
使用算法:首先,我们需要输入一些数据,并将其转换成对应的结构化数值;接着,基于训练好的回归系数就可以对这些数值进行简单的回归计算,判定他们属于哪个类别;在这之后,我们就可以在输出的类别上做一些其他的分析工作。
Logistic回归
优点:计算代价不高,易于理解和实现。
缺点:容易欠拟合,分类精度可能不高。
适用数据类型:数值型和标称型数据。
Sigmoid函数,参见百度百科。
代码如下,修改了2处。
1. return weights.getA()
2. 移除weights=wei.getA()
#coding=utf-8
from numpy import *
# 打开文本文件并进行逐行读取
def loadDataSet():
dataMat=[]
labelMat=[]
fr=open('testSet.txt')
for line in fr.readlines():
lineArr=line.strip().split()
dataMat.append([1.0,float(lineArr[0]),float(lineArr[1])])
labelMat.append(int(lineArr[2]))
return dataMat,labelMat
def sigmoid(inX):
return 1.0/(1+exp(-inX))
# dataMatIn存放的是3个特征,是100*3的矩阵
# classLabels存放的是类别标签,是1*100的行向量
def gradAscent(dataMatIn,classLabels):
# 转换为NumPy矩阵数据类型
dataMatrix=mat(dataMatIn)
labelMat=mat(classLabels).transpose()
m,n=shape(dataMatrix)
alpha=0.001 # 向目标移动的步长
maxCycles=500 # 迭代次数
weights=ones((n,1))
for k in range(maxCycles):
# 矩阵相乘
h=sigmoid(dataMatrix*weights) # 列向量的元素个数等于样本个数
error=(labelMat-h)
weights=weights+alpha*dataMatrix.transpose()*error
# getA() Return self as an ndarray object.
return weights.getA()
def plotBestFit(weights):
import matplotlib.pyplot as plt
dataMat,labelMat=loadDataSet()
dataArr=array(dataMat)
n=shape(dataArr)[0]
xcord1=[]
ycord1=[]
xcord2=[]
ycord2=[]
for i in range(n):
if int(labelMat[i])==1:
xcord1.append(dataArr[i,1])
ycord1.append(dataArr[i,2])
else:
xcord2.append(dataArr[i,1])
ycord2.append(dataArr[i,2])
fig=plt.figure()
ax=fig.add_subplot(111)
ax.scatter(xcord1,ycord1,s=30,c='red',marker='s')
ax.scatter(xcord2,ycord2,s=30,c='green')
x=arange(-3.0,3.0,0.1)
y=(-weights[0]-weights[1]*x)/weights[2] # 最佳拟合直线
ax.plot(x,y)
plt.xlabel('X1')
plt.ylabel('X2')
plt.show()
并在运行时,写入以下代码,定义weights:
>>> import logRegres
>>> from numpy import *
>>> dataArr,labelMat=logRegres.loadDataSet()
>>> weights=logRegres.gradAscent(dataArr,labelMat)
>>> weights
array([[ 4.12414349],
[ 0.48007329],
[-0.6168482 ]])
>>> logRegres.plotBestFit(weights)
===========chapter 5.3===============
可选的做法:
如果在测试数据集中发现了一条数据的类别标签已经缺失,那么我们的简单做法是将该条数据丢弃。因为类别标签与特征不同,很难确定采用某个合适的值来替换。
在运行代码 logRegres.multiTest() 时,会出现:
RuntimeWarning: overflow encountered in exp 的提示,说明计算的数据结果溢出了。虽然忽略这个报错也无妨。
如果有强迫症的话,比如本狗。。。需要做以下调整,使用longfloat() 来解决溢出:
def sigmoid(inX):
return longfloat( 1.0/(1+exp(-inX)))
Logistic回归的目的是寻找一个非线性函数Sigmoid的最佳拟合参数,求解过程可以由最优化算法来完成。