01.由数据集testSet.txt,求出回归方程=^,画出决策边界。
02.由上述训练集确定回归方程参数,预测新的样本点;
现在给定一个新的样本点,特征为(0.516704,5.920334),根据Logistic回归分类预测该样本点的
类别;
附:如果想要核对分类结果的同学可以在画出决策边界的图里画出这个点,看看这个点是在决策边界的上面(类别1)
还是下面(类别0)。
import numpy as np
import matplotlib.pyplot as plt
np.set_printoptions(suppress=True)
data=np.genfromtxt('testSet.txt')
x_data=data[:,:-1]
print(len(x_data))
y_data=data[:,-1]
print(x_data,y_data)
def plot():
x0=[]
x1=[]
y0=[]
y1=[]
for i in range(len(x_data)):
if y_data[i]==0:
x0.append(x_data[i,0])
y0.append(x_data[i,1])
else:
x1.append(x_data[i,0])
y1.append(x_data[i,1])
plt.scatter(x0,y0,marker="o",color="b",label="label0",s=40)
plt.scatter(x1,y1,marker="*",color="r",label="label1",s=60)
plt.legend()
plot()
plt.show()
import numpy as np
np.set_printoptions(suppress=True)
data=np.genfromtxt('testSet.txt')
x_data=data[:,:-1]
y_data=data[:,-1]
print(y_data)
m=len(x_data)
print(m)
X_data=np.concatenate((np.ones((m,1)),x_data),axis=1)
print('添加偏执项后的数据\n',X_data)
def sigmoid(x):
return 1/(1+np.exp(-x))
def gradAscent(xArr,yArr):
epochs=30000
lr=0.001
xMat=np.mat(xArr)
yMat=np.mat(yArr)
m,n=xMat.shape
print(m)
theta=np.mat(np.ones((n,1)))
for i in range(epochs):
h=sigmoid(xMat*theta)
theta_grad=xMat.T*(h-yMat.T)/m
theta=theta-lr*theta_grad
return theta
theta=gradAscent(X_data,y_data)
plot()
x_test=[[-4],[3]]
y_test=(-theta[0]-x_test*theta[1])/theta[2]
print(y_test)
plt.plot(x_test,y_test,'r')