1.数据导入,清洗拆分
2.通过sklearn得到数据模型
3.开始预测(这里我们将用回归和决策树来进行预测)
心脏病数据下载
```
import pandas as pd
import matplotlib.pyplot as plt
plt.rcParams['font.sans-serif'] = ['SimHei']
from sklearn.model_selection import train_test_split
from sklearn.linear_model import LogisticRegression
from sklearn.tree import DecisionTreeClassifier
这里我们主要是sklearn的包,以及numpy,方便对于数据进行操作
最后一列是我们的结果,我们需要把我们的结果和各项身体数据进行分离
#删除最后一列 样本数据
features=heart_df.drop(columns=["target"])
#保存标签 结果数据
target=heart_df["target"]
我们的训练集合的比列以3:1最为合适,即学习数据75%,预测数据25%,在sklearn里面也会有专门的函数来采集样本
#切分训练集
X_train,X_test,Y_train,Y_test=train_test_split(features,target,test_size=0.25)
def test_logistic(*data):
X_train, X_test, Y_train, Y_test=data
clf=LogisticRegression()#逻辑回归
clf.fit(X_test,Y_test)#梯度下降,递归
print("学习模型预测成绩:{:.4f}".format(clf.score(X_train,Y_train)))
print("实际模型预测成绩:{:.4f}".format(clf.score(X_test, Y_test)))
def test_decision_tree(*data):
X_train, X_test, Y_train, Y_test = data
clf=DecisionTreeClassifier(max_depth=3,criterion="entropy")
clf.fit(X_train,Y_train)
print("学习模型决策树预测成绩:{:.4f}".format(clf.score(X_train, Y_train)))
print("实际模型决策树预测成绩:{:.4f}".format(clf.score(X_test, Y_test)))
# decision_tree_pre=clf.predict(X_test)
# print("decision_tree:",decision_tree_pre)
# print("true lbel:",Y_test)
return clf
这样我们的预测就完成了,我们一起来看看结果吧
决策树的结果可以输出喔
经过这一顿操作下来,我们一起再好好的总结一下,起始就是将我们的数据的取值情况和它的特征先分开,然后我们利用train_test_split去获得取值,然后直接使用clf函数来进行学习,再去对我们的结果获取成绩