泰坦尼克号预测python_泰坦尼克号生存预测(python)

1 数据探索

对数据进行一个整体的理解

1.1 查看数据都有一些什么特征

importpandas as pdimportseaborn as sns%matplotlib inline

titanic= pd.read_csv(‘G:\\titanic\\train.csv‘)titanic.sample(10)

泰坦尼克号预测python_泰坦尼克号生存预测(python)_第1张图片

获取数据的10行记录进行观察,初步了解数据的组成,可以看到Age、Cabin里面是存在缺失值的,在进一步理解数据的统计量后再进行数据处理,观察各特征的最大最小值等,可以发现这些数据比较合理,不存在特别的异常值。

print(titanic.describe())

#查看常用的统计量

泰坦尼克号预测python_泰坦尼克号生存预测(python)_第2张图片

2 数据分析\处理

Name和Ticket依据基本认知来看,与乘客是否有机会存活相关不大,因此暂时不理会这两个特征。由于Cabin这一个特征缺失值比较多,参考价值低,因此同样暂时搁置。

2.1 Sex特征处理

Sex分为female和male,但是一些算法模型只能识别数字,所以将他们分别用0和1表示

titanic.Sex = titanic.Sex.replace("male",1)

titanic.Sex= titanic.Sex.replace("female",0)

2.2 Age特征处理

Age这里存在缺失值,有年纪记录的有714行,这里使用age的平均数来进行填充缺失值

titanic.Age = titanic["Age"].fillna(titanic.Age.mean())

2.3 Embarked特征处理

将Embarked的S C Q分别替换为0 1 2

titanic.Embarked = titanic.Embarked.replace("S",0)

titanic.Embarked= titanic.Embarked.replace("C",1)

titanic.Embarked= titanic.Embarked.replace("Q",2)

查看Embarked特征统计量发现,他存在缺失值,这里用众数进行替换缺失值

titanic.Embarked = titanic["Embarked"].fillna(0)

3 特征工程

通过热力图观察各特征与Survived之间的相关性

info = ["Survived","PassengerId","Pclass","Sex","Age","SibSp","Parch","Fare","Embarked"]

sns.heatmap(titanic[info].corr(),annot=True,vmin = 0, vmax = 1)

泰坦尼克号预测python_泰坦尼克号生存预测(python)_第3张图片

根据热力图可以看出Pclass、Sex、Fare、Embarked与Survived相关性比较强,所以将这些特征代入机器学习模型中进行学习

4 模型学习/评估

importnumpy as npfrom sklearn importlinear_modelfrom sklearn.model_selection import cross_val_score

x = titanic[["Pclass","Sex","Age","Fare","Embarked"]]

y = titanic["Survived"]

这里采用交叉检验的方法,最后取平均值来对模型进行评估

4.1 逻辑回归

lm =linear_model.LogisticRegression()

scores= cross_val_score(lm,x,y,cv = 5,scoring = "accuracy")print(np.mean(scores))

20180831175309217697.png

4.2 k近邻

from sklearn importneighbors

knn= neighbors.KNeighborsClassifier(10,weights = "uniform")

scores= cross_val_score(knn,x,y,cv = 5,scoring = "accuracy")print(np.mean(score)

20180831175309457941.png

4.3 决策树

from sklearn importtree

dt=tree.DecisionTreeClassifier()

scores= cross_val_score(dt,x,y,cv = 5,scoring = "accuracy")print(np.mean(scores))

20180831175309916943.png

4.4 随机森林

from sklearn importensemble

rf= ensemble.RandomForestClassifier(50)

scores= cross_val_score(rf,x,y,cv = 5,scoring = "accuracy")print(np.mean(scores))

20180831175310822251.png

4.5 GBDT

gbdt =ensemble.GradientBoostingClassifier()

scores= cross_val_score(gbdt,x,y,cv = 5,scoring = "accuracy")print(np.mean(scores))

20180831175310980460.png

5 总结

经过数据探索、数据处理、常用机器学习模型比较,最后可以发现GBDT在泰坦尼克号生存预测上面表现最好,准确率能达到82%以上。

你可能感兴趣的:(泰坦尼克号预测python)