1 数据探索
对数据进行一个整体的理解
1.1 查看数据都有一些什么特征
importpandas as pdimportseaborn as sns%matplotlib inline
titanic= pd.read_csv(‘G:\\titanic\\train.csv‘)titanic.sample(10)
获取数据的10行记录进行观察,初步了解数据的组成,可以看到Age、Cabin里面是存在缺失值的,在进一步理解数据的统计量后再进行数据处理,观察各特征的最大最小值等,可以发现这些数据比较合理,不存在特别的异常值。
print(titanic.describe())
#查看常用的统计量
2 数据分析\处理
Name和Ticket依据基本认知来看,与乘客是否有机会存活相关不大,因此暂时不理会这两个特征。由于Cabin这一个特征缺失值比较多,参考价值低,因此同样暂时搁置。
2.1 Sex特征处理
Sex分为female和male,但是一些算法模型只能识别数字,所以将他们分别用0和1表示
titanic.Sex = titanic.Sex.replace("male",1)
titanic.Sex= titanic.Sex.replace("female",0)
2.2 Age特征处理
Age这里存在缺失值,有年纪记录的有714行,这里使用age的平均数来进行填充缺失值
titanic.Age = titanic["Age"].fillna(titanic.Age.mean())
2.3 Embarked特征处理
将Embarked的S C Q分别替换为0 1 2
titanic.Embarked = titanic.Embarked.replace("S",0)
titanic.Embarked= titanic.Embarked.replace("C",1)
titanic.Embarked= titanic.Embarked.replace("Q",2)
查看Embarked特征统计量发现,他存在缺失值,这里用众数进行替换缺失值
titanic.Embarked = titanic["Embarked"].fillna(0)
3 特征工程
通过热力图观察各特征与Survived之间的相关性
info = ["Survived","PassengerId","Pclass","Sex","Age","SibSp","Parch","Fare","Embarked"]
sns.heatmap(titanic[info].corr(),annot=True,vmin = 0, vmax = 1)
根据热力图可以看出Pclass、Sex、Fare、Embarked与Survived相关性比较强,所以将这些特征代入机器学习模型中进行学习
4 模型学习/评估
importnumpy as npfrom sklearn importlinear_modelfrom sklearn.model_selection import cross_val_score
x = titanic[["Pclass","Sex","Age","Fare","Embarked"]]
y = titanic["Survived"]
这里采用交叉检验的方法,最后取平均值来对模型进行评估
4.1 逻辑回归
lm =linear_model.LogisticRegression()
scores= cross_val_score(lm,x,y,cv = 5,scoring = "accuracy")print(np.mean(scores))
4.2 k近邻
from sklearn importneighbors
knn= neighbors.KNeighborsClassifier(10,weights = "uniform")
scores= cross_val_score(knn,x,y,cv = 5,scoring = "accuracy")print(np.mean(score)
4.3 决策树
from sklearn importtree
dt=tree.DecisionTreeClassifier()
scores= cross_val_score(dt,x,y,cv = 5,scoring = "accuracy")print(np.mean(scores))
4.4 随机森林
from sklearn importensemble
rf= ensemble.RandomForestClassifier(50)
scores= cross_val_score(rf,x,y,cv = 5,scoring = "accuracy")print(np.mean(scores))
4.5 GBDT
gbdt =ensemble.GradientBoostingClassifier()
scores= cross_val_score(gbdt,x,y,cv = 5,scoring = "accuracy")print(np.mean(scores))
5 总结
经过数据探索、数据处理、常用机器学习模型比较,最后可以发现GBDT在泰坦尼克号生存预测上面表现最好,准确率能达到82%以上。