机器学习入门实战---预测泰坦尼克号上的生存者并熟悉机器学习的基础知识

背景知识:

泰坦尼克号1912年4月从英国南安普顿出发,途径法国,爱尔兰在美国大西洋碰触冰山沉没,一部分人幸免于难,一部分人没有生存,这个案例中就是要通过机器学习的算法来预测一下test.csv中418人的生存状况。案例详细内容可以访问网站:https://www.kaggle.com/c/titanic。通过这个案例你可以大致掌握一个机器学习的基本步骤,本文最后附上案例的源码。

一、提出问题

首先我们从kaggle上下载了泰坦尼克号案例的train.csv和test.csv两个数据,这里我为大家已经下好,大家可以在百度网盘里下载,地址:链接:https://pan.baidu.com/s/1RV-U... 密码:zlkj。

二、理解数据

首先导入数据,可以看到训练数据集train.csv中有891行,12列数据,而测试数据集中有418行,11列数据;缺少的这一列数据正是我们要预测的生存状况数据。

import numpy as np
import pandas as pd
#导入训练集
train = pd.read_csv('train.csv')
#导入测试集
test = pd.read_csv('test.csv')
#查看测试数据集合训练数据集的形状
# print("训练数据集:",train.shape)
# print("测试数据集:",test.shape)
full = train.append(test,ignore_index=True)
# print("合并后的数据集:",full.shape)
# print(full.head(10))

通过实验结果我们可以知道,每一名乘客都对应着一个12维数据,其含义是:

   1.Age:乘客年龄      
   2.Cabin:乘客船舱座位号
   3.Embarked:乘客登船的港口,有三个可选值:S:南安普顿,C:法国瑟堡 Q:爱尔兰昆士敦
   4.Fare:船票费用
   5.Name:乘客姓名
   6.parch:乘客的父母与子女数量
   7.PassengerId:乘客ID
   8.Pclass:乘客所在的船舱等级,1;一等,2;二等;3:三等
   9.sex:乘客性别
   10.SibSp:乘客的兄弟姐妹以及配偶数量
   11.Survived:乘客是否存活标志;1:活着的  0:死亡
   12.Ticket:票的编号

总数据有1309行,Age、Cabin、Embarked、Fare这四列数据中有缺失的情况,接下来的第三步就是要清洗数据,填补缺失值。

三、清洗数据

首先处理一下缺失的数据,如果缺失的数据是数字类型的,可以用平均数代替,如果是字符串类型的,可以用出现最多的数(众数)来替代。

# 填充年龄缺失值
full.Age = full.Age.fillna(full.Age.mean())
# 填充船票价格缺失值
full.Fare = full.Fare.fillna(full.Fare.mean())
# #填充登船的港口,因为最多的为s,故将所有的缺失值填充为S
full.Embarked = full.Embarked.fillna('S')
# 由于船票号这一栏缺失值过多,故将其填充为U
full.Cabin = full.Cabin.fillna('U')

在做好这一步之后,数据还需要对一些列的字符串数据类型进行编码,比如Sex性别的分类数据,需要进行one-hot编码,方便机器学习识别。这里需要对性别、港口和姓名、船舱等级这些分类数据,进行重新编码。应用map函数可以对一列数据做同一个操作:

sexDict = {'male':1,'female':0}
sex = full.Sex.map(sexDict)
print(sex.head())

登船的港口有三个,分别是英国南安普顿、法国瑟堡、爱尔兰昆士敦,分别用首字母S、C、Q表示。

embarked = pd.DataFrame()
embarked = pd.get_dummies(full.Embarked,prefix="Embarked")
print(embarked.head())
#对船舱等级采取同样的方法
pclass = pd.DataFrame()
pclass = pd.get_dummies(full.Pclass,prefix="Pclass")
print(pclass.head())
 

接下来我们看一下名字这一列的数据字符串格式:名,头衔,姓,我们需要从名字里面获取头衔来判定是否对生存情况的影响。通过定义一个函数:
第一步获取name1剔除名字中逗号前面的名,
第二步剔除名字中冒号后面的姓,
第三步用strip函数剔除字符串头尾指定的字符(默认为空格)然后返回中间的头衔。
第四步应用函数,用一个表格型数据Df存放提取后的头衔,
第五步讲姓名中的头衔字符串与定义头衔类别的映射关系,再把头衔进行one-hot编码,

定义一个函数获取每一个姓名列中的头衔

def title1(name):
    name1 = name.split(',')[1]
    name2 = name1.split('.')[0]
    #使用strip函数提出姓名列的头尾,获得头衔
    name3 = name2.strip()
    return name3
titleDf = pd.DataFrame()
titleDf['Title'] = full.Name.map(title1)
titleDict = {
    'Capt':'officer',
    'Col':'officer',
    'Major':'officer',
    'Dr':'officer',
    'Rev':'officer',
    'Jonkheer':'Royalty',
    'Don':'Royalty',
    'Sir':'Royalty',
    'the Countess':'Royalty',
    'Dona':'Royalty',
    'Lady':'Royalty',
    'Mlle':'Miss',
    'Miss':'Miss',
    'Mr':'Mr',
    'Mme':'Mrs',
    'Ms':'Mrs',
    'Mrs':'Mrs',
    'Master':'Master'
}
titleDf['Title'] = titleDf['Title'].map(titleDict)
titleDf = pd.get_dummies(titleDf['Title'])
print(titleDf.head())

接着从座位号提取坐席类别,用seat存放客舱号的信息坐席类别就是座位号的首字母,比如C85,类别映射为首字母C,用U代表不知道的数据。使用lambda匿名函数提取Cabin中的首字母:

seat = pd.DataFrame()
seat['seat'] = full['Cabin']
seat.seat = seat.seat.map(lambda  a:a[0])
#使用one-hot编码
seat = pd.get_dummies(seat.seat,prefix="Cabin")
#print(seat.head())

对船上每一个乘客的家庭成员数量进行一个统计。分别将原始数据中的SibSp列和Parch中的数据相加,再加上被统计者自身。

#对船上每一个乘客的家庭成员数量进行一个统计
family = pd.DataFrame()
family['family'] = full.SibSp + full.Parch + 1
#print(family.head())

最后就是将原始数据复制一份,删除我们刚刚对其中重新编码的列(Cabin、Name、Sex、Pclass、Embarked、Parch、SibSp;还有票的编号Ticket这一列没有关系的数据。
最后合并的列包括了刚刚处理产生的新列名比如:da、family、seat、titleDf、pclass、embarked、sex。我们发现新的数据da有1309行,27列。

最后就是将原始数据复制一份,

删除我们刚刚对其中重新编码的列(Cabin、Name、Sex、Pclass、Embarked、Parch、SibSp; 还有票的编号Ticket这一列没有关系的数据.最后合并的列包括了刚刚处理产生的新列名比如:da、family、seat、titleDf、pclass、embarked、sex.我们发现新的数据da有1309行,27列

da = train.append(test,ignore_index=True)
#采取同样的方式填充缺失值
da.Age = da.Age.fillna(da.Age.mean())
da.Fare = da.Fare.fillna(da.Fare.mean())
da.Embarked = da.Embarked.fillna('S')
da.Cabin = da.Cabin.fillna('U')
#提出不需要的列
da = da.drop(['Name','Pclass','Cabin','Parch','Embarked','SibSp','Ticket','Sex'],axis=1)
#合并修改后的列
da = pd.concat([titleDf,seat,family,pclass,embarked,da,sex],axis=1)
#print(da.shape)
#print(da.head())

四、模型建立与评估

第一步:用数据框corr()得到相关系数矩阵,

第二步:讲相关系数矩阵的生存情况的列提取出来,分别按照降序排列和升序排列

#使用数据框corr获取相关系数矩阵,将相关系数提取出来,按照升序和降序排列
corrDf = da.corr()
#print(corrDf['Survived'].sort_values(ascending=False))
#print(corrDf['Survived'].sort_values(ascending=True))

我们发现相关系数大于0的列中:头衔、客舱等级、船票价格、船舱号都与生存状况呈现正线性关系在相关系数小于0的列中:头衔、性别、客舱等级、客舱号与生存情况呈现负线性相关。这些特征其实与我们在数据清洗过程中处理的列非常相关,这里我们直接采用上一步最后形成的新数据da

第三步:我们在原始训练数据中有891行,选取特征和标签,然后对这个数据进行拆分训练集和测试集,

#将原始数据集拆分为训练集合评估集
sourceRow = 891
source_X  = da.loc[0:sourceRow-1,:]
source_X = source_X.drop(['Survived'],axis  =1)
source_y  =da.loc[0:sourceRow-1,'Survived']

#拆分训练集和测试集
train_X,test_X,train_y,test_y = train_test_split(source_X,source_y,train_size=0.8)

#输出数据集大小
# print('原始数据集特征:',source_X.shape)
# print('训练集特征:',train_X.shape)
# print('测试集特征:',test_X.shape)
# print('原始数据集标签:',source_y.shape)
# print('训练数据集标签:',train_y.shape)
# print('测试数据集标签:',test_y.shape)

第四步是导入算法,训练模型:

导入训练数据的特征train_X712条,包括性别,头衔等,导入标签train_y712条生存状况,得到正确率0.87:

#使用逻辑回归模型
model = LogisticRegression()
#使用数据,训练模型
model.fit(train_X,train_y)
# print(model.fit(train_X,train_y))
# print(model.score(test_X,test_y))

第五步:方案实施

用机器学习模型,对预测数据集中的生存情况进行预测,这里用乘客的ID,数据框Df保存预测情况的值。

#方案实施,对预测数据集中的数据进行预测
predict_X = da.loc[sourceRow:,:]
predict_X = da.drop(['Survived'],axis=1)
pred_Y = model.predict(predict_X)
pred_Y = pred_Y.astype(int)  
#乘客ID
passenger_id = da.loc[sourceRow,'PassengerId']
predDf = pd.DataFrame({'PassengerId':passenger_id,'Survived':pred_Y})
print(predDf.shape)
print(predDf)
  

最后附上源码:链接:https://pan.baidu.com/s/1cb60... 密码:y12u。
有兴趣的可以在阅读本文点赞,欢迎评论哦!

你可能感兴趣的:(python,laravel,缓存,github)