task02 数据清洗及特征处理

【回顾&引言】前面一章的内容大家可以感觉到我们主要是对基础知识做一个梳理,让大家了解数据分析的一些操作,主要做了数据的各个角度的观察。那么在这里,我们主要是做数据分析的流程性学习,主要是包括了数据清洗以及数据的特征处理,数据重构以及数据可视化。这些内容是为数据分析最后的建模和模型评价做一个铺垫。

开始之前,导入numpy、pandas包和数据

import numpy as np

import pandas as pd

df = pd.read_csv('train.csv')

df.head(3)

第二章:第一节数据清洗及特征处理

我们拿到的数据通常是不干净的,所谓的不干净,就是数据中有缺失值,有一些异常点等,需要经过一定的处理才能继续做后面的分析或建模,所以拿到数据的第一步是进行数据清洗,本章我们将学习缺失值、重复值、字符串和数据转换等操作,将数据清洗成可以分析或建模的亚子。

2.1 缺失值观察与处理

我们拿到的数据经常会有很多缺失值,比如我们可以看到Cabin列存在NaN,那其他列还有没有缺失值,这些缺失值要怎么处理呢

2.1.1 任务一:缺失值观察

(1) 请查看每个特征缺失值个数

(2) 请查看Age, Cabin, Embarked列的数据 以上方式都有多种方式,所以大家多多益善

df.info()

df.isnull().sum()

df[['Age','Cabin','Embarked']].head(3)

2.1.2 任务二:对缺失值进行处理

(1)处理缺失值一般有几种思路

(2) 请尝试对Age列的数据的缺失值进行处理

(3) 请尝试使用不同的方法直接对整张表的缺失值进行处理

df[df['Age']==None] =0

df[df['Age'].isnull()]=0

df[df['Age']==np.nan].head(3)

df.dropna(axis=0,how='any')

df.fillna(0)

【思考1】dropna和fillna有哪些参数,分别如何使用呢? 

DataFrame.dropna(self, axis=0, how='any', thresh=None, subset=None, inplace=False)

1、axis =0:删除所在行 axis =1或者columns:删除所在列

2、how=any:删除任一个行/列 how=all:当所有行/列为NA时才删除

3、提高删除NA的阈值。参数thresh=2,表示行/列中的NA数量大于2才删除

4、参数subset设置待判断的列/行名,这些列/行中有NA值则所在行/列被删除

5、将处理后的df替换原本的df。参数inplace=True

DataFrame.fillna(self, value=None, method=None, axis=None, inplace=False, limit=None, downcast=None, **kwargs)

1、设定每列NA的填充值。value为字典格式

2、用前向值/后向值填充NA。method='fillna'表示NA被前一个值填充

3、设定每列/行的填充数。limit=1表示每列/行仅仅填充1个NA

4、参数axis和inplace与dropna相同

【参考】https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.DataFrame.dropna.html

【参考】https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.DataFrame.fillna.html

【思考】检索空缺值用np.nan,None以及.isnull()哪个更好,这是为什么?如果其中某个方式无法找到缺失值,原因又是为什么?

2.2 重复值观察与处理

由于这样那样的原因,数据中会不会存在重复值呢,如果存在要怎样处理呢

2.2.1 任务一:请查看数据中的重复值

df[df.duplicated()]

2.2.2 任务二:对重复值进行处理

(1)重复值有哪些处理方式呢?

(2)处理我们数据的重复值

df.drop_duplicates()

df.head()

2.2.3 任务三:将前面清洗的数据保存为csv格式

df.to_csv('test_train_csv')

2.3 特征观察与处理

我们对特征进行一下观察,可以把特征大概分为两大类:

数值型特征:Survived ,Pclass, Age ,SibSp, Parch, Fare,其中Survived, Pclass为离散型数值特征,Age,SibSp, Parch, Fare为连续型数值特征

文本型特征:Name, Sex, Cabin,Embarked, Ticket,其中Sex, Cabin, Embarked, Ticket为类别型文本特征,数值型特征一般可以直接用于模型的训练,但有时候为了模型的稳定性及鲁棒性会对连续变量进行离散化。文本型特征往往需要转换成数值型特征才能用于建模分析。

2.3.1 任务一:对年龄进行分箱(离散化)处理

(1) 分箱操作是什么?

简单点说就是将不同的东西,按照特定的条件放到一个指定容器里,比如水果 把绿色的放一个篮子里,红色一个篮子等等,这个篮子就是箱,而水果就是数据 颜色就是条件

(2) 将连续变量Age平均分箱成5个年龄段,并分别用类别变量12345表示 

pandas.cut(x, bins, right=True, labels=None, retbins=False, precision=3, include_lowest=False)

参数: x,类array对象,且必须为一维,待切割的原形式

bins, 整数、序列尺度、或间隔索引。如果bins是一个整数,它定义了x宽度范围内的等宽面元数量,但是在这种情况下,x的范围在每个边上被延长1%,以保证包括x的最小值或最大值。如果bin是序列,它定义了允许非均匀in宽度的bin边缘。在这种情况下没有x的范围的扩展。

right,布尔值。是否是左开右闭区间

labels,用作结果箱的标签。必须与结果箱相同长度。如果FALSE,只返回整数指标面元。

retbins,布尔值。是否返回面元

precision,整数。返回面元的小数点几位

include_lowest,布尔值。第一个区间的左端点是否包含 

df['AgeBand'] = pd.cut(df['Age'],5,labels=[1,2,3,4,5])                                             df.head()

(3) 将连续变量Age划分为[0,5) [5,15) [15,30) [30,50) [50,80)五个年龄段,并分别用类别变量12345表示 

df['AgeBand1'] = pd.cut(df['Age'],5,right = False,labels =[1,2,3,4,5],include_lowest=True) df.head()


(4) 将连续变量Age按10% 30% 50% 70% 90%五个年龄段,并用分类变量12345表示

df['AgeBand1'] = pd.cut(df['Age'],5,right = False,labels =[1,2,3,4,5],include_lowest=True) df.head()

(5) 将上面的获得的数据分别进行保存,保存为csv格式

【参考】https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.cut.html

【参考】https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.qcut.html

2.3.2 任务二:对文本变量进行转换

(1) 查看文本变量名及种类

#方法一: value_counts df['Sex'].value_counts()

#方法二: unique df['Sex'].unique()


df['Sex'].nunique()

(2) 将文本变量Sex, Cabin ,Embarked用数值变量12345表示

df['Sex_num'] = df['Sex'].replace(['male','female'],[1,2])                                       df.head()

#方法二: map df['Sex_num'] = df['Sex'].map({'male': 1, 'female': 2})                  df.head()

#方法三: 使用sklearn.preprocessing的LabelEncoder      不怎么理解,需进一步了解                                                from sklearn.preprocessing import LabelEncoder                                                             for feat in ['Cabin', 'Ticket']:                                                                                                        lbl = LabelEncoder()                                                                                                      label_dict = dict(zip(df[feat].unique(), range(df[feat].nunique())))                            df[feat + "_labelEncode"] = df[feat].map(label_dict)                                                           df[feat + "_labelEncode"] = lbl.fit_transform(df[feat].astype(str))                           df.head()


(3) 将文本变量Sex, Cabin, Embarked用one-hot编码表示

#将类别文本转换为one-hot编码  不怎么理解,需进一步了解                                                

#方法一: OneHotEncoder 

for feat in ["Age", "Embarked"]: 

   # x = pd.get_dummies(df["Age"] // 6) 

   # x = pd.get_dummies(pd.cut(df['Age'],5)) 

   x = pd.get_dummies(df[feat], prefix=feat) 

   df = pd.concat([df, x], axis=1) 

   #df[feat] = pd.get_dummies(df[feat], prefix=feat) 

df.head()



2.3.3 任务三:从纯文本Name特征里提取出Titles的特征(所谓的Titles就是Mr,Miss,Mrs等)

df['Title'] = df.Name.str.extract('([A-Za-z]+)\.', expand=False)                              df.head()


#保存最终你完成的已经清理好的数据                                              df.to_csv('test_fin.csv')

你可能感兴趣的:(task02 数据清洗及特征处理)