Task03:数据重构

数据重构

1.数据合并

导入numpy、pandas包和数据

import numpy as np

import pandas as pd

text = pd.read_csv('C:/Users/Administrator/Desktop/d/第二章项目集合/data/train-left-up.csv')

text.head()

载入data文件夹里面的所有数据,与原始数据相比,观察之间的关系

text_left_up = pd.read_csv("data/train-left-up.csv")

text_left_down = pd.read_csv("data/train-left-down.csv")

text_right_up = pd.read_csv("data/train-right-up.csv")

text_right_down = pd.read_csv("data/train-right-down.csv")

观察这些数据

text_left_up.head()

text_left_down.head()

text_right_down.head()

text_right_up.head()

结合之前加载的train.csv数据,大致预测一下上面的数据

把train.csv数据切分成了四个部分,左上左下右上右下

使用concat方法-将数据train-left-up.csv和train-right-up.csv横向合并为一张表

保存这张表为result_up

list_up = [text_left_up,text_right_up]

result_up = pd.concat(list_up,axis=1)

result_up.head()

使用concat方法-将数据train-left-down和train-right-down横向合并为一张表

保存这张表为result_down

将result_up和result_down纵向合并为result

list_down=[text_left_down,text_right_down]

result_down = pd.concat(list_down,axis=1)

result = pd.concat([result_up,result_down])

result.head()

使用DataFrame自带的方法join方法和append完成合并

resul_up = text_left_up.join(text_right_up)

result_down = text_left_down.join(text_right_down)

result = result_up.append(result_down)

result.head()

使用Panads的merge方法和DataFrame的append方法完成合并

result_up = pd.merge(text_left_up,text_right_up,left_index=True,right_index=True)

result_down = pd.merge(text_left_down,text_right_down,left_index=True,right_index=True)

result = resul_up.append(result_down)

result.head()

对比merge、join以及concat的方法的不同以及相同

merge()函数

将DataFrame与其他数据以内部联接inner,外部联接outer,左联接left,右联接right进行合并。

以索引或共同列进行拼接。

如果使用共同列进行拼接,则索引将被忽略。

如果按索引进行合并,则索引将被合并为一个唯一索引。

join()函数:

用于横向连接两个或更多个DataFrames。

后台调用用的是merge,默认为按索引连接。

按照索引或共同列进行拼接。

默认为左连接,可以像merge一样指定参数为右连接,内连接和外连接。

concat()函数:

连接两个或更多DataFrame和Series。

缺省为垂直,通过指定axis参数可以实现横向连接。

默认为外连接outer,可以通过join='inner'进行内连接操作。

DataFrame的append方法实现纵向合并。只使用merge或者join不可以完成任务。

2.换种角度看数据

将数据变为Series类型的数据

text = pd.read_csv('result.csv')

unit_result=text.stack().head(20)

unit_result.head()

Stack函数

在用pandas进行数据重排时,经常用到stack和unstack两个函数。stack的意思是堆叠,堆积,unstack即“不要堆叠”。

常见的数据的层次化结构有两种,一种是表格,一种是“花括号”,表格在行列方向上均有索引(类似于DataFrame),花括号结构只有“列方向”上的索引(类似于层次化的Series),结构更加偏向于堆叠(Series-stack,方便记忆)。

stack函数会将数据从”表格结构“变成”花括号结构“,即将其行索引变成列索引,反之,unstack函数将数据从”花括号结构“变成”表格结构“,即要将其中一层的列索引变成行索引。

保存为unit_result.csv

unit_result.to_csv('unit_result.csv')

test = pd.read_csv('unit_result.csv')

test.head()

3.数据运用

导入numpy、pandas包和数据

import numpy as np

import pandas as pd

text = pd.read_csv('result.csv')

text.head()

计算泰坦尼克号男性与女性的平均票价

df = text['Fare'].groupby(text['Sex'])

means = df.mean()

means

统计泰坦尼克号中男女的存活人数

survived_sex = text['Survived'].groupby(text['Sex']).sum()

survived_sex.head()

计算客舱不同等级的存活人数

survived_pclass = text['Survived'].groupby(text['Pclass'])

survived_pclass.sum()

从数据分析的角度,总结上面的统计结果

女性比男性的平均票价更高,女性存活的机会更大,客舱的等级高和低的客人存活的机会大。

通过agg()函数来同时计算,使用rename函数修改列名

text.groupby('Sex').agg({'Fare': 'mean', 'Pclass': 'count'}).rename(columns=

                            {'Fare': 'mean_fare', 'Pclass': 'count_pclass'})

统计在不同等级的票中的不同年龄的船票花费的平均值

text.groupby(['Pclass','Age'])['Fare'].mean().head()

合并任务二和任务三的数据,并保存到sex_fare_survived.csv

result = pd.merge(means,survived_sex,on='Sex')

result.to_csv('sex_fare_survived.csv')

得出不同年龄的总的存活人数

survived_age = text['Survived'].groupby(text['Age']).sum()

survived_age.head()

找出存活人数的最高的年龄

survived_age[survived_age.values==survived_age.max()]

计算总人数

_sum = text['Survived'].sum()

print(_sum)

计算最大存活率

precetn =survived_age.max()/_sum

print("最大存活率:"+str(precetn))


DataWhale开源学习资料:

https://github.com/datawhalechina/hands-on-data-analysis

你可能感兴趣的:(Task03:数据重构)