【Python数据分析 :Task4】

天池龙珠计划Python训练营

系列文章目录

在pandas中有两类非常重要的数据结构,即序列Series和数据框DataFrame。Series类似于numpy中的一维数组,除了通吃一维数组可用的函数或方法,而且其可通过索引标签的方式获取数据,还具有索引的自动对齐功能;DataFrame类似于numpy中的二维数组,同样可以通用numpy数组的函数和方法,


文章目录

  • 天池龙珠计划Python训练营
  • 系列文章目录
  • 前言
  • 一. 数据结构简介:DataFrame和Series
    • 1.1 Series的创建
  • 二. 数据索引index
    • 2.1 通过索引值或索引标签获取数据
    • 2.2 自动化对齐
  • 三. 利用pandas查询数据
    • 1.引入代码
  • 四. 利用pandas的DataFrames进行统计分析
  • 五. 利用pandas实现SQL操作
    • **改:修改原始记录的值**
    • **查:有关数据查询部分,上面已经介绍过**
    • **排序:**
    • 多表连接:
  • 六. 利用pandas进行缺失值的处理
    • 默认情况下,dropna会删除任何含有缺失值的行
  • 七. 利用pandas实现Excel的数据透视表功能
    • 使用多个聚合函数
  • 八. 多层索引的使用


前言

pandas 是基于NumPy 的一种工具,该工具是为了解决数据分析任务而创建的。


一. 数据结构简介:DataFrame和Series

1.1 Series的创建

import numpy as np, pandas as pd

通过一维数组创建序列
arr1 =  np.arange(10)
通过字典的方式创建序列
dic1 = {'a':10,'b':20,'c':30,'d':40,'e':50}
df_series = pd.Series(arr1)

----------------------------------------------------


通过DataFrame中的某一行或某一列创建序列
arr2 = np.array(np.arange(12)).reshape(4,3)
通过字典的方式创建数据框
dic2 = {'a':[1,2,3,4],'b':[5,6,7,8],'c':[9,10,11,12],'d':[13,14,15,16]}
dic3 = {'one':{'a':1,'b':2,'c':3,'d':4},'two':{'a':5,'b':6,'c':7,'d':8},'three':{'a':9,'b':10,'c':11,'d':12}}
通过数据框的方式创建数据框
df4 = df3[['one','three']]
创建DF
df_series  = pd.DataFrame(arr2|dic2|dic3)

二. 数据索引index

2.1 通过索引值或索引标签获取数据

print(s4)可以直接看index的values
s4 = pd.Series(np.array([1,1,2,3,5,8]))
自定义的索引值
s4.index = ['a','b','c','d','e','f']
序列有了索引,就可以通过索引值或索引标签进行数据的获取:
input:						result :
print('s4[3]:',s4[3])				s4[3]:  3
print('s4[e]: ',s4['e'])			s4[e]:  5
		

千万注意:如果通过索引标签获取数据的话,末端标签所对应的值是可以返回的!在一维数组中,就无法通过索引标签获取数据,这也是序列不同于一维数组的一个方面。

2.2 自动化对齐

s5 = pd.Series(np.array([10,15,20,30,55,80]),index = ['a','b','c','d','e','f'])
s6 = pd.Series(np.array([12,11,13,15,14,16]),index = ['a','c','g','b','d','f'])

print(s5 + s6)
print(s5/s6)

由于s5中没有对应的g索引,s6中没有对应的e索引,所以数据的运算会产生两个缺失值NaN。注意,这里的算术结果就实现了两个序列索引的自动对齐,而非简单的将两个序列加总或相除。对于数据框的对齐,不仅仅是行索引的自动对齐,同时也会自动对齐列索引(变量名)

数据框中同样有索引,而且数据框是二维数组的推广,所以其不仅有行索引,而且还存在列索引,关于数据框中的索引相比于序列的应用要强大的多,这部分内容将放在数据查询中讲解。

三. 利用pandas查询数据

这里的查询数据相当于R语言里的subset功能,可以通过布尔索引有针对的选取原数据的子集、指定行、指定列等。我们先导入一个student数据集

1.引入代码

import pandas as pd

stu_dic = {'Age':[14,13,13,14,14,12,12,15,13,12,11,14,12,15,16,12,15,11,15],
'Height':[69,56.5,65.3,62.8,63.5,57.3,59.8,62.5,62.5,59,51.3,64.3,56.3,66.5,72,64.8,67,57.5,66.5],
'Name':['Alfred','Alice','Barbara','Carol','Henry','James','Jane','Janet','Jeffrey','John','Joyce','Judy','Louise','Marry','Philip','Robert','Ronald','Thomas','Willam'],
'Sex':['M','F','F','F','M','M','F','F','M','M','F','F','F','F','M','M','M','M','M'],
'Weight':[112.5,84,98,102.5,102.5,83,84.5,112.5,84,99.5,50.5,90,77,112,150,128,133,85,112]}
student = pd.DataFrame(stu_dic)

查询数据的前5行或末尾5行
student.head()
student.tail()

查询指定的【行】 和 【列】
student.loc[[0,2,4,5,7]]
student[['Name','Height','Weight']].head() #如果多个列的话,必须使用双重中括号

也可以通过loc索引标签查询指定的列
student.loc[:,['Name','Height','Weight']].head()

查询出所有12岁以上的女生信息
student[(student['Sex']=='F') & (student['Age']>12)]

查询出所有12岁以上的女生姓名、身高和体重
student[(student['Sex']=='F') & (student['Age']>12)][['Name','Height','Weight']]

上面的查询逻辑其实非常的简单,需要注意的是,如果是多个条件的查询,必须在&(且)或者|(或)的两端条件用括号括起来。

四. 利用pandas的DataFrames进行统计分析

pandas模块为我们提供了非常多的描述性统计分析的指标函数,如总和、均值、最小值、最大值等,我们来具体看看这些函数: 首先随机生成三组数据

np.random.seed(1234)
d1 = pd.Series(2*np.random.normal(size = 100)+3)
d2 = np.random.f(2,4,size = 100)
d3 = np.random.randint(1,100,size = 100)

print('非空元素计算: ', d1.count()) #非空元素计算
print('最小值: ', d1.min()) #最小值
print('最大值: ', d1.max()) #最大值
print('最小值的位置: ', d1.idxmin()) #最小值的位置,类似于R中的which.min函数
print('最大值的位置: ', d1.idxmax()) #最大值的位置,类似于R中的which.max函数
print('10%分位数: ', d1.quantile(0.1)) #10%分位数
print('求和: ', d1.sum()) #求和
print('均值: ', d1.mean()) #均值
print('中位数: ', d1.median()) #中位数
print('众数: ', d1.mode()) #众数
print('方差: ', d1.var()) #方差
print('标准差: ', d1.std()) #标准差
print('平均绝对偏差: ', d1.mad()) #平均绝对偏差
print('偏度: ', d1.skew()) #偏度
print('峰度: ', d1.kurt()) #峰度
print('描述性统计指标: ', d1.describe()) #一次性输出多个描述性统计指标

必须注意的是,descirbe方法只能针对序列或数据框,一维数组是没有这个方法的

在实际的工作中,我们可能需要处理的是一系列的数值型数据框,如何将这个函数应用到数据框中的每一列呢?可以使用apply函数,这个非常类似于R中的apply的应用方法。 将之前创建的d1,d2,d3数据构建数据框:


df = pd.DataFrame(np.array([d1,d2,d3]).T,columns=['x1','x2','x3'])
df.apply(stats)

非常完美,就这样很简单的创建了数值型数据的统计性描述。如果是离散型数
据呢?就不能用这个统计口径了,我们需要统计离散变量的观测数、唯一值个
数、众数水平及个数。你只需要使用describe方法就可以实现这样的统计了
student['Sex'].describe()

除以上的简单描述性统计之外,还提供了连续变量的相关系数(corr)和协方
差矩阵(cov)的求解,这个跟R语言是一致的用法。
df.corr()
df.corr('spearman')
df.cov()  #数值型变量间的协方差矩阵
如果只想关注某一个变量与其余变量的相关系数的话,可以使用corrwith,如下方只关心x1与其余变量的相关系数
df.corrwith(df['x1'])

五. 利用pandas实现SQL操作

在SQL中常见的操作主要是增、删、改、查几个动作,那么pandas能否实现对数据的这几项操作呢?答案是Of Course!

dic = {'Name':['LiuShunxiang','Zhangshan'],'Sex':['M','F'],'Age':[27,23],'Height':[165.7,167.2],'Weight':[61,63]}
student2 = pd.DataFrame(dic)
Age  Height          Name Sex  Weight
0   27   165.7  LiuShunxiang   M      61
1   23   167.2     Zhangshan   F      63


在将student2中的数据新增到student中,可以通过concat函数实现

student3 = pd.concat([student,student2])
    Age  Height          Name Sex  Weight
0    14    69.0        Alfred   M   112.5
1    13    56.5         Alice   F    84.0
2    13    65.3       Barbara   F    98.0
3    14    62.8         Carol   F   102.5
4    14    63.5         Henry   M   102.5
5    12    57.3         James   M    83.0
6    12    59.8          Jane   F    84.5
7    15    62.5         Janet   F   112.5
8    13    62.5       Jeffrey   M    84.0
9    12    59.0          John   M    99.5
10   11    51.3         Joyce   F    50.5
11   14    64.3          Judy   F    90.0
12   12    56.3        Louise   F    77.0
13   15    66.5         Marry   F   112.0
14   16    72.0        Philip   M   150.0
15   12    64.8        Robert   M   128.0
16   15    67.0        Ronald   M   133.0
17   11    57.5        Thomas   M    85.0
18   15    66.5        Willam   M   112.0
0    27   165.7  LiuShunxiang   M    61.0
1    23   167.2     Zhangshan   F    63.0

注意到了吗?在数据库中union必须要求两张表的列顺序一致,而这里concat函数可以自动对齐两个数据框的变量!新增列的话,其实在pandas中就更简单了

print(pd.DataFrame(student2, columns=['Age','Height','Name','Sex','Weight','Score']))
 Age  Height          Name Sex  Weight  Score
0   27   165.7  LiuShunxiang   M      61    NaN
1   23   167.2     Zhangshan   F      63    NaN

对于新增的列没有赋值,就会出现空NaN的形式。
删:删除表、观测行或变量列
del student2

删除指定的行
student.drop([0,1,3,6])

根据布尔索引删除行数据,其实这个删除就是保留删除条件的反面数据,例如删除所有14岁以下的学生:
student[student['Age']>14]

删除指定的列
student.drop(['Height','Weight'],axis=1).head()
我们发现,不论是删除行还是删除列,都可以通过drop方法实现,只需要设定
好删除的轴即可,即调整drop方法中的axis参数。默认该参数为0,表示删除
行观测,如果需要删除列变量,则需设置为1

改:修改原始记录的值

如果发现表中的某些数据错误了,如何更改原来的值呢?我们试试结合布尔索引和赋值的方法: 例如发现student3中姓名为LiuShunxiang的学生身高错了,应该是173,如何改呢?

student3.loc[student3['Name'] == 'LiuShunxiang','Height']=173
print(student3[student3['Name'] == 'LiuShunxiang'][['Name','Height']])

查:有关数据查询部分,上面已经介绍过

聚合:pandas模块中可以通过groupby()函数实现数据的聚合操作
根据性别分组,计算各组别中学生身高和体重的平均值
print(student.groupby('Sex').mean())
如果不对原始数据作限制的话,聚合函数会自动选择数值型数据进行聚合计算。如果不想对年龄计算平均值的话,就需要剔除改变量:
print(student.drop('Age',axis=1).groupby('Sex').mean())
groupby还可以使用多个分组变量,例如根本年龄和性别分组,计算身高与体重的平均值:
print(student.groupby(['Sex','Age']).mean())

排序:

排序在日常的统计分析中还是比较常见的操作,我们可以使用sort_index和sort_values实现序列和数据框的排序工作

Data = pd.Series(np.array(np.random.randint(1,20,10)))
print(Data)
print(Data.sort_index())
print(Data.sort_values(ascending=False))
print(student.sort_values(by = ['Age','Height']))

多表连接:

多表之间的连接也是非常常见的数据库操作,连接分内连接和外连接,在数据库语言中通过join关键字实现,pandas我比较建议使用merger函数实现数据的各种连接操作。 如下是构造一张学生的成绩表:

dic2 = {'Name':['Alfred','Alice','Barbara','Carol','Henry','Jeffrey','Judy','Philip','Robert','Willam'],
        'Score':[88,76,89,67,79,90,92,86,73,77]}
score = pd.DataFrame(dic2)

print(score)

现在想把学生表student与学生成绩表score做一个关联,该如何操作呢?
stu_score1 = pd.merge(student, score, on='Name')
print(stu_score1)

注意,默认情况下,merge函数实现的是两个表之间的内连接,即返回两张表中共同部分的数据。可以通过how参数设置连接的方式,left为左连接;right为右连接;outer为外连接。

stu_score2 = pd.merge(student, score, on='Name', how='left')
print(stu_score2)
    Age  Height     Name Sex  Weight  Score
0    14    69.0   Alfred   M   112.5   88.0
1    13    56.5    Alice   F    84.0   76.0
2    13    65.3  Barbara   F    98.0   89.0
3    14    62.8    Carol   F   102.5   67.0
4    14    63.5    Henry   M   102.5   79.0
5    12    57.3    James   M    83.0    NaN
6    12    59.8     Jane   F    84.5    NaN
7    15    62.5    Janet   F   112.5    NaN
8    13    62.5  Jeffrey   M    84.0   90.0
9    12    59.0     John   M    99.5    NaN
10   11    51.3    Joyce   F    50.5    NaN
11   14    64.3     Judy   F    90.0   92.0
12   12    56.3   Louise   F    77.0    NaN
13   15    66.5    Marry   F   112.0    NaN
14   16    72.0   Philip   M   150.0   86.0
15   12    64.8   Robert   M   128.0   73.0
16   15    67.0   Ronald   M   133.0    NaN
17   11    57.5   Thomas   M    85.0    NaN
18   15    66.5   Willam   M   112.0   77.0
左连接实现的是保留student表中的所有信息,同时将score表的信息与之配对,能配多少
配多少,对于没有配对上的Name,将会显示成绩为NaN。

六. 利用pandas进行缺失值的处理

现实生活中的数据是非常杂乱的,其中缺失值也是非常常见的,对于缺失值的存在可能会影响到后期的数据分析或挖掘工作,那么我们该如何处理这些缺失值呢?
常用的有三大类方法,即删除法、填补法和插值法。

  • 删除法:当数据中的某个变量大部分值都是缺失值,可以考虑删除改变量;当缺失值是随机分布的,且缺失的数量并不是很多是,也可以删除这些缺失的观测。
  • 替补法:对于连续型变量,如果变量的分布近似或就是正态分布的话,可以用均值替代那些缺失值;如果变量是有偏的,可以使用中位数来代替那些缺失值;对于离散型变量,我们一般用众数去替换那些存在缺失的观测。
  • 插补法:插补法是基于蒙特卡洛模拟法,结合线性模型、广义线性模型、决策树等方法计算出来的预测值替换缺失值。
s = stu_score2['Score']
print(s)
0     88.0
1     76.0
2     89.0
3     67.0
4     79.0
5      NaN
6      NaN
7      NaN
8     90.0
9      NaN
10     NaN
11    92.0
12     NaN
13     NaN
14    86.0
15    73.0
16     NaN
17     NaN
18    77.0
Name: Score, dtype: float64
这是一组含有缺失值的序列,我们可以结合sum函数和isnull函数来检测数据中含有多少缺失值
print(sum(pd.isnull(s))) == 9

直接删除缺失值
print(s.dropna())

默认情况下,dropna会删除任何含有缺失值的行

df = pd.DataFrame([[1,1,2],[3,5,np.nan],[13,21,34],[55,np.nan,10],[np.nan,np.nan,np.nan],[np.nan,1,2]],columns=('x1','x2','x3'))
print(df)
print(df.dropna())

返回结果表明,数据中只要含有缺失值NaN,该数据行就会被删除,如果使用参数
how=’all’,则表明只删除所有行为缺失值的观测;

使用一个常量来填补缺失值,可以使用fillna函数实现简单的填补工作
用0填补所有缺失值 ----df.fillna(0)
采用前项填充或后向填充  
print(df.fillna(method='ffill'))
print(df.fillna(method='bfill'))
使用常量填充不同的列
df.fillna({'x1':1,'x2':2,'x3':3})


x1_median=df['x1'].median()
x2_mean=df['x2'].mean()
x3_mean=df['x3'].mean()

print(x1_median)
print(x2_mean)
print(x3_mean)
print(df.fillna({'x1':x1_median,'x2':x2_mean,'x3':x3_mean}))

很显然,在使用填充法时,相对于常数填充或前项、后项填充,使用各列的众数、均值或中位数填充要更加合理一点,这也是工作中常用的一个快捷手段

七. 利用pandas实现Excel的数据透视表功能

在Excel中有一个非常强大的功能就是数据透视表,通过托拉拽的方式可以迅速的查看数据的聚合情况,这里的聚合可以是计数、求和、均值、标准差等。 pandas为我们提供了非常强大的函数pivot_table(),该函数就是实现数据透视表功能的。对于上面所说的一些聚合函数,可以通过参数aggfunc设定。我们先看看这个函数的语法和参数pivot_table(data,values=None, index=None, columns=None, aggfunc='mean', fill_value=None, margins=False, dropna=True, margins_name='All')

  • data:需要进行数据透视表操作的数据框
  • values:指定需要聚合的字段
  • index:指定某些原始变量作为行索引
  • columns:指定哪些离散的分组变量
  • aggfunc:指定相应的聚合函数
  • fill_value:使用一个常数替代缺失值,默认不替换
  • margins:是否进行行或列的汇总,默认不汇总
  • dropna:默认所有观测为缺失的列
  • margins_name:默认行汇总或列汇总的名称为’All’

我们仍然以student表为例,来认识一下数据透视表pivot_table函数的用法: 对一个分组变量(Sex),一个数值变量(Height)作统计汇总

Table1 = pd.pivot_table(student, values=['Height'], columns=['Sex'])
print(Table1)
Sex             F      M
Height  60.588889  63.91

对一个分组变量(Sex),两个数值变量(Height,Weight)作统计汇总
Table2 = pd.pivot_table(student, values=['Height','Weight'], columns=['Sex'])
print(Table2)
Sex             F       M
Height  60.588889   63.91
Weight  90.111111  108.95

Table3 = pd.pivot_table(student, values=['Height','Weight'], columns=['Sex','Age'])

        Sex  Age
Height  F    11      51.300000
             12      58.050000
             13      60.900000
             14      63.550000
             15      64.500000
        M    11      57.500000
             12      60.366667
             13      62.500000
             14      66.250000
             15      66.750000
             16      72.000000
Weight  F    11      50.500000
             12      80.750000
             13      91.000000
             14      96.250000
             15     112.250000
        M    11      85.000000
             12     103.500000
             13      84.000000
             14     107.500000
             15     122.500000
             16     150.000000
dtype: float64
很显然这样的结果并不像Excel中预期的那样,该如何变成列联表的形式的?很简单,只需
将结果进行非堆叠操作(unstack)即可:

对两个分组变量(Sex,Age),两个数值变量(Height,Weight)作统计汇总
Table4 = pd.pivot_table(student, values=['Height','Weight'], columns=['Sex','Age']).unstack()
print(Table4)

Age           11          12    13      14      15     16
       Sex                                               
Height F    51.3   58.050000  60.9   63.55   64.50    NaN
       M    57.5   60.366667  62.5   66.25   66.75   72.0
Weight F    50.5   80.750000  91.0   96.25  112.25    NaN
       M    85.0  103.500000  84.0  107.50  122.50  150.0

使用多个聚合函数

Table5 = pd.pivot_table(student, values=['Height','Weight'], columns=['Sex'],aggfunc=[np.mean,np.median,np.std])
print(Table5)

             mean         median                std           
Sex             F       M      F       M          F          M
Height  60.588889   63.91   62.5   64.15   5.018328   4.937937
Weight  90.111111  108.95   90.0  107.25  19.383914  22.727186
有关更多数据透视表的操作,可参考《Pandas透视表(pivot_table)详解》一文,链接地址:http://python.jobbole.com/81212/

八. 多层索引的使用

最后我们再来讲讲pandas中的一个重要功能,那就是多层索引。在序列中它可以实现在一个轴上拥有多个索引,就类似于Excel中常见的这种形式:

【Python数据分析 :Task4】_第1张图片
对于这样的数据格式有什么好处呢?pandas可以帮我们实现用低维度形式处理高维数数据,这里举个例子也许你就能明白了:

# Series的层次化索引,索引是一个二维数组,相当于两个索引决定一个值
# 有点类似于DataFrame的行索引和列索引
s = pd.Series(np.arange(1,10),index=[["a","a","a","b","b","c","c","d","d"],[1,2,3,1,2,3,1,2,3]])
print(s)
print(s.index)

#选取外层索引为a的数据
print(s['a'])
#选取外层索引为a和内层索引为1的数据
print(s['a',1])
#选取外层索引为a和内层索引为1,3的数据
print(s['a'][[1,3]])
#层次化索引的切片,包括右端的索引
print(s[['a','c']])
print(s['b':'d'])
#通过unstack方法可以将Series变成一个DataFrame
#数据的类型以及数据的输出结构都变成了DataFrame,对于不存在的位置使用NaN填充
print(s.unstack())



DataFrame的层次化索引
data = pd.DataFrame(np.random.randint(0,150,size=(8,12)),
               columns = pd.MultiIndex.from_product([['模拟考','正式考'],
                                                   ['数学','语文','英语','物理','化学','生物']]),
               index = pd.MultiIndex.from_product([['期中','期末'],
                                                   ['雷军','李斌'],
                                                  ['测试一','测试二']]))

data['模拟考'][['语文','数学']]
print(data.loc['期中','雷军','测试一']['模拟考','数学'])

转发学习-pandas ---------------------------- url
和阿里天池

你可能感兴趣的:(Python基础,python,数据分析,pandas)