当大家谈论到数据分析时,提及最多的语言就是Python和SQL,而Python之所以适合做数据分析,就是因为他有很多强大的第三方库来协助,pandas就是其中之一,它是基于Numpy构建的,正因pandas的出现,让Python语言也成为使用最广泛而且强大的数据分析环境之一。如果说没有pandas的出现,目前的金融数据分析领域还应该是R语言的天下。
Pandas的主要功能:
以上就是pandas能完成的一些基础操作,当然并不完全,下面就来看看pandas到底是怎么用的。
安装方法:
pip install pandas
引用方法:
import pandas as pd
Series是一种类似于一维数组的对象,由一组数据和一组与之相关的数据标签(索引)组成。在数据分析的过程中非常常用。
第一种:
pd.Series([4,5,6,7,8])
执行结果:
0 4
1 5
2 6
3 7
4 8
dtype: int64
# 将数组索引以及数组的值打印出来,索引在左,值在右,由于没有为数据指定索引,于是会自动创建一个0到N-1(N为数据的长度)的整数型索引,取值的时候可以通过索引取值,跟之前学过的数组和列表一样
-----------------------------------------------
第二种:
pd.Series([4,5,6,7,8],index=['a','b','c','d','e'])
执行结果:
a 4
b 5
c 6
d 7
e 8
dtype: int64
# 自定义索引,index是一个索引列表,里面包含的是字符串,依然可以通过默认索引取值。
-----------------------------------------------
第三种:
pd.Series({"a":1,"b":2})
执行结果:
a 1
b 2
dtype: int64
# 指定索引
-----------------------------------------------
第四种:
pd.Series(0,index=['a','b','c'])
执行结果:
a 0
b 0
c 0
dtype: int64
# 创建一个值都是0的数组
-----------------------------------------------
对于Series,其实我们可以认为它是一个长度固定且有序的字典,因为它的索引和数据是按位置进行匹配的,像我们会使用字典的上下文,就肯定也会使用Series
# 第一步,创建一个字典,通过Series方式创建一个Series对象
st = {"sean":18,"yang":19,"bella":20,"cloud":21}
obj = pd.Series(st)
obj
运行结果:
sean 18
yang 19
bella 20
cloud 21
dtype: int64
------------------------------------------
# 第二步
a = {'sean','yang','cloud','rocky'} # 定义一个索引变量
------------------------------------------
#第三步
obj1 = pd.Series(st,index=a)
obj1 # 将第二步定义的a变量作为索引传入
# 运行结果:
rocky NaN
cloud 21.0
sean 18.0
yang 19.0
dtype: float64
# 因为rocky没有出现在st的键中,所以返回的是缺失值
通过上面的代码演示,对于缺失值已经有了一个简单的了解,接下来就来看看如何判断缺失值
1、
obj1.isnull() # 是缺失值返回Ture
运行结果:
rocky True
cloud False
sean False
yang False
dtype: bool
2、
obj1.notnull() # 不是缺失值返回Ture
运行结果:
rocky False
cloud True
sean True
yang True
dtype: bool
3、过滤缺失值 # 布尔型索引
obj1[obj1.notnull()]
运行结果:
cloud 21.0
yang 19.0
sean 18.0
dtype: float64
import numpy as np
import pandas as pd
arr = np.arange(10)
sr = pd.Series(arr) # ndarray创建Series
srx = sr * 2 # 与标量(数字)进行运算
sr * srx # 两个Series运算
sr[sr>3] # 布尔值过滤
# 统计函数
sr.mean()
sr.sum()
sr.cumsum()
dic = {"A":1,"B":2,"C":3,"D":4,"E":5}
# 字典创建Series
dic_arr = pd.Series(dic)
"A" in dic_arr
------------------------------
for i in dic_arr:
print(i)
dic_arr[['A','B']] # 键索引
dic_arr['A':'C'] # 键切片
dic_arr.get("A",default=0)
pandas当中的整数索引对象可能会让初次接触它的人很懵逼,接下来通过代码演示:
sr = pd.Series(np.arange(10))
sr1 = sr[3:].copy()
sr1
运行结果:
3 3
4 4
5 5
6 6
7 7
8 8
9 9
dtype: int32
# 到这里会发现很正常,一点问题都没有,可是当使用整数索引取值的时候就会出现问题了。因为在pandas当中使用整数索引取值是优先以标签解释的,而不是下标
sr1[1]
解决方法:
sr1.iloc[1] # 以下标解释
sr1.loc[3] # 以标签解释
pandas在运算时,会按索引进行对齐然后计算。如果存在不同的索引,则结果的索引是两个操作数索引的并集。
sr1 = pd.Series([12,23,34], index=['c','a','d'])
sr2 = pd.Series([11,20,10], index=['d','c','a',])
sr1 + sr2
运行结果:
a 33
c 32
d 45
dtype: int64
# 可以通过这种索引对齐直接将两个Series对象进行运算
sr3 = pd.Series([11,20,10,14], index=['d','c','a','b'])
sr1 + sr3
运行结果:
a 33.0
b NaN
c 32.0
d 45.0
dtype: float64
# sr1 和 sr3的索引不一致,所以最终的运行会发现b索引对应的值无法运算,就返回了NaN,一个缺失值
将两个Series对象相加时将缺失值设为0:
sr1 = pd.Series([12,23,34], index=['c','a','d'])
sr3 = pd.Series([11,20,10,14], index=['d','c','a','b'])
sr1.add(sr3,fill_value=0)
运行结果:
a 33.0
b 14.0
c 32.0
d 45.0
dtype: float64
# 将缺失值设为0,所以最后算出来b索引对应的结果为14
灵活的算术方法:add,sub,div,mul
到这里可能就会说了pandas就这么简单吗,那我们接下来一起看看这个二维数组DataFraeme
DataFrame是一个表格型的数据结构,相当于是一个二维数组,含有一组有序的列。他可以被看做是由Series组成的字典,并且共用一个索引。接下来就一起来见识见识DataFrame数组的厉害吧!!!
创建一个DataFrame数组可以有多种方式,其中最为常用的方式就是利用包含等长度列表或Numpy数组的字典来形成DataFrame:
第一种:
pd.DataFrame({'one':[1,2,3,4],'two':[4,3,2,1]})
# 产生的DataFrame会自动为Series分配所索引,并且列会按照排序的顺序排列
运行结果:
one two
0 1 4
1 2 3
2 3 2
3 4 1
> 指定列
可以通过columns参数指定顺序排列
data = pd.DataFrame({'one':[1,2,3,4],'two':[4,3,2,1]})
pd.DataFrame(data,columns=['one','two'])
# 打印结果会按照columns参数指定顺序
第二种:
pd.DataFrame({'one':pd.Series([1,2,3],index=['a','b','c']),'two':pd.Series([1,2,3],index=['b','a','c'])})
运行结果:
one two
a 1 2
b 2 1
c 3 3
以上创建方法简单了解就可以,因为在实际应用当中更多是读数据,不需要自己手动创建
常用属性和方法:
one two
a 1 2
b 2 1
c 3 3
# 这样一个数组df
---------------------------------------------------------------------------
df.index
> Index(['a', 'b', 'c'], dtype='object')
---------------------------------------------------------------------------
df.columns
> Index(['one', 'two'], dtype='object')
--------------------------------------------------------------------------
df.T
> a b c
one 1 2 3
two 2 1 3
-------------------------------------------------------------------------
df.values
> array([[1, 2],
[2, 1],
[3, 3]], dtype=int64)
------------------------------------------------------------------------
df.describe()
> one two
count 3.0 3.0 # 数据统计
mean 2.0 2.0 # 平均值
std 1.0 1.0 # 标准差
min 1.0 1.0 # 最小值
25% 1.5 1.5 # 四分之一均值
50% 2.0 2.0 # 二分之一均值
75% 2.5 2.5 # 四分之三均值
max 3.0 3.0 # 最大值
DataFrame使用索引切片:
import tushare as ts
data = ts.get_k_data("000001")
data['open'][:10] # 先取列再取行
data[:10]['open'] # 先取行再取列
data.loc[:10,"open":"low"] # 用标签取值
data.iloc[:10,1:5] # 用下标取值
处理时间对象可能是我们在进行数据分析的过程当中最常见的,我们会遇到各种格式的时间序列,也需要处理各种格式的时间序列,但是一定不能对这些数据懵逼,我们需要找到最合适的招式来处理这些时间。接下来就一起来看吧!!!
import datetime
# datetime.date() # date对象
today = datetime.date.today() # 获取当天日期,返回date对象
t1 = datetime.date(2019,4,18) # 设置时间格式为datetime.date
# datetime.datetime() # datetime对象
now = datetime.datetime.now() # 获取当天日期,返回datetime对象
t2 = datetime.datetime(2019,4,18) # 设置时间格式为datetime.datetime
# datetime.timedelta() # 时间差
today = datetime.datetime.today()
yestoday = today - datetime.timedelta(1) # 以时间做运算
print(today,yestoday)
# 将时间格式转换为字符串
today.strftime("%Y-%m-%d")
yestoday.strftime("%Y-%m-%d")
# 将日期字符串转成datetime时间格式,第二个参数由时间格式决定
datetime.datetime.strptime('2019-04-18','%Y-%m-%d')
import dateutil
# 将字符串格式的日期转换为datetime对象
date = '2019 Jan 2nd'
t3 = dateutil.parser.parse(date)
将字符串转换为为时间对象
from datetime import datetime
import pandas as pd
date1 = datetime(2019, 4, 18, 12, 24, 30)
date2 = '2019-04-18'
t4 = pd.to_datetime(date1)
t5 = pd.to_datetime(date2)
t6 = pd.to_datetime([date1,date2])
t4,t5,t6 # 转换单个时间数据是返回Timestamp对象,转换多个时间数据返回DatetimeIndex对象
>
"""
(Timestamp('2019-04-18 12:24:30'),
Timestamp('2019-04-18 00:00:00'),
DatetimeIndex(['2019-04-18 12:24:30', '2019-04-18 00:00:00'], dtype='datetime64[ns]', freq=None))
"""
将索引设置为时间序列
ind = pd.to_datetime(['2018-03-01','2019 Feb 3','08/12-/019'])
sr = pd.Series([1,2,3],index=ind)
# 补充:
"""
pd.to_datetime(['2018-03-01','2019 Feb 3','08/12-/019']).to_pydatetime()
> array([datetime.datetime(2018, 3, 1, 0, 0),
datetime.datetime(2019, 2, 3, 0, 0),
datetime.datetime(2019, 8, 12, 0, 0)], dtype=object)
# 通过to_pydatetime()方法将其转换为ndarray数组
"""
pd.date_range("2019-1-1","2019-2-2",freq="D")
> DatetimeIndex(['2019-01-01', '2019-01-02', '2019-01-03', '2019-01-04',
'2019-01-05', '2019-01-06', '2019-01-07', '2019-01-08',
'2019-01-09', '2019-01-10', '2019-01-11', '2019-01-12',
'2019-01-13', '2019-01-14', '2019-01-15', '2019-01-16',
'2019-01-17', '2019-01-18', '2019-01-19', '2019-01-20',
'2019-01-21', '2019-01-22', '2019-01-23', '2019-01-24',
'2019-01-25', '2019-01-26', '2019-01-27', '2019-01-28',
'2019-01-29', '2019-01-30', '2019-01-31', '2019-02-01',
'2019-02-02'],
dtype='datetime64[ns]', freq='D')
时间序列就是以时间对象为索引的Series或DataFrame。datetime对象作为索引时是存储在DatetimeIndex对象中的。
# 转换时间索引
dt = pd.date_range("2019-01-01","2019-02-02")
# 生成一个带有时间数据的DataFrame数组
a = pd.DataFrame({"num":pd.Series(random.randint(-100,100) for _ in range(30)),"date":dt})
# 通过index修改索引
a.index = pd.to_datetime(a["date"])
特殊功能:
a.resample("3D").mean() # 计算每三天的均值
a.resample("3D").sum() # 计算每三天的和
...
时间序列的处理在数据分析当中非常重要,但是有时候时间的格式不一致又会让人非常烦躁,只要把以上秘籍都学会就可以把时间序列制得服服帖帖。
在数据分析当中,我们有时需要将数据拆分,然后在每一个特定的组里进行运算,这些操作通常也是数据分析工作中的重要环节。
分组聚合相对来说也是一个稍微难理解的点,需要各位有一定的功力来学习.
pandas对象(无论Series、DataFrame还是其他的什么)当中的数据会根据提供的一个或者多个键被拆分为多组,拆分操作实在对象的特定轴上执行的。就比如DataFrame可以在他的行上或者列上进行分组,然后将一个函数应用到各个分组上并产生一个新的值。最后将所有的执行结果合并到最终的结果对象中。
分组键可以是多种样式,并且键不一定是完全相同的类型:
后三种只是快捷方式,最终仍然是为了产生一组用于拆分对象的值。
首先,通过一个很简单的DataFrame数组尝试一下:
df = pd.DataFrame({'key1':['x','x','y','y','x',
'key2':['one','two','one',',two','one'],
'data1':np.random.randn(5),
'data2':np.random.randn(5)})
df
> key1 key2 data1 data2
0 x one 0.951762 1.632336
1 x two -0.369843 0.602261
2 y one 1.512005 1.331759
3 y two 1.383214 1.025692
4 x one -0.475737 -1.182826
访问data1,并根据key1调用groupby:
f1 = df['data1'].groupby(df['key1'])
f1
> <pandas.core.groupby.groupby.SeriesGroupBy object at 0x00000275906596D8>
上述运行是没有进行任何计算的,但是我们想要的中间数据已经拿到了,接下来,就可以调用groupby进行任何计算
f1.mean() # 调用mean函数求出平均值
> key1
x 0.106183
y 2.895220
Name: data1, dtype: float64
以上数据经过分组键(一个Series数组)进行了聚合,产生了一个新的Series,索引就是key1
列中的唯一值。这些索引的名称就为key1
。接下来就尝试一次将多个数组的列表传进来
f2 = df['data1'].groupby([df['key1'],df['key2']])
f2.mean()
> key1 key2
x one 0.083878
two 0.872437
y one -0.665888
two -0.144310
Name: data1, dtype: float64
传入多个数据之后会发现,得到的数据具有一个层次化的索引,key1对应的x\y;key2对应的one\two.
f2.mean().unstack() # 通过unstack方法就可以让索引不堆叠在一起了
> key2 one two
key1
x 0.083878 0.872437
y -0.665888 -0.144310
补充:
# 以上面的f2测试
f2.size()
> key1 key2
x one 2
two 1
y one 1
two 1
Name: data1, dtype: int64
到这跟着我上面的步骤一步一步的分析,会发现还是很简单的,但是一定不能干看,还要自己下手练,只有多练才能融汇贯通!!!
聚合是指任何能够从数组产生标量值的数据转换过程。刚才上面的操作会发现使用GroupBy并不会直接得到一个显性的结果,而是一个中间数据,可以通过执行类似mean、count、min等计算得出结果,常见的还有一些:
函数名 | 描述 |
---|---|
sum | 非NA值的和 |
median | 非NA值的算术中位数 |
std、var | 无偏(分母为n-1)标准差和方差 |
prod | 非NA值的积 |
first、last | 第一个和最后一个非NA值 |
自定义聚合函数
不仅可以使用这些常用的聚合运算,还可以自己自定义。
# 使用自定义的聚合函数,需要将其传入aggregate或者agg方法当中
def peak_to_peak(arr):
return arr.max() - arr.min()
f1.aggregate(peak_to_peak)
运行结果:
key1
x 3.378482
y 1.951752
Name: data1, dtype: float64
多函数聚合:
f1.agg(['mean','std'])
运行结果:
mean std
key1
x -0.856065 0.554386
y -0.412916 0.214939
最终得到的列就会以相应的函数命名生成一个DataFrame数组
以上我们是可以通过agg或者是aggregate来实现多函数聚合以及自定义聚合函数,但是一定要注意agg方法只能进行聚合操作,进行其他例如:排序,这些方法是会报错的。agg返回的是数据的标量,所以有些时候并不适合使用agg,这就要看我们接下来的操作了。
GroupBy当中自由度最高的方法就是apply,它会将待处理的对象拆分为多个片段,然后各个片段分别调用传入的函数,最后将它们组合到一起。
df.apply(
[‘func’, ‘axis=0’, ‘broadcast=None’, ‘raw=False’, ‘reduce=None’, ‘result_type=None’, ‘args=()’, ‘**kwds’]
func:传入一个自定义函数
axis:函数传入参数当axis=1就会把一行数据作为Series的数据
# 分析欧洲杯和欧洲冠军联赛决赛名单
import pandas as pd
url="https://en.wikipedia.org/wiki/List_of_European_Cup_and_UEFA_Champions_League_finals"
eu_champions=pd.read_html(url) # 获取数据
a1 = eu_champions[2] # 取出决赛名单
a1.columns = a1.loc[0] # 使用第一行的数据替换默认的横向索引
a1.drop(0,inplace=True) # 将第一行的数据删除
a1.drop('#',axis=1,inplace=True) # 将以#为列名的那一列删除
a1.columns=['Season', 'Nation', 'Winners', 'Score', 'Runners_up', 'Runners_up_Nation', 'Venue','Attendance'] # 设置列名
a1.tail() # 查看后五行数据
a1.drop([64,65],inplace=True) # 删除其中的缺失行以及无用行
a1
运行结果:
现在想根据分组选出Attendance
列中值最高的三个。
# 先自定义一个函数
def top(df,n=3,column='Attendance'):
return df.sort_values(by=column)[-n:]
top(a1,n=3)
运行结果:
接下来,就对a1分组并且使用apply调用该函数:
a1.groupby('Nation').apply(top)
运行之后会发现,我们通过这个操作将每个国家各个年份时段出席的人数的前三名进行了一个提取。
以上top函数是在DataFrame的各个片段上调用,然后结果又通过pandas.concat组装到一起,并且以分组名称进行了标记。
以上只是基本用法,apply的强大之处就在于传入函数能做什么都由自己说了算,它只是返回一个pandas对象或者标量值就行
pandas常用方法(适用Series和DataFrame)
ython
def top(df,n=3,column=‘Attendance’):
return df.sort_values(by=column)[-n:]
top(a1,n=3)
运行结果:
[外链图片转存中...(img-5FkCSPLM-1578475218019)]
接下来,就对a1分组并且使用apply调用该函数:
```python
a1.groupby('Nation').apply(top)
[外链图片转存中…(img-wCCyeEmz-1578475218019)]
运行之后会发现,我们通过这个操作将每个国家各个年份时段出席的人数的前三名进行了一个提取。
以上top函数是在DataFrame的各个片段上调用,然后结果又通过pandas.concat组装到一起,并且以分组名称进行了标记。
以上只是基本用法,apply的强大之处就在于传入函数能做什么都由自己说了算,它只是返回一个pandas对象或者标量值就行
[外链图片转存中…(img-IcAgYP7V-1578475218020)]
pandas常用方法(适用Series和DataFrame)