Numpy(Numerical Python)是一个开源的Python科学计算库,用于快速处理任意维度的数组。
1)Numpy 支持常见的数组和矩阵操作
2)Numpy 使用ndarray对象来处理多维数组,该对象是一个快速而灵活的大数据容器
比如我们现在对下面表格中的数据用 Numpy 的 ndarray 类型来存储:
import numpy as np
# 创建ndarray
score = np.array([
[80, 89, 86, 67, 79],
[78, 97, 89, 67, 81],
[90, 94, 78, 67, 74],
[91, 91, 90, 67, 69],
[76, 87, 75, 67, 86],
[70, 79, 84, 67, 84],
[94, 92, 93, 67, 64],
[86, 85, 83, 67, 80]
])
print(score)
print(type(score))
思考:使用 Python 列表可以存储一维数组,通过列表的嵌套可以实现存储多维数组,那么为什么还需要使用Numpy的ndarray呢?
答:我们来做一个ndarray与Python原生list运算效率对比,ndarry 计算效率更高
import random
import time
import numpy as np
a = []
for i in range(1000000):
a.append(random.random())
t1 = time.time()
sum1=sum(a)
t2=time.time()
b=np.array(a)
t3=time.time()
sum2=np.sum(b)
t4=time.time()
print(t2-t1, t4-t3)
Numpy专门针对ndarray的操作和运算进行了设计,所以数组的存储效率和输入输出性能远优于Python中的嵌套列表,数组越大,Numpy的优势就越明显
Numpy ndarray的优势:
1)数据在内存中存储的风格
2)ndarray 支持并行化运算
3)Numpy 底层使用 C 语言编写,内部解除了 GIL(全局解释器锁),其对数组的操作速度不受 python 解释器的限制,可以利用CPU的多核心进行运算,效率远高于纯 python 代码
(1) ndarray 的属性
ndarray的属性清单:
属性 | 说明 |
---|---|
ndarray.shape | 数组维度的元组 |
ndarray.ndim | 数组维数 |
ndarray.size | 数组中的元素数量 |
ndarray.itemsize | 一个数组元素的长度(字节) |
ndarray.dtype | 数组元素的类型 |
执行下面的代码:
a = np.array([1, 2, 3, 4])
b = np.array([[1, 2, 3], [4, 5, 6]])
c = np.array([[[1, 2, 3], [4, 5, 6]], [[1, 2, 3], [4, 5, 6]]])
print(a.shape)
print(b.shape)
print(c.shape)
print(c.ndim)
print(c.size)
print(c.itemsize)
print(c.dtype)
(2)ndarray 的类型
下表为ndarray的全部数据类型;最常用的类型是布尔和int64,其他只要了解就好:
名称 | 描述 | 简写 |
---|---|---|
np.bool | 用一个字节存储的布尔类型(True或False) | 'b' |
np.int8 | 一个字节大小,-128 至 127 | 'i' |
np.int16 | 整数,-32768 至 32767 | 'i2' |
np.int32 | 整数,-2的31次方 至 2的32次方 -1 | 'i4' |
np.int64 | 整数,-2的63次方 至 2的63次方 - 1 | 'i8' |
np.uint8 | 无符号整数,0 至 255 | 'u' |
np.uint16 | 无符号整数,0 至 65535 | 'u2' |
np.uint32 | 无符号整数,0 至 2的32次方 - 1 | 'u4' |
np.uint64 | 无符号整数,0 至 2的64次方 - 1 | 'u8' |
np.float16 | 半精度浮点数:16位,正负号1位,指数5位,精度10位 | 'f2' |
np.float32 | 单精度浮点数:32位,正负号1位,指数8位,精度23位 | 'f4' |
np.float64 | 双精度浮点数:64位,正负号1位,指数11位,精度52位 | 'f8' |
np.complex64 | 复数,分别用两个32位浮点数表示实部和虚部 | 'c8' |
np.complex128 | 复数,分别用两个64位浮点数表示实部和虚部 | 'c16' |
np.object_ | python对象 | 'O' |
np.string_ | 字符串 | 'S' |
np.unicode_ | unicode类型 |
创建 ndarry 的时候指定类型:
b = np.array([[1, 2, 3], [4, 5, 6]], dtype=np.float32)
b.dtype
pandas 是基于 Numpy 的,很多功能都依赖于 Numpy 的 ndarray 实现的,pandas 的数据类型很多与 Numpy 类似,属性也有很多类似。比如 pandas 数据中的 NaN 就是 numpy.nan
下图中为 pandas 的数据类型清单,其中 category 我们之前的学习中没有见过的:
以 seaborn
包中自带的 tips
数据集为例,具体来查看数据类型:
import seaborn as sns
tips = sns.load_dataset('tips')
tips.head()
# 查看数据类型
tips.dtypes
astype 方法是通用函数,可用于把 DataFrame 中的任何列转换为其他 dtype,可以向 astype 方法提供任何内置类型或 numpy 类型来转换列的数据类型
在上面的tips数据中,sex、smoker、day 和 time 变量都是category类型。通常,如果变量不是数值类型,应先将其转换成字符串类型以便后续处理
有些数据集中可能含有id列,id的值虽然是数字,但对id进行计算(求和,求平均等)没有任何意义,在某些情况下,可能需要把它们转换为字符串对象类型。
1)把一列的数据类型转换为字符串,可以使用 astype
方法:
tips['sex_str'] = tips['sex'].astype(str)
print(tips.dtypes)
tips
1) 使用 astype 函数
(1)为了演示效果,先把total_bill
列转为object/str
类型
tips['total_bill'] = tips['total_bill'].astype(str)
tips.dtypes
(2)再把`object/str
类型的total_bill
列转为float64/float
类型
tips['total_bill'] = tips['total_bill'].astype(float)
tips.dtypes
2) to_numeric 函数
如果想把变量转换为数值类型(int、float),还可以使用 pandas 的 to_numeric 函数
astype 函数要求 DataFrame 每一列的数据类型必须相同,当有些数据中有缺失,但不是 NaN 时(如'missing'、'null'等),会使整列数据变成字符串类型而不是数值型,这个时候可以使用 to_numeric 处理
(1)抽取部分数据,人为制造'missing'作为缺失值的 df 数据
tips_sub_miss = tips.head(10)
tips_sub_miss.loc[[1, 3, 5, 7], 'total_bill'] = 'missing'
tips_sub_miss
(2)此时 total_bill
列变成了字符串对象类型
tips_sub_miss.dtypes
(3)这时使用 astype
方法把 total_bill
列转换回float
类型,会报错,pandas 无法把'missing'
转换成float
# 这句代码会出错
tips_sub_miss['total_bill'].astype(float)
(4)如果使用 pandas 库中的 to_numeric
函数进行转换,默认也会得到类似的错误
# 这句代码也会出错
pd.to_numeric(tips_sub_miss['total_bill'])
to_numeric 函数有一个参数 errors,它决定了当该函数遇到无法转换的数值时该如何处理:
1)默认情况下,该值为 raise,如果 to_numeric 遇到无法转换的值时,会抛错
2)设置为
coerce
:如果 to_numeric 遇到无法转换的值时,会返回NaN3)设置为
ignore
:如果 to_numeric 遇到无法转换的值时,会放弃转换,什么都不做
pd.to_numeric(tips_sub_miss['total_bill'], errors='coerce')
pd.to_numeric(tips_sub_miss['total_bill'], errors='ignore')
to_numeric 函数还有一个
downcast
参数,默认是None
,接受的参数值为integer
、signed
、float
和unsigned
:1)如果设置了某一类型的数据,那么 pandas 会将原始数据转为该类型能存储的最小子型态
2)如 Pandas 中 float 的子型态有float32、float64,所以设置了downcast='float',则会将数据转为能够以较少bytes去存储一个浮点数的float32
3)另外,downcast 参数和 errors 参数是分开的,如果 downcast 过程中出错,即使 errors 设置为 ignore 也会抛出异常
# downcast参数设置为float之后, total_bill的数据类型由float64变为float32
pd.to_numeric(tips_sub_miss['total_bill'], errors='coerce', downcast='float')
结果说明:从上面的结果看出,转换之后的数据类型为float32,意味着占用的内存更小了
在本章的3.1小节我们知道,pandas 有一种数据类型
category
,用于对分类值进行编码
1)category
转换为 object/str
tips['sex'] = tips['sex'].astype(str)
tips.info()
2)object/str
转换为 category
category 类型数据是由固定的且有限数量的变量组成的,比如:性别
1)通过 pd.Categorical
创建 category
类型数据,同时指定可选项
s = pd.Series(
pd.Categorical(['a', 'b', 'c', 'd'],
categories=['c', 'b', 'a'])
)
s
注意:不在 category 限定范围内的数据会被置为 NaN
2)通过 dtype
参数创建 category
类型数据
cat_series = pd.Series(['B', 'D', 'C', 'A'], dtype='category')
cat_series
3)此时对数据进行排序
# 排序
cat_series.sort_values()
4)通过 CategoricalDtype
指定 category
数据的类型顺序
from pandas.api.types import CategoricalDtype
# 自定义一个有序的 category 类型
cat = CategoricalDtype(categories=['B', 'D', 'A', 'C'], ordered=True)
print(cat_series)
print('=' * 20)
print(cat_series.sort_values())
print('=' * 20)
print(cat_series.astype(cat).sort_values())
5)若要修改排序规则,也可以使用categories类型的series对象.cat.reorder_categories()
方法
print(cat_series)
# 注意:cat是categories类型的Series对象的一个属性,用于对Series中的分类数据进行操作
cat_series.cat.reorder_categories(['D', 'B', 'C', 'A'], ordered=True, inplace=True)
print(cat_series)
Python 内置了datetime 对象,可以在 datetime 库中找到
from datetime import datetime
# 获取当前时间
t1 = datetime.now()
t1
还可以手动创建 datetime:
t2 = datetime(2020, 1, 1)
t2
两个 datetime 数据可以相减:
diff = t1 - t2
print(diff)
# 查看两个日期相间的结果类型
print(type(diff))
pandas 可以使用 to_datetime
函数把数据转换成 datetime
类型
1)加载 country_timeseries.csv
数据,并查看前5行的前5列数据
ebola = pd.read_csv('./data/country_timeseries.csv')
ebola.iloc[:5, :5]
注:从数据中看出 Date 列是日期,但通过info查看加载后数据为object类型
ebola.info()
3)可以通过 pandas 的 to_datetime
方法把 Date
列转换为datetime,然后创建新列
ebola['Date_Dt'] = pd.to_datetime(ebola['Date'])
ebola.info()
4)如果数据中包含日期时间数据,可以在加载的时候,通过parse_dates
参数指定自动转换为 datetime
# parse_dates 参数可以是列标签或列的位置编号,表示加载数据时,将指定列转换为 datetime 类型
ebola = pd.read_csv('./data/country_timeseries.csv', parse_dates=[0])
ebola.info()
1)获取了一个 datetime 对象,就可以提取日期的各个部分了
dt = pd.to_datetime('2021-06-01')
dt
可以看到得到的数据是Timestamp类型,通过Timestamp可以获取年、月、日等部分
dt.year
dt.month
dt.day
除了获取 Timestamp 类型的年、月、日部分,还可以获取其他部分,具体参考文档:Time series / date functionality — pandas 1.3.4 documentation
2)通过 ebola
数据集的 Date
列,创建新列 year
、month
、day
# 注意:dt是日期类型的Series对象的属性,用于对Series中的日期数据操作,比如提取日期各个部分
ebola['year'] = ebola['Date'].dt.year
ebola['year']
ebola['month'] = ebola['Date'].dt.month
ebola['day'] = ebola['Date'].dt.day
ebola[['Date','year','month','day']].head()
ebola.info()
Ebola 数据集中的 Day 列表示一个国家爆发 Ebola 疫情的天数。这一列数据可以通过日期运算重建该列
1)获取疫情爆发的第一天
# 获取疫情爆发的第一天
ebola['Date'].min()
结果说明:疫情爆发的第一天(数据集中最早的一天)是2014-03-22
2)计算疫情爆发的天数时,只需要用每个日期减去这个日期即可
ebola['outbreak_day'] = ebola['Date'] - ebola['Date'].min()
ebola[['Date', 'Day', 'outbreak_day']]
ebola[['Date', 'Day', 'outbreak_day']].tail()
3)执行这种日期运算,会得到一个timedelta
对象
ebola.info()
包含日期的数据集中,并非每一个都包含固定频率。比如在ebola数据集中,日期并没有规律
ebola_head = ebola.iloc[:5, :5]
ebola_head
从上面的数据中可以看到,缺少2015年1月1日,如果想让日期连续,可以创建一个日期范围来为数据集重建索引。
1)可以使用 date_range
函数来创建连续的日期范围
head_range = pd.date_range(start='2014-12-31', end='2015-01-05')
head_range
2)对于 ebola_head
数据首先设置日期索引,然后为数据重建连续索引
ebola_head.index = ebola_head['Date']
ebola_head
ebola_head.reindex(head_range)
使用date_range函数创建日期序列时,可以传入一个参数freq,默认情况下freq取值为D,表示日期范围内的值是逐日递增的
# 产生 2020-01-01 到 2020-01-07 的工作日
pd.date_range('2020-01-01', '2020-01-07', freq='B')
结果说明:从结果中看到生成的日期中缺少1月4日,1月5日,为休息日
freq 参数的可能取值:
Alias | Description |
---|---|
B | 工作日 |
C | 自定义工作日 |
D | 日历日 |
W | 每周 |
M | 月末 |
SM | 月中和月末(每月第15天和月末) |
BM | 月末工作日 |
CBM | 自定义月末工作日 |
MS | 月初 |
SMS | 月初和月中(每月第1天和第15天) |
BMS | 月初工作日 |
CBMS | 自定义月初工作日 |
Q | 季度末 |
BQ | 季度末工作日 |
QS | 季度初 |
BQS | 季度初工作日 |
A, Y | 年末 |
BA, BY | 年末工作日 |
AS, YS | 年初 |
BAS, BYS | 年初工作日 |
BH | 工作时间 |
H | 小时 |
T, min | 分钟 |
S | 秒 |
L, ms | 毫秒 |
U, us | microseconds |
N | 纳秒 |
3)在 freq 传入参数的基础上,可以做一些调整
# 隔一个工作日取一个工作日
pd.date_range('2020-01-01', '2020-01-07', freq='2B')
4)freq 传入的参数可以传入多个
# 示例:2020年每个月的第一个星期四
pd.date_range('2020-01-01','2020-12-31',freq='WOM-1THU')
# 示例:2020年每个月的第三个星期五
pd.date_range('2020-01-01','2020-12-31',freq='WOM-3FRI')
1)加载丹佛市报警记录数据集 crime.csv
crime = pd.read_csv('./data/crime.csv', parse_dates=['REPORTED_DATE'])
crime
crime.info()
2)设置报警时间为行标签索引
crime = crime.set_index('REPORTED_DATE')
crime
# 查看数据信息
crime.info()
注:把行标签索引设置为日期对象后,可以直接使用日期来获取某些数据
根据日期各部分进行数据筛选:
1)示例:获取 2016-05-02
的报警记录数据
crime.loc['2016-05-02']
2)示例:获取 2015-03-01
到 2015-06-01
之间的报警记录数据
crime.loc['2015-03-01': '2015-06-01'].sort_index()
3)时间段可以包括小时分钟
crime.loc['2015-03-01 22': '2015-06-01 20:35:00'].sort_index()
4)示例:查询凌晨两点到五点的报警记录
crime.between_time('2:00', '5:00')
5)示例:查询在 5:47
分的报警记录
crime.at_time('5:47')
DateTimeIndex 行标签排序:
在按日期各部分筛选数据时,可以将数据先按日期行标签排序,排序之后根据日期筛选数据效率更高。
坑点:
- 数据按照 DateTimeIndex 行标签排序之前,只能使用 df.loc[...] 的形式根据日期筛选数据,但排序之后,可以同时使用 df.loc[...] 或 df[...] 的形式根据日期筛选数据
1)示例:获取 2015-03-04
到 2015-06-01
之间的报警记录数据
# 数据按照 DateTimeIndex 行标签排序之前
%timeit crime.loc['2015-03-04': '2016-06-01']
# 数据按照 DateTimeIndex 行标签排序之后
crime_sort = crime.sort_index()
%timeit crime_sort.loc['2015-03-04': '2016-06-01']
结论:数据按照 DateTimeIndex 行标签排序之后,根据日期筛选数据效率更高
日期序列数据的重采样:
对于设置了日期类型行标签之后的数据,可以使用 resample 方法重采样,按照指定时间周期分组
1)示例:计算每周的报警数量
# W:即Week,表示按周进行数据重采样
weekly_crimes = crime_sort.resample('W').size()
weekly_crimes
# 也可以把周四作为每周的结束
crime_sort.resample('W-THU').size()
# pandas 绘图
%matplotlib inline
import matplotlib.pyplot as plt
# Windows 操作系统设置显示中文
plt.rcParams['font.sans-serif'] = 'SimHei'
# Mac 操作系统设置显示中文
# plt.rcParams['font.sans-serif'] = 'Arial Unicode MS'
weekly_crimes.plot(figsize=(16, 8), title='丹佛报警记录情况')
2)示例:分析每季度的犯罪和交通事故数据
# Q:Quarter,表示按季度进行数据重采样
crime_quarterly = crime_sort.resample('Q')['IS_CRIME', 'IS_TRAFFIC'].sum()
crime_quarterly
所有日期都是该季度的最后一天,使用QS
生成每季度的第一天
crime_quarterly = crime_sort.resample('QS')['IS_CRIME', 'IS_TRAFFIC'].sum()
crime_quarterly
# pandas 绘图
crime_quarterly.plot(figsize=(16, 8))
plt.title('丹佛犯罪和交通事故数据')