DataFrame是的一个二维数组,既有行索引,又有列索引,有数据
# 方法1:以传入字典形式创建DataFrame
df = pd.DataFrame({'name':['james','curry','iversion'],
'age':['18','20','19'],
'national':['us','china','us']})
# 方法2:指定内容、index、column形式创建DataFrame
df = pd.DataFrame([['snow','M',22],['tyrion','M',32],['sansa','F',18],['arya','F',14]], index=list('abcd'), columns=['name','gender','age'])
# 方法3:from_dict方法生成DataFrame
data = {'Name':['zs','ls','we'],'Age':['10','20','30'],'country':['中国','日本','韩国']}
df = pd.DataFrame.from_dict(data)
# 添加score列
df['score'] = [57,74,87]
# 1.将数据框的列名全部提取出来存放在列表里
col_name=df1.columns.tolist()
# 2.在列索引为2的位置插入一列,列名为:city,刚插 入时不会有值,整列都是NaN
col_name.insert(2,'city')
# 3.DataFrame.reindex() 对原行/列索引重新构建 索引值
df1=df1.reindex(columns=col_name)
# 4.给city列赋值
df1['city']=['北京','山西','湖北','澳门']
# 直接给某行赋值
df1.iloc[1] = [11,22,33]
new=pd.DataFrame({'name':'lisa', 'gender':'F', 'age':19 },index=[0])
df1=df1.append(new,ignore_index=True) # ignore_index=False,表示不按原来的索引,从0开始自 动递增
df = pd.DataFrame(np.arange(9).reshape(3,3),columns=['one','two','three'])
# 删除one整列数据
df1=df.drop(['one'],axis=1, inplace=True)
# 删除索引标签为0,1的两行数据
df2=df.drop([0,1],axis=0, inplace=False) # 注意:此处的[0,1]是行索引标签名而非行索引下标
stock_code = ["股票_" + str(i) for i in range(stock_day_rise.shape[0])]
# 这种方式必须整体全部修改
df.index = stock_code
注意:以下修改方式是错误的(不能只修改其中的某个索引的值)
# 错误修改方式
df.index[3] = '股票_3'
# 把行标签bj改为beijing
df.rename(index={'bj':'beijing'}, inplace=True)
# 把列标签a改为aaa
df.rename(index={'a':'aaa'}, inplace=True)
# 重置索引,drop=False
data.reset_index()
index 2017-01-02 2017-01-03 2017-01-04 2017-01-05 2017-01-06
0 股票_0 -0.065440 -1.309315 -1.454515 0.579730 1.486024
1 股票_1 -1.732167 -0.834137 0.458615 -0.803918 -0.468786
2 股票_2 0.218056 0.199014 0.713468 0.548426 0.386234
3 股票_3 -0.422079 -0.337024 0.423285 -1.230792 1.328438
4 股票_4 -1.725307 0.075918 -1.917084 -0.165358 1.076451
5 股票_5 -0.815768 -0.286753 1.204420 0.733660 -0.062145
6 股票_6 -0.988209 -1.018152 -0.954173 -0.815390 0.502682
7 股票_7 -0.100341 0.611962 -0.068503 0.747384 0.143011
8 股票_8 1.000262 0.342420 -2.252971 0.939211 1.140803
9 股票_9 2.520647 1.553848 1.722530 0.612701 0.608881
# 重置索引,drop=True
data.reset_index(drop=True)
2017-01-02 2017-01-03 2017-01-04 2017-01-05 2017-01-06
0 -0.065440 -1.309315 -1.454515 0.579730 1.486024
1 -1.732167 -0.834137 0.458615 -0.803918 -0.468786
2 0.218056 0.199014 0.713468 0.548426 0.386234
3 -0.422079 -0.337024 0.423285 -1.230792 1.328438
4 -1.725307 0.075918 -1.917084 -0.165358 1.076451
5 -0.815768 -0.286753 1.204420 0.733660 -0.062145
6 -0.988209 -1.018152 -0.954173 -0.815390 0.502682
7 -0.100341 0.611962 -0.068503 0.747384 0.143011
8 1.000262 0.342420 -2.252971 0.939211 1.140803
9 2.520647 1.553848 1.722530 0.612701 0.608881
month sale year
0 1 55 2012
1 4 40 2014
2 7 84 2013
3 10 31 2014
# 把'month'列设置为索引
df.set_index('month')
'''
sale year
month
1 55 2012
4 40 2014
7 84 2013
10 31 2014
'''
res = df.set_axis(df.iloc[0], axis=1, inplace=False)
res.columns.name=None # 设置列索引的名称为空
获取’2018-02-27’这天的’close’的结果
# 直接使用行列索引名字的方式(先列后行)
data['open']['2018-02-27']
23.53
# 不支持的操作
# 错误
data['2018-02-27']['open']
# 错误
data[:1, :2]
获取从’2018-02-27’:‘2018-02-22’,'open’的结果
# 使用loc:只能指定行列索引的名字
data.loc['2018-02-27':'2018-02-22', 'open']
2018-02-27 23.53
2018-02-26 22.80
2018-02-23 22.88
Name: open, dtype: float64
# 使用iloc可以通过索引的下标去获取
# 获取前100天数据的'open'列的结果
data.iloc[0:100, 0:2].head()
open high close low
2018-02-27 23.53 25.88 24.16 23.53
2018-02-26 22.80 23.78 23.53 22.80
2018-02-23 22.88 23.37 22.82 22.71
对DataFrame当中的close列进行重新赋值为1
# 直接修改原来的值
data['close'] = 1 # 推荐使用
# 或者
data.close = 1
排序有两种形式:
df.sort_values(by=, ascending=)
# 按照涨跌幅大小进行排序 , 使用ascending指定按照大小排序
data = data.sort_values(by='p_change', ascending=False).head()
open high close low volume price_change p_change turnover
2015-08-28 15.40 16.46 16.46 15.00 117827.60 1.50 10.03 4.03
2015-05-21 27.50 28.22 28.22 26.50 121190.11 2.57 10.02 4.15
2016-12-22 18.50 20.42 20.42 18.45 150470.83 1.86 10.02 3.77
2015-08-04 16.20 17.35 17.35 15.80 94292.63 1.58 10.02 3.23
2016-07-07 18.66 18.66 18.66 18.41 48756.55 1.70 10.02 1.67
# 按照多个键进行排序
data = data.sort_values(by=['open', 'high'])
open high close low volume price_change p_change turnover
2015-06-15 34.99 34.99 31.69 31.69 199369.53 -3.52 -10.00 6.82
2015-06-12 34.69 35.98 35.21 34.01 159825.88 0.82 2.38 5.47
2015-06-10 34.10 36.35 33.85 32.23 269033.12 0.51 1.53 9.21
2017-11-01 33.85 34.34 33.83 33.10 232325.30 -0.61 -1.77 5.81
2015-06-11 33.17 34.98 34.39 32.51 173075.73 0.54 1.59 5.92
df.sort_index()(by=, ascending=)
使用索引进行排序
这个股票的日期索引原来是从大到小,现在重新排序,从小到大
# 对索引进行排序
data.sort_index() # 默认升序排序
open high close low volume price_change p_change turnover
2015-03-02 12.25 12.67 12.52 12.20 96291.73 0.32 2.62 3.30
2015-03-03 12.52 13.06 12.70 12.52 139071.61 0.18 1.44 4.76
2015-03-04 12.80 12.92 12.90 12.61 67075.44 0.20 1.57 2.30
2015-03-05 12.88 13.45 13.16 12.87 93180.39 0.26 2.02 3.19
2015-03-06 13.17 14.48 14.28 13.13 179831.72 1.12 8.51 6.16
进行数学运算加上具体的一个数字
data['open'].add(1) # open列里的每个元素+1
2018-02-27 24.53
2018-02-26 23.80
2018-02-23 23.88
2018-02-22 23.25
2018-02-14 22.49
如果想要得到每天的涨跌大小?求出每天 close- open价格差
# 1、筛选两列数据
close = data['close']
open1 = data['open']
# 2、收盘价减去开盘价
data['m_price_change'] = close.sub(open1)
data.head()
open high close low price_change p_change turnover my_price_change
2018-02-27 23.53 25.88 24.16 23.53 0.63 2.68 2.39 0.63
2018-02-26 22.80 23.78 23.53 22.80 0.69 3.02 1.53 0.73
2018-02-23 22.88 23.37 22.82 22.71 0.54 2.42 1.32 -0.06
2018-02-22 22.25 22.76 22.28 22.02 0.36 1.64 0.90 0.03
2018-02-14 21.49 21.99 21.92 21.48 0.44 2.05 0.58 0.43
data['p_change'] > 2
2018-02-27 True
2018-02-26 True
2018-02-23 True
2018-02-22 False
2018-02-14 True
# 逻辑判断的结果可以作为筛选的依据
data[data['p_change'] > 2] # 返回data['p_change'] > 2为True的所有数据
pen high close low price_change p_change turnover my_price_change
2018-02-27 23.53 25.88 24.16 23.53 0.63 2.68 2.39 0.63
2018-02-26 22.80 23.78 23.53 22.80 0.69 3.02 1.53 0.73
2018-02-23 22.88 23.37 22.82 22.71 0.54 2.42 1.32 -0.06
2018-02-14 21.49 21.99 21.92 21.48 0.44 2.05 0.58 0.43
2018-02-12 20.70 21.40 21.19 20.63 0.82 4.03 0.81 0.49
data[(data['p_change'] > 2) & (data['open'] > 15)]
open high close low price_change p_change turnover my_price_change
2017-11-14 28.00 29.89 29.34 27.68 1.10 3.90 6.10 1.34
2017-10-31 32.62 35.22 34.44 32.20 2.38 7.42 9.05 1.82
2017-10-27 31.45 33.20 33.11 31.45 0.70 2.16 8.35 1.66
2017-10-26 29.30 32.70 32.41 28.92 2.68 9.01 12.56 3.11
df.query(expr)
通过query使得刚才的过程更加方便简单
data.query("p_change > 2 & turnover > 15")
df.isin(values)
判断’turnover’列中的值是否有4.19, 2.39
# 可以指定值进行一个判断,从而进行筛选操作
data[data['turnover'].isin([4.19, 2.39])]
open high close low price_change p_change turnover my_price_change
2018-02-27 23.53 25.88 24.16 23.53 0.63 2.68 2.39 0.63
2017-07-25 23.07 24.20 23.70 22.64 0.67 2.91 4.19 0.63
2016-09-28 19.88 20.98 20.86 19.71 0.98 4.93 2.39 0.98
2015-04-07 16.54 17.98 17.54 16.50 0.88 5.28 4.19 1.00
综合分析: 能够直接得出很多统计结果,count
, mean
, std
, min
, max
等
# 计算平均值、标准差、最大值、最小值
data.describe()
Numpy当中已经详细介绍,在这里我们演示min(最小值), max(最大值), mean(平均值), median(中位数), var(方差), std(标准差),mode(众数)结果,
函数名 | 作用 |
---|---|
sum |
累加和 |
mean |
平均值 |
median |
中位数 |
min |
最小值 |
max |
最大值 |
mode |
众数–出现次数最多的数 |
abs |
绝对值 |
prod |
累乘 |
std |
标准差 |
var |
方差 |
idxmax |
最大值的位置下标 |
idxmin |
最小值的位置下标 |
对于单个函数去进行统计的时候,坐标轴还是按照这些默认为“columns” (axis=0, default),如果要对行“index” 需要指定(axis=1)
函数 | 作用 |
---|---|
cumsum |
计算前1/2/3/…/n个数的和 |
cummax |
计算前1/2/3/…/n个数的最大值 |
cummin |
计算前1/2/3/…/n个数的最小值 |
cumprod |
计算前1/2/3/…/n个数的积 |
data[['open', 'close']].apply(lambda x: x.max() - x.min(), axis=0)
open 22.74
close 22.85
dtype: float64
通过已有数据创建
pd.Series(np.arange(10))
pd.Series([6.7,5.6,3,10,2], index=[1,2,3,4,5])
通过字典数据创建
pd.Series({'red':100, ''blue':200, 'green': 500, 'yellow':1000})
index
values
两个Series间运算
两个Series间的运算是按照相同的index进行加减乘除,没有相同的index则为NAN
把Series内容转换成列表
data['p_change'].sort_values(ascending=True).head()
2015-09-01 -10.03
2015-09-14 -10.02
2016-01-11 -10.02
2015-07-15 -10.02
2015-08-26 -10.01
Name: p_change, dtype: float64
与df一致
# 对索引进行排序
data['p_change'].sort_index().head()
2015-03-02 2.62
2015-03-03 1.44
2015-03-04 1.57
2015-03-05 2.02
2015-03-06 8.51
Name: p_change, dtype: float64
DataFrame.plot
(x=None, y=None, kind=‘line’)
更多参数细节:https://pandas.pydata.org/pandas-docs/stable/generated/pandas.DataFrame.plot.html?highlight=plot#pandas.DataFrame.plot
更多参数细节:https://pandas.pydata.org/pandas-docs/stable/generated/pandas.Series.plot.html?highlight=plot#pandas.Series.plot
我们的数据大部分存在于文件当中,所以pandas会支持复杂的IO操作,pandas的API支持众多的文件格式,如CSV、SQL、XLS、JSON、HDF5。
注:最常用的HDF5和CSV文件
读取之前的股票的数据
# 读取文件,并且指定只获取'open', 'close'指标
data = pd.read_csv("./data/stock_day.csv", usecols=['open', 'close'])
open close
2018-02-27 23.53 24.16
2018-02-26 22.80 23.53
2018-02-23 22.88 22.82
2018-02-22 22.25 22.28
2018-02-14 21.49 21.92
案例:
# 选取10行数据保存,便于观察数据
data[:10].to_csv("./data/test.csv", columns=['open'])
pd.read_csv("./data/test.csv")
Unnamed: 0 open
0 2018-02-27 23.53
1 2018-02-26 22.80
2 2018-02-23 22.88
3 2018-02-22 22.25
4 2018-02-14 21.49
5 2018-02-13 21.40
6 2018-02-12 20.70
7 2018-02-09 21.20
8 2018-02-08 21.79
9 2018-02-07 22.69
会发现将索引存入到文件当中,变成单独的一列数据。如果需要删除,可以指定index参数,删除原来的文件,重新保存一次。
# index:存储不会讲索引值变成一列数据
data[:10].to_csv("./data/test.csv", columns=['open'], index=False)
HDF5文件的读取和存储需要指定一个键,值为要存储的DataFrame
pandas.read_hdf(path_or_buf,key =None,** kwargs)
从h5文件当中读取数据
DataFrame.to_hdf(path_or_buf, key, **kwargs)
案例:
day_eps_ttm = pd.read_hdf("./data/stock_data/day/day_eps_ttm.h5")
如果读取的时候出现以下错误
需要安装安装tables模块避免不能读取HDF5文件
pip install tables
day_eps_ttm.to_hdf("./data/test.h5", key="day_eps_ttm")
再次读取的时候, 需要指定键的名字
new_eps = pd.read_hdf("./data/test.h5", key="day_eps_ttm")
JSON是我们常用的一种数据交换格式,前面在前后端的交互经常用到,也会在存储的时候选择这种格式。所以我们需要知道Pandas如何进行读取和存储JSON格式。
pandas.read_json(path_or_buf=None, orient=None, typ=‘frame’, lines=False)
将JSON格式转换成默认的Pandas DataFrame格式
orient : string,Indication of expected JSON string format.
‘split’ : dict like {index -> [index], columns -> [columns], data -> [values]}
‘records’ : list like [{column -> value}, … , {column -> value}]
columns:values
的形式输出‘index’ : dict like {index -> {column -> value}}
index:{columns:values}...
的形式输出‘columns’ : dict like {column -> {index -> value}}
,默认该格式
columns:{index:values}
的形式输出‘values’ : just the values array
lines : boolean, default False
typ : default ‘frame’, 指定转换成的对象类型series或者dataframe
read_josn 案例
数据介绍
这里使用一个新闻标题讽刺数据集,格式为json。is_sarcastic
:1讽刺的,否则为0;headline
:新闻报道的标题;article_link
:链接到原始新闻文章。存储格式为:
{"article_link": "https://www.huffingtonpost.com/entry/versace-black-code_us_5861fbefe4b0de3a08f600d5", "headline": "former versace store clerk sues over secret 'black code' for minority shoppers", "is_sarcastic": 0}
{"article_link": "https://www.huffingtonpost.com/entry/roseanne-revival-review_us_5ab3a497e4b054d118e04365", "headline": "the 'roseanne' revival catches up to our thorny political mood, for better and worse", "is_sarcastic": 0}
orient指定存储的json格式,lines指定按照行去变成一个样本
json_read = pd.read_json("./data/Sarcasm_Headlines_Dataset.json", orient="records", lines=True)
结果为:
DataFrame.to_json(
path_or_buf=None
,
orient=None
,
lines=False
)
案例
json_read.to_json("./data/test.json", orient='records')
结果
[{"article_link":"https:\/\/www.huffingtonpost.com\/entry\/versace-black-code_us_5861fbefe4b0de3a08f600d5","headline":"former versace store clerk sues over secret 'black code' for minority shoppers","is_sarcastic":0},{"article_link":"https:\/\/www.huffingtonpost.com\/entry\/roseanne-revival-review_us_5ab3a497e4b054d118e04365","headline":"the 'roseanne' revival catches up to our thorny political mood, for better and worse","is_sarcastic":0},{"article_link":"https:\/\/local.theonion.com\/mom-starting-to-fear-son-s-web-series-closest-thing-she-1819576697","headline":"mom starting to fear son's web series closest thing she will have to grandchild","is_sarcastic":1},{"article_link":"https:\/\/politics.theonion.com\/boehner-just-wants-wife-to-listen-not-come-up-with-alt-1819574302","headline":"boehner just wants wife to listen, not come up with alternative debt-reduction ideas","is_sarcastic":1},{"article_link":"https:\/\/www.huffingtonpost.com\/entry\/jk-rowling-wishes-snape-happy-birthday_us_569117c4e4b0cad15e64fdcb","headline":"j.k. rowling wishes snape happy birthday in the most magical way","is_sarcastic":0},{"article_link":"https:\/\/www.huffingtonpost.com\/entry\/advancing-the-worlds-women_b_6810038.html","headline":"advancing the world's women","is_sarcastic":0},....]
json_read.to_json("./data/test.json", orient='records', lines=True)
结果
{"article_link":"https:\/\/www.huffingtonpost.com\/entry\/versace-black-code_us_5861fbefe4b0de3a08f600d5","headline":"former versace store clerk sues over secret 'black code' for minority shoppers","is_sarcastic":0}
{"article_link":"https:\/\/www.huffingtonpost.com\/entry\/roseanne-revival-review_us_5ab3a497e4b054d118e04365","headline":"the 'roseanne' revival catches up to our thorny political mood, for better and worse","is_sarcastic":0}
{"article_link":"https:\/\/local.theonion.com\/mom-starting-to-fear-son-s-web-series-closest-thing-she-1819576697","headline":"mom starting to fear son's web series closest thing she will have to grandchild","is_sarcastic":1}
{"article_link":"https:\/\/politics.theonion.com\/boehner-just-wants-wife-to-listen-not-come-up-with-alt-1819574302","headline":"boehner just wants wife to listen, not come up with alternative debt-reduction ideas","is_sarcastic":1}
{"article_link":"https:\/\/www.huffingtonpost.com\/entry\/jk-rowling-wishes-snape-happy-birthday_us_569117c4e4b0cad15e64fdcb","headline":"j.k. rowling wishes snape happy birthday in the most magical way","is_sarcastic":0}...
优先选择使用HDF5文件存储
# 读取电影数据
movie = pd.read_csv("./data/IMDB-Movie-Data.csv")
pd.notnull(movie)
Rank Title Genre Description Director Actors Year Runtime (Minutes) Rating Votes Revenue (Millions) Metascore
0 True True True True True True True True True True True True
1 True True True True True True True True True True True True
2 True True True True True True True True True True True True
3 True True True True True True True True True True True True
4 True True True True True True True True True True True True
5 True True True True True True True True True True True True
6 True True True True True True True True True True True True
7 True True True True True True True True True True False True
np.all(pd.notnull(movie)) # 获取一行中不包含NAN的数据
pandas删除缺失值,使用dropna的前提是,缺失值的类型必须是np.nan
# 不修改原数据
movie.dropna()
# 可以定义新的变量接受或者用原来的变量名
data = movie.dropna()
# 使用平均值填充缺失值
movie['Revenue (Millions)'].fillna(movie['Revenue (Millions)'].mean(), inplace=True)
# 使用不同的常数填充缺失值
movie.fillna({0:10,1:20,2:30}) # 0列填充10,1列填充20,2列填充30
# 使用当前列前一个非NAN数据的值填充
movie['Revenue (Millions)'].fillna(method='ffill')
# 使用当前列后一个非NAN数据的值填充
movie['Revenue (Millions)'].fillna(method='bfill')
替换所有缺失值:
for i in movie.columns:
if np.all(pd.notnull(movie[i])) == False:
print(i)
movie[i].fillna(movie[i].mean(), inplace=True)
数据是这样的:
wis = pd.read_csv("https://archive.ics.uci.edu/ml/machine-learning-databases/breast-cancer-wisconsin/breast-cancer-wisconsin.data")
以上数据在读取时,可能会报如下错误:
URLError: <urlopen error [SSL: CERTIFICATE_VERIFY_FAILED] certificate verify failed (_ssl.c:833)>
解决办法:
# 全局取消证书验证
import ssl
ssl._create_default_https_context = ssl._create_unverified_context
处理思路分析:
# 把一些其它值标记的缺失值,替换成np.nan
wis = wis.replace(to_replace='?', value=np.nan)
# 删除
wis = wis.dropna()
连续属性离散化的目的是为了简化数据结构,数据离散化技术可以用来减少给定连续属性值的个数。离散化方法经常作为数据挖掘的工具。
连续属性的离散化就是在连续属性的值域上,将值域划分为若干个离散的区间,最后用不同的符号或整数 值代表落在每个子区间中的属性值。
离散化有很多种方法,这使用一种最简单的方式去操作
这样我们将数据分到了三个区间段,我可以对应的标记为矮、中、高三个类别,最终要处理成一个"哑变量"矩阵
我们对股票每日的"p_change"进行离散化
先读取股票的数据,筛选出p_change数据
data = pd.read_csv("./data/stock_day.csv")
p_change= data['p_change']
使用的工具:
# 自行分组
qcut = pd.qcut(p_change, 10)
# 计算分到每个组数据个数
qcut.value_counts()
自定义区间分组:
# 自己指定分组区间
bins = [-100, -7, -5, -3, 0, 3, 5, 7, 100]
p_counts = pd.cut(p_change, bins)
把每个类别生成一个布尔列,这些列中只有一列可以为这个样本取值为1.其又被称为热编码。
把下图中左边的表格转化为使用右边形式进行表示:
pandas.get_dummies(data, prefix=None)
# 得出one-hot编码矩阵
dummies = pd.get_dummies(p_counts, prefix="rise")
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-RUDbRcgZ-1604760507795)(images/哑变量矩阵.png)]
如果你的数据由多张表组成,那么有时候需要将不同的内容合并在一起分析**
比如我们将刚才处理好的one-hot编码与原数据合并
# 按照行索引进行
pd.concat([data, dummies], axis=1)
以left的行作为基础,将left和right的列铺开,符合left行index的填充到对应列中,不符合的弃掉,没有值的用NAN填充
df=pd.DataFrame({'Red':[1,3,5],'Green':[5,0,3]},index=list('abc'))
df2=pd.DataFrame({'Blue':[1,9,8],'Yellow':[6,6,7]},index=list('cde'))
df.join(df2) # 默认how='left'
以right的行作为基础,将left和right的列铺开,符合right行index的填充到对应列中,不符合的弃掉,没有值的用NAN填充
df.join(df2,how='right')
将left和right的行和列铺开,没有值的列用NAN填充
pd.concat([df, df2],sort=False)
专注列的合并
left
: A DataFrame objectright
: Another DataFrame objecton
: Columns (names) to join on. Must be found in both the left and right DataFrame objects.Merge method | SQL Join Name | Description |
---|---|---|
left |
LEFT OUTER JOIN |
Use keys from left frame only |
right |
RIGHT OUTER JOIN |
Use keys from right frame only |
outer |
FULL OUTER JOIN |
Use union of keys from both frames |
inner |
INNER JOIN |
Use intersection of keys from both frames |
left = pd.DataFrame({'key1': ['K0', 'K0', 'K1', 'K2'],
'key2': ['K0', 'K1', 'K0', 'K1'],
'A': ['A0', 'A1', 'A2', 'A3'],
'B': ['B0', 'B1', 'B2', 'B3']})
right = pd.DataFrame({'key1': ['K0', 'K1', 'K1', 'K2'],
'key2': ['K0', 'K0', 'K0', 'K0'],
'C': ['C0', 'C1', 'C2', 'C3'],
'D': ['D0', 'D1', 'D2', 'D3']})
# 默认inner连接
result = pd.merge(left, right, on=['key1', 'key2'])
result = pd.merge(left, right, how='left', on=['key1', 'key2'])
result = pd.merge(left, right, how='right', on=['key1', 'key2'])
result = pd.merge(left, right, how='outer', on=['key1', 'key2'])
探究股票的涨跌与星期几有关?
以下图当中表示,week代表星期几,1,0代表这一天股票的涨跌幅是好还是坏,里面的数据代表比例
可以理解为所有时间为星期一等等的数据当中涨跌幅好坏的比例
交叉表:
交叉表用于计算一列数据对于另外一列数据的分组个数(寻找两个列之间的关系)
# 寻找星期几跟股票张得的关系
# 1、先把对应的日期找到星期几
date = pd.to_datetime(data.index).weekday
data['week'] = date
# 2、假如把p_change按照大小去分个类0为界限
data['posi_neg'] = np.where(data['p_change'] > 0, 1, 0)
# 通过交叉表找寻两列数据的关系
count = pd.crosstab(data['week'], data['posi_neg'])
但是我们看到count只是每个星期日子的好坏天数,并没有得到比例,该怎么去做?
# 算数运算,先求和
sum = count.sum(axis=1).astype(np.float32)
# 进行相除操作,得出比例
pro = count.div(sum, axis=0)
使用plot画出这个比例,使用stacked的柱状图
pro.plot(kind='bar', stacked=True)
plt.show()
使用透视表,刚才的过程更加简单
# 通过透视表,将整个过程变成更简单一些
data.pivot_table(['posi_neg'], index='week')
分组与聚合通常是分析数据的一种方式,通常与一些统计函数一起使用,查看数据的分组情况
想一想其实刚才的交叉表与透视表也有分组的功能,所以算是分组的一种形式,只不过他们主要是计算次数或者计算比例!!看其中的效果:
col =pd.DataFrame({'color': ['white','red','green','red','green'], 'object': ['pen','pencil','pencil','ashtray','pen'],'price1':[5.56,4.20,1.30,0.56,2.75],'price2':[4.75,4.12,1.60,0.75,3.15]})
color object price1 price2
0 white pen 5.56 4.75
1 red pencil 4.20 4.12
2 green pencil 1.30 1.60
3 red ashtray 0.56 0.75
4 green pen 2.75 3.15
# 分组,求平均值
col.groupby(['color'])['price1'].mean()
col['price1'].groupby(col['color']).mean()
color
green 2.025
red 2.380
white 5.560
Name: price1, dtype: float64
# 分组,数据的结构不变
col.groupby(['color'], as_index=False)['price1'].mean()
color price1
0 green 2.025
1 red 2.380
2 white 5.560
groupby.groups
groupby.count()
查看分组的情况
gb = col.groupby(['color'])
for name, group in gb:
print(name) # 组的名字
print(group) # 组具体内容
gb.get_group('green') # 获取green分组内容
gb = df11.groupby(['color', 'object'])
for name, group in gb:
print(group)
gb.get_group(('green','pen')) # 获取green pen分组内容
df1.groupby('key1').agg('sum')
# 可以同时做多个聚合运算
df1.groupby('key1').agg(['sum','mean','std'])
# 自定义函数,传入agg方法中 grouped.agg(func)
def peak_range(df):
return df.max() - df.min()
df1.groupby('key1').agg(peak_range)
# 同时应用多个聚合函数
df1.groupby('key1').agg(['mean', 'std', 'count', peak_range])
# 给每列作用不同的聚合函数
dict_mapping = {
'Data1':['mean','max'],
'Data2':'sum'
}
df1.groupby('key1').agg(dict_mapping)
现在我们有一组关于全球星巴克店铺的统计数据,如果我想知道美国的星巴克数量和中国的哪个多,或者我想知道中国每个省份星巴克的数量的情况,那么应该怎么办?
数据来源:https://www.kaggle.com/starbucks/store-locations/data
从文件中读取星巴克店铺数据
# 导入星巴克店的数据
starbucks = pd.read_csv("./data/starbucks/directory.csv")
# 按照国家分组,求出每个国家的星巴克零售店数量
count = starbucks.groupby(['Country']).count()
画图显示结果
count['Brand'].plot(kind='bar', figsize=(20, 8))
plt.show()
假设我们加入省市一起进行分组
# 设置多个索引,set_index()
starbucks.groupby(['Country', 'State/Province']).count()
仔细观察这个结构,与我们前面讲的哪个结构类似??
与前面的MultiIndex结构类似
# 方法一:
df = DataFrame(np.random.randint(0,150,size=(6,4)),
columns = ['zs','ls','ww','zl'],
index = [['python','python','math','math','En','En'],['期中','期末','期 中','期末','期中','期 末']])
# 方法二:pd.MultiIndex.from_arrays()
class1=['python','python','math','math','En','En']
class2=['期中','期末','期中','期末','期中','期末']
m_index2 = pd.MultiIndex.from_arrays([class1,class2])
df23 = pd.DataFrame(np.random.randint(0,150,(6,4)),index=m_index2)
# 方法三:pd.MultiIndex.from_product()
class1=['python','math','En']
class2=['期中','期末']
m_index2=pd.MultiIndex.from_product([class1,class2])
df2=pd.DataFrame(np.random.randint(0,150,(6,4)),index=m_index2)
# 获取一级索引
df2.loc['python']
# 获取多个一级索引
df2.loc[['math','En']]
# 获取一行
df2.loc['python','期中']
# 获取一个值
df2.loc['python','期中'][0]
pd.date_range(start, end, periods, freq, closed)
该函数主要用于生成一个固定频率的时间索引,在调用构造方法时,必须指定start、end、periods中的两个参数
值,否则报错。
属性 | 作用 |
---|---|
start | 起始日期 |
end | 结束日期 |
periods | 固定数量,取值为整数或None |
freq | 日期偏移量,取值为string, 默认为’D’, freq=‘1h30min’(间隔1小时30分) freq=‘10D’ (间隔10天) |
closed | 有两个值,left和right;left包含开始时间,不包含结束时间,right与之相反 |
时间序列频率:
D 日历日的每天
B 工作日的每天
H 每小时
T或min 每分钟
S 每秒
L或ms 每毫秒
U 每微秒
M 日历日的月底日期
BM 工作日的月底日期
MS 日历日的月初日期
BMS 工作日的月初日期
# 可以将时间作为索引
index = pd.date_range(start='20190101',periods=10)
df = pd.Series(np.random.randint(0,10,size = 10),index=index)
# truncate这个函数将before指定日期之前的值全部过滤出去,after指定日期之前的值全部过滤出去.
btime = df.truncate(before='2019-01-8')
print(after)
long_ts =
pd.Series(np.random.randn(1000),index=pd.date_range('1/1/2019',periods=1000))
print(long_ts)
# 根据年份获取
result = long_ts['2020']
print(result)
# 年份和日期获取
result = long_ts['2020-05']
print(result)
# 使用切片
result = long_ts['2020-05-01':'2020-05-06']
print(result)
# 通过between_time()返回位于指定时间段的数据集
index=pd.date_range("2018-03-17","2018-03-30",freq="2H")
ts = pd.Series(np.random.randn(157),index=index)
print(ts.between_time("7:00","17:00")) # 获取7:00-17:00期间的数据
# 将时间戳转化成时间根式
pd.to_datetime(1554970740000,unit='ms')
# 处理一列
df = pd.DataFrame([1554970740000, 1554970800000, 1554970860000],columns =
['time_stamp'])
pd.to_datetime(df['time_stamp'],unit='ms').dt.tz_localize('UTC').dt.tz_convert('Asia/S
hanghai')#先赋予标准时区,再转换到东八区
# 处理中文
pd.to_datetime('2019年10月10日',format='%Y年%m月%d日')
|
| freq | 日期偏移量,取值为string, 默认为’D’, freq=‘1h30min’(间隔1小时30分) freq=‘10D’ (间隔10天) |
| closed | 有两个值,left和right;left包含开始时间,不包含结束时间,right与之相反 |
时间序列频率:
D 日历日的每天
B 工作日的每天
H 每小时
T或min 每分钟
S 每秒
L或ms 每毫秒
U 每微秒
M 日历日的月底日期
BM 工作日的月底日期
MS 日历日的月初日期
BMS 工作日的月初日期
# 可以将时间作为索引
index = pd.date_range(start='20190101',periods=10)
df = pd.Series(np.random.randint(0,10,size = 10),index=index)
# truncate这个函数将before指定日期之前的值全部过滤出去,after指定日期之前的值全部过滤出去.
btime = df.truncate(before='2019-01-8')
print(after)
long_ts =
pd.Series(np.random.randn(1000),index=pd.date_range('1/1/2019',periods=1000))
print(long_ts)
# 根据年份获取
result = long_ts['2020']
print(result)
# 年份和日期获取
result = long_ts['2020-05']
print(result)
# 使用切片
result = long_ts['2020-05-01':'2020-05-06']
print(result)
# 通过between_time()返回位于指定时间段的数据集
index=pd.date_range("2018-03-17","2018-03-30",freq="2H")
ts = pd.Series(np.random.randn(157),index=index)
print(ts.between_time("7:00","17:00")) # 获取7:00-17:00期间的数据
# 将时间戳转化成时间根式
pd.to_datetime(1554970740000,unit='ms')
# 处理一列
df = pd.DataFrame([1554970740000, 1554970800000, 1554970860000],columns =
['time_stamp'])
pd.to_datetime(df['time_stamp'],unit='ms').dt.tz_localize('UTC').dt.tz_convert('Asia/S
hanghai')#先赋予标准时区,再转换到东八区
# 处理中文
pd.to_datetime('2019年10月10日',format='%Y年%m月%d日')