Pandas是入门Python做数据分析必须要掌握的一个库,是一个开放源码、BSD 许可的库,提供高性能、易于使用的数据结构和数据分析的工具。主要数据结构是 Series (一维数据)与 DataFrame(二维数据),这两种数据结构足以处理金融、统计、社会科学、工程等领域里的大多数典型用例。今天就来一起学习。
ls /home/mw/input/pandas_exercise/pandas_exercise/exercise_data/
# 运行以下代码
import pandas as pd
# 运行以下代码
path1 = "../input/pandas_exercise/pandas_exercise/exercise_data/chipotle.tsv" # chipotle.tsv
# 运行以下代码
chipo = pd.read_csv(path1, sep = '\t')
# 运行以下代码
chipo.head(10)
# 运行以下代码
chipo.shape[1]
5
# 运行以下代码
chipo.columns
Index([‘order_id’, ‘quantity’, ‘item_name’, ‘choice_description’,
‘item_price’],
dtype=‘object’)
# 运行以下代码
chipo.index
RangeIndex(start=0, stop=4622, step=1)
# 运行以下代码,做了修正
c = chipo[['item_name','quantity']].groupby(['item_name'],as_index=False).agg({
'quantity':sum})
c.sort_values(['quantity'],ascending=False,inplace=True)
c.head()
# 运行以下代码
chipo['item_name'].nunique()
50
# 运行以下代码,存在一些小问题
chipo['choice_description'].value_counts().head()
# 运行以下代码
total_items_orders = chipo['quantity'].sum()
total_items_orders
4972
# 运行以下代码
dollarizer = lambda x: float(x[1:-1])
chipo['item_price'] = chipo['item_price'].apply(dollarizer)
# 运行以下代码,已经做更正
chipo['sub_total'] = round(chipo['item_price'] * chipo['quantity'],2)
chipo['sub_total'].sum()
39237.02
# 运行以下代码
chipo['order_id'].nunique()
1834
# 运行以下代码,已经做过更正
chipo[['order_id','sub_total']].groupby(by=['order_id']
).agg({
'sub_total':'sum'})['sub_total'].mean()
21.39423118865867
# 运行以下代码
chipo['item_name'].nunique()
50
# 运行以下代码
import pandas as pd
# 运行以下代码
path2 = "../input/pandas_exercise/exercise_data/Euro2012_stats.csv" # Euro2012_stats.csv
# 运行以下代码
euro12 = pd.read_csv(path2)
euro12
# 运行以下代码
euro12.Goals
# 运行以下代码
euro12.shape[0]
16
# 运行以下代码
euro12.info()
# 运行以下代码
discipline = euro12[['Team', 'Yellow Cards', 'Red Cards']]
discipline
# 运行以下代码
discipline.sort_values(['Red Cards', 'Yellow Cards'], ascending = False)
# 运行以下代码
round(discipline['Yellow Cards'].mean())
7.0
# 运行以下代码
euro12[euro12.Goals > 6]
# 运行以下代码
euro12[euro12.Team.str.startswith('G')]
# 运行以下代码
euro12.iloc[: , 0:7]
# 运行以下代码
euro12.iloc[: , :-3]
# 运行以下代码
euro12.loc[euro12.Team.isin(['England', 'Italy', 'Russia']), ['Team','Shooting Accuracy']]
# 运行以下代码
import pandas as pd
# 运行以下代码
path3 ='../input/pandas_exercise/pandas_exercise/exercise_data/drinks.csv' #'drinks.csv'
# 运行以下代码
drinks = pd.read_csv(path3)
drinks.head()
# 运行以下代码
drinks.groupby('continent').beer_servings.mean()
# 运行以下代码
drinks.groupby('continent').wine_servings.describe()
# 运行以下代码
drinks.groupby('continent').mean()
# 运行以下代码
drinks.groupby('continent').median()
# 运行以下代码
drinks.groupby('continent').spirit_servings.agg(['mean', 'min', 'max'])
# 运行以下代码
import numpy as np
import pandas as pd
# 运行以下代码
path4 = '../input/pandas_exercise/pandas_exercise/exercise_data/US_Crime_Rates_1960_2014.csv' # "US_Crime_Rates_1960_2014.csv"
# 运行以下代码
crime = pd.read_csv(path4)
crime.head()
# 运行以下代码
crime.info()
注意到了吗,Year的数据类型为 int64,但是pandas有一个不同的数据类型去处理时间序列(time series),我们现在来看看。
# 运行以下代码
crime.Year = pd.to_datetime(crime.Year, format='%Y')
crime.info()
# 运行以下代码
crime = crime.set_index('Year', drop = True)
crime.head()
# 运行以下代码
del crime['Total']
crime.head()
crime.resample('10AS').sum()
注意Population这一列,若直接对其求和,是不正确的
# 更多关于 .resample 的介绍
# (https://pandas.pydata.org/pandas-docs/stable/generated/pandas.DataFrame.resample.html)
# 更多关于 Offset Aliases的介绍
# (http://pandas.pydata.org/pandas-docs/stable/timeseries.html#offset-aliases)
# 运行以下代码
crimes = crime.resample('10AS').sum() # resample a time series per decades
# 用resample去得到“Population”列的最大值
population = crime['Population'].resample('10AS').max()
# 更新 "Population"
crimes['Population'] = population
crimes
# 运行以下代码
crime.idxmax(0)
# 运行以下代码
import numpy as np
import pandas as pd
# 运行以下代码
raw_data_1 = {
'subject_id': ['1', '2', '3', '4', '5'],
'first_name': ['Alex', 'Amy', 'Allen', 'Alice', 'Ayoung'],
'last_name': ['Anderson', 'Ackerman', 'Ali', 'Aoni', 'Atiches']}
raw_data_2 = {
'subject_id': ['4', '5', '6', '7', '8'],
'first_name': ['Billy', 'Brian', 'Bran', 'Bryce', 'Betty'],
'last_name': ['Bonder', 'Black', 'Balwner', 'Brice', 'Btisan']}
raw_data_3 = {
'subject_id': ['1', '2', '3', '4', '5', '7', '8', '9', '10', '11'],
'test_id': [51, 15, 15, 61, 16, 14, 15, 1, 61, 16]}
# 运行以下代码
data1 = pd.DataFrame(raw_data_1, columns = ['subject_id', 'first_name', 'last_name'])
data2 = pd.DataFrame(raw_data_2, columns = ['subject_id', 'first_name', 'last_name'])
data3 = pd.DataFrame(raw_data_3, columns = ['subject_id','test_id'])
# 运行以下代码
all_data = pd.concat([data1, data2])
all_data
# 运行以下代码
all_data_col = pd.concat([data1, data2], axis = 1)
all_data_col
# 运行以下代码
data3
# 运行以下代码
pd.merge(all_data, data3, on='subject_id')
# 运行以下代码
pd.merge(data1, data2, on='subject_id', how='inner')
# 运行以下代码
pd.merge(data1, data2, on='subject_id', how='outer')
你们的支持是我持续更新下去的动力,(点赞,关注,评论) 这篇文还未结束,想了解后续的可以关注我,持续更新。
点击领取 Q群号: 943192807(纯技术交流和资源共享)以自助拿走。
①行业咨询、专业解答 ②Python开发环境安装教程 ③400集自学视频 ④软件开发常用词汇 ⑤最新学习路线图 ⑥3000多本Python电子书