import pandas as pd
detail = pd.read_excel('detail.xlsx')
print(detail.loc[:,['counts','amounts']].describe())
# 按照菜品名分类
detail['dishes_name'] = detail['dishes_name'].astype('category')
print(detail['dishes_name'].describe())
# count 10037 --10037条数据
# unique 157 --157个菜品
# top 白饭/大碗 --最多的
# freq 323 --top数
# Name: dishes_name, dtype: object
print(detail['dishes_name'].describe().top) # 白饭/大碗
# 按照订单号分类
detail['order_id'] = detail['order_id'].astype('category')
# print(detail['order_id'])
print(detail[['order_id','dishes_name']].describe())
# order_id dishes_name
# count 10037 10037
# unique 942 157
# top 398 白饭/大碗
# freq 36 323
import pandas as pd
detail = pd.read_excel('detail.xlsx')
detail['place_order_time'] = pd.to_datetime(detail['place_order_time'])
years = [i.year for i in detail['place_order_time']]
print(years) # 列表
print(detail['place_order_time'].dt.year) # 序列
import pandas as pd
import numpy as np
detail = pd.read_excel('data/meal_order_detail.xlsx')
result = detail[['order_id','counts','amounts']].groupby(by='order_id')
# print(result) #
# print(result['counts']) #
可进行分组,但分组后的所有列,只能使用相同的聚合函数操作。
如果想让不同列进行不同的聚合操作,就只能编写多次,分别操作。
# 分组后,每个订单平均点了多少份菜和菜的均价
print(result.mean())
print(result[['counts','amounts']].mean())
# 分组后,每个订单点菜数和销售总额
print(result.sum())
# 分组后,每组中的数据条数
print(result.size())
**def aggregate(self, func, axis=0, *args, ****kwargs):
不同列可进行不同的聚合操作。
对counts和amounts进行求和操作
print(detail[['counts','amounts']].agg(np.sum))
对counts进行求和操作,对amounts进行均值操作
func接收多个函数名,使用列表将多个函数名封装起来。
print(detail[['counts','amounts']].agg([np.sum,np.mean]))
# counts amounts
# sum 11126.000000 449872.000000
# mean 1.108499 44.821361
print(detail.agg({'counts':np.sum,'amounts':np.mean}))
# counts 11126.000000
# amounts 44.821361
# dtype: float64
print(detail.agg({'counts':np.sum,'amounts':[np.sum,np.mean]}))
# counts amounts
# mean NaN 44.821361
# sum 11126.0 449872.000000
销量*2
def double_sum(data):
return np.sum(data)*2
print(detail.agg({'counts':double_sum}))
格式:DataFrameGroupBy.聚合函数
result = detail[['order_id','counts','amounts']].groupby(by='order_id')
print(result.agg({'counts':np.sum,'amounts':[np.sum,np.mean]}))
**def apply(self, func, axis=0, broadcast=False, raw=False, reduce=None,args=(), ****kwds):
detail[[‘counts’,‘amounts’]]–DataFrame
detail[‘counts’]–Series
可以对DataFrame操作,也可以对Series进行操作。
print(detail[['counts','amounts']].apply(np.mean))
print(result.apply(np.mean))
apply是对整个表格中的数据进行整合;agg可以让不同的字段执行不同的聚合函数。
本质:就是对原始数据进行线性变换。
特点:通过离差标准化的计算后,计算的值将落在[0,1]区间内。
解决离差标准化的好处:
例
薪资数据:5000,6000,8000,10000,15000
第一组(以元为单位):
5000,6000,8000,10000,15000
第二组(以k为单位):
5,6,8,10,15
对这两组数据计算方差/标准差,以表示数据的离散程度。
显然第一组数据要比第二组数据的标准差大得多,也就是更加离散。
公式:new_X = (X-min)/(max-min)
值域:[0,1]
counts_min = detail['counts'].min()
counts_max = detail['counts'].max()
print(detail['counts'].transform(lambda x:(x-counts_min)/(counts_max-counts_min)))
amounts_min = detail['amounts'].min()
amounts_max = detail['amounts'].max()
print(detail['amounts'].transform(lambda x:(x-amounts_min)/(amounts_max-amounts_min)))
解决前后的标准差对比
print(detail['amounts'].std()) # 36.80855003545274
amounts_min = detail['amounts'].min()
amounts_max = detail['amounts'].max()
detail['amounts_std'] = (detail['amounts']-amounts_min)/(amounts_max-amounts_min)
print(detail['amounts_std'].std()) # 0.2079579098048175
def pivot_table(data, values=None, index=None, columns=None, aggfunc=‘mean’,fill_value=None, margins=False, dropna=True,margins_name=‘All’):
aggfunc–聚合函数名,不指定时,默认使用mean求平均
detail_pivot1 = pd.pivot_table(detail[['order_id','counts','amounts']],index='order_id')
print(detail_pivot1)
detail_pivot2 = pd.pivot_table(detail[['order_id','counts','amounts']],index='order_id',aggfunc=np.sum)
detail_pivot2 = pd.pivot_table(detail[['order_id','counts','amounts']],index='order_id',aggfunc='sum')
print(detail_pivot2)
index参数不能跟字段名,要跟字段值。
result = pd.crosstab(index=detail['order_id'],columns=detail['dishes_name'],values=detail['counts'],aggfunc=np.sum)
print(result)
import pandas as pd
import numpy as np
data = pd.read_excel('英雄联盟员工信息表.xlsx')
1.表中有些员工数据是重复的,通过选取合适的字段对整个表进行去重
当工号与名字一样时认为该数据为重复
print('原始:\n',data.shape)
# inplace=True--无返回值
# inplace=False--有返回值
data.drop_duplicates(subset=['姓名','工号'],inplace=True)
print('去重后:\n',data.shape)
2.员工平均工作年限是多少?
print(data['工龄'].mean())
3.公司任职最久的三名员工分别是谁?
对一个序列进行排序
def sort_values(self, by, axis=0, ascending=True, inplace=False,kind=‘quicksort’, na_position=‘last’):
ascending–默认True,升序;False为降序
# results = data['工龄'].sort_values(by='工龄') # 会报错
result = data[['姓名','工龄']].sort_values(by='工龄',ascending=False,inplace=False)
print(result.head(3))
4.员工总体流失率是多少?
序列–>数组
print(data['姓名'])# print(data['姓名'].values)
data[‘状态’] == ‘离职’ – 广播
mask = data['状态']=='离职'
print(data.iloc[mask,:])
num = data.iloc[mask.values,:].shape[0]
print('离职率:',num/data.shape[0])
还可简化为
num = mask.values.sum()
print('离职率:',num/data.shape[0])
5.各部门有多少名员工?
result = data[['部门','姓名']].groupby(by='部门').count()
print(result)
有时inplace=True,会报警告。
比如:
data[['姓名','工龄']].sort_values(by='工龄',ascending=False,inplace=True)
原因:
原始数据有八列,这里将’姓名’、'工龄’两列排序。
如果使用inplace=True修改原始数据,就相当于剩下的六列没变化,将排序后的两列放入,会造成数据混乱。