第5章 合并
import numpy as np
import pandas as pd
df = pd.read_csv('data/table.csv')
df.head()
|
School |
Class |
ID |
Gender |
Address |
Height |
Weight |
Math |
Physics |
0 |
S_1 |
C_1 |
1101 |
M |
street_1 |
173 |
63 |
34.0 |
A+ |
1 |
S_1 |
C_1 |
1102 |
F |
street_2 |
192 |
73 |
32.5 |
B+ |
2 |
S_1 |
C_1 |
1103 |
M |
street_2 |
186 |
82 |
87.2 |
B+ |
3 |
S_1 |
C_1 |
1104 |
F |
street_2 |
167 |
81 |
80.4 |
B- |
4 |
S_1 |
C_1 |
1105 |
F |
street_4 |
159 |
64 |
84.8 |
B+ |
一、append与assign
1. append方法
(a)利用序列添加行(必须指定name)
df_append = df.loc[:3,['Gender','Height']].copy()
df_append
|
Gender |
Height |
0 |
M |
173 |
1 |
F |
192 |
2 |
M |
186 |
3 |
F |
167 |
s = pd.Series({'Gender':'F','Height':188},name='new_row')
df_append.append(s)
|
Gender |
Height |
0 |
M |
173 |
1 |
F |
192 |
2 |
M |
186 |
3 |
F |
167 |
new_row |
F |
188 |
(b)用DataFrame添加表
df_temp = pd.DataFrame({'Gender':['F','M'],'Height':[188,176]},index=['new_1','new_2'])
df_append.append(df_temp)
|
Gender |
Height |
0 |
M |
173 |
1 |
F |
192 |
2 |
M |
186 |
3 |
F |
167 |
new_1 |
F |
188 |
new_2 |
M |
176 |
2. assign方法
该方法主要用于添加列,列名直接由参数指定:
s = pd.Series(list('abcd'),index=range(4))
df_append.assign(Letter=s)
|
Gender |
Height |
Letter |
0 |
M |
173 |
a |
1 |
F |
192 |
b |
2 |
M |
186 |
c |
3 |
F |
167 |
d |
可以一次添加多个列:
df_append.assign(col1=lambda x:x['Gender']*2,
col3=s)
|
Gender |
Height |
col1 |
col3 |
0 |
M |
173 |
MM |
a |
1 |
F |
192 |
FF |
b |
2 |
M |
186 |
MM |
c |
3 |
F |
167 |
FF |
d |
二、combine与update
1. comine方法
comine和update都是用于表的填充函数,可以根据某种规则填充
(a)填充对象
可以看出combine方法是按照表的顺序轮流进行逐列循环的,而且自动索引对齐,缺失值为NaN,理解这一点很重要
df_combine_1 = df.loc[:1,['Gender','Height']].copy()
df_combine_2 = df.loc[10:11,['Gender','Height']].copy()
df_combine_1.combine(df_combine_2,lambda x,y:print(x,y))
0 M
1 F
10 NaN
11 NaN
Name: Gender, dtype: object 0 NaN
1 NaN
10 M
11 F
Name: Gender, dtype: object
0 173.0
1 192.0
10 NaN
11 NaN
Name: Height, dtype: float64 0 NaN
1 NaN
10 161.0
11 175.0
Name: Height, dtype: float64
|
Gender |
Height |
0 |
NaN |
NaN |
1 |
NaN |
NaN |
10 |
NaN |
NaN |
11 |
NaN |
NaN |
(b)一些例子
例①:根据列均值的大小填充
df1 = pd.DataFrame({'A': [1,10], 'B': [3,4]})
df2 = pd.DataFrame({'A': [8, 7], 'B': [6, 5]})
df1.combine(df2,lambda x,y:x if x.mean()>y.mean() else y)
例②:索引对齐特性(默认状态下,后面的表没有的行列都会设置为NaN)
df2 = pd.DataFrame({'B': [8, 7], 'C': [6, 5]},index=[1,2])
df1.combine(df2,lambda x,y:x if x.mean()>y.mean() else y)
|
A |
B |
C |
0 |
NaN |
NaN |
NaN |
1 |
NaN |
8.0 |
6.0 |
2 |
NaN |
7.0 |
5.0 |
例③:使得df1原来符合条件的值不会被覆盖
df1.combine(df2,lambda x,y:x if x.mean()>y.mean() else y,overwrite=False)
|
A |
B |
C |
0 |
1.0 |
NaN |
NaN |
1 |
2.0 |
8.0 |
6.0 |
2 |
NaN |
7.0 |
5.0 |
例④:在新增匹配df2的元素位置填充-1
df1.combine(df2,lambda x,y:x if x.mean()>y.mean() else y,fill_value=-1)
|
A |
B |
C |
0 |
1.0 |
-1.0 |
-1.0 |
1 |
2.0 |
8.0 |
6.0 |
2 |
-1.0 |
7.0 |
5.0 |
(c)combine_first方法
这个方法作用是用df2填补df1的缺失值,功能比较简单,但很多时候会比combine更常用,下面举两个例子:
df1 = pd.DataFrame({'A': [None, 0], 'B': [None, 4]})
df2 = pd.DataFrame({'A': [1, 1], 'B': [3, 3]})
df1.combine_first(df2)
df1 = pd.DataFrame({'A': [None, 0], 'B': [4, None]})
df2 = pd.DataFrame({'B': [3, 3], 'C': [1, 1]}, index=[1, 2])
df1.combine_first(df2)
|
A |
B |
C |
0 |
NaN |
4.0 |
NaN |
1 |
0.0 |
3.0 |
1.0 |
2 |
NaN |
3.0 |
1.0 |
2. update方法
(a)三个特点
①返回的框索引只会与被调用框的一致(默认使用左连接,下一节会介绍)
②第二个框中的nan元素不会起作用
③没有返回值,直接在df上操作
(b)例子
例①:索引完全对齐情况下的操作
df1 = pd.DataFrame({'A': [1, 2, 3],
'B': [400, 500, 600]})
df2 = pd.DataFrame({'B': [4, 5, 6],
'C': [7, 8, 9]})
df1.update(df2)
df1
例②:部分填充
df1 = pd.DataFrame({'A': ['a', 'b', 'c'],
'B': ['x', 'y', 'z']})
df2 = pd.DataFrame({'B': ['d', 'e']}, index=[1,2])
df1.update(df2)
df1
例③:缺失值不会填充
df1 = pd.DataFrame({'A': [1, 2, 3],
'B': [400, 500, 600]})
df2 = pd.DataFrame({'B': [4, np.nan, 6]})
df1.update(df2)
df1
|
A |
B |
0 |
1 |
4.0 |
1 |
2 |
500.0 |
2 |
3 |
6.0 |
三、concat方法
concat方法可以在两个维度上拼接,默认纵向凭借(axis=0),拼接方式默认外连接
所谓外连接,就是取拼接方向的并集,而’inner’时取拼接方向(若使用默认的纵向拼接,则为列的交集)的交集
下面举一些例子说明其参数:
df1 = pd.DataFrame({'A': ['A0', 'A1'],
'B': ['B0', 'B1']},
index = [0,1])
df2 = pd.DataFrame({'A': ['A2', 'A3'],
'B': ['B2', 'B3']},
index = [2,3])
df3 = pd.DataFrame({'A': ['A1', 'A3'],
'D': ['D1', 'D3'],
'E': ['E1', 'E3']},
index = [1,3])
默认状态拼接:
pd.concat([df1,df2])
|
A |
B |
0 |
A0 |
B0 |
1 |
A1 |
B1 |
2 |
A2 |
B2 |
3 |
A3 |
B3 |
axis=1时沿列方向拼接:
pd.concat([df1,df2],axis=1)
|
A |
B |
A |
B |
0 |
A0 |
B0 |
NaN |
NaN |
1 |
A1 |
B1 |
NaN |
NaN |
2 |
NaN |
NaN |
A2 |
B2 |
3 |
NaN |
NaN |
A3 |
B3 |
join设置为内连接(由于axis=0,因此列取交集):
pd.concat([df3,df1],join='inner')
join设置为外链接:
pd.concat([df3,df1],join='outer',sort=True)
|
A |
B |
D |
E |
1 |
A1 |
NaN |
D1 |
E1 |
3 |
A3 |
NaN |
D3 |
E3 |
0 |
A0 |
B0 |
NaN |
NaN |
1 |
A1 |
B1 |
NaN |
NaN |
verify_integrity检查列是否唯一:
同样,可以添加Series:
s = pd.Series(['X0', 'X1'], name='X')
pd.concat([df1,s],axis=1)
|
A |
B |
X |
0 |
A0 |
B0 |
X0 |
1 |
A1 |
B1 |
X1 |
key参数用于对不同的数据框增加一个标号,便于索引:
pd.concat([df1,df2], keys=['x', 'y'])
pd.concat([df1,df2], keys=['x', 'y']).index
MultiIndex([('x', 0),
('x', 1),
('y', 2),
('y', 3)],
)
四、merge与join
1. merge函数
merge函数的作用是将两个pandas对象横向合并,遇到重复的索引项时会使用笛卡尔积,默认inner连接,可选left、outer、right连接
所谓左连接,就是指以第一个表索引为基准,右边的表中如果不再左边的则不加入,如果在左边的就以笛卡尔积的方式加入
merge/join与concat的不同之处在于on参数,可以指定某一个对象为key来进行连接
同样的,下面举一些例子:
left = pd.DataFrame({'key1': ['K0', 'K0', 'K1', 'K2'],
'key2': ['K0', 'K1', 'K0', 'K1'],
'A': ['A0', 'A1', 'A2', 'A3'],
'B': ['B0', 'B1', 'B2', 'B3']})
right = pd.DataFrame({'key1': ['K0', 'K1', 'K1', 'K2'],
'key2': ['K0', 'K0', 'K0', 'K0'],
'C': ['C0', 'C1', 'C2', 'C3'],
'D': ['D0', 'D1', 'D2', 'D3']})
right2 = pd.DataFrame({'key1': ['K0', 'K1', 'K1', 'K2'],
'key2': ['K0', 'K0', 'K0', 'K0'],
'C': ['C0', 'C1', 'C2', 'C3']})
以key1为准则连接,如果具有相同的列,则默认suffixes=(’_x’,’_y’):
pd.merge(left, right, on='key1')
|
key1 |
key2_x |
A |
B |
key2_y |
C |
D |
0 |
K0 |
K0 |
A0 |
B0 |
K0 |
C0 |
D0 |
1 |
K0 |
K1 |
A1 |
B1 |
K0 |
C0 |
D0 |
2 |
K1 |
K0 |
A2 |
B2 |
K0 |
C1 |
D1 |
3 |
K1 |
K0 |
A2 |
B2 |
K0 |
C2 |
D2 |
4 |
K2 |
K1 |
A3 |
B3 |
K0 |
C3 |
D3 |
以多组键连接:
pd.merge(left, right, on=['key1','key2'])
|
key1 |
key2 |
A |
B |
C |
D |
0 |
K0 |
K0 |
A0 |
B0 |
C0 |
D0 |
1 |
K1 |
K0 |
A2 |
B2 |
C1 |
D1 |
2 |
K1 |
K0 |
A2 |
B2 |
C2 |
D2 |
默认使用inner连接,因为merge只能横向拼接,所以取行向上keys的交集,下面看如果使用how=outer参数
注意:这里的how就是concat的join
pd.merge(left, right, how='outer', on=['key1','key2'])
|
key1 |
key2 |
A |
B |
C |
D |
0 |
K0 |
K0 |
A0 |
B0 |
C0 |
D0 |
1 |
K0 |
K1 |
A1 |
B1 |
NaN |
NaN |
2 |
K1 |
K0 |
A2 |
B2 |
C1 |
D1 |
3 |
K1 |
K0 |
A2 |
B2 |
C2 |
D2 |
4 |
K2 |
K1 |
A3 |
B3 |
NaN |
NaN |
5 |
K2 |
K0 |
NaN |
NaN |
C3 |
D3 |
左连接:
pd.merge(left, right, how='left', on=['key1', 'key2'])
|
key1 |
key2 |
A |
B |
C |
D |
0 |
K0 |
K0 |
A0 |
B0 |
C0 |
D0 |
1 |
K0 |
K1 |
A1 |
B1 |
NaN |
NaN |
2 |
K1 |
K0 |
A2 |
B2 |
C1 |
D1 |
3 |
K1 |
K0 |
A2 |
B2 |
C2 |
D2 |
4 |
K2 |
K1 |
A3 |
B3 |
NaN |
NaN |
右连接:
pd.merge(left, right, how='right', on=['key1', 'key2'])
|
key1 |
key2 |
A |
B |
C |
D |
0 |
K0 |
K0 |
A0 |
B0 |
C0 |
D0 |
1 |
K1 |
K0 |
A2 |
B2 |
C1 |
D1 |
2 |
K1 |
K0 |
A2 |
B2 |
C2 |
D2 |
3 |
K2 |
K0 |
NaN |
NaN |
C3 |
D3 |
如果还是对笛卡尔积不太了解,请务必理解下面这个例子,由于B的所有元素为2,因此需要6行:
left = pd.DataFrame({'A': [1, 2], 'B': [2, 2]})
right = pd.DataFrame({'A': [4, 5, 6], 'B': [2, 2, 2]})
pd.merge(left, right, on='B', how='outer')
|
A_x |
B |
A_y |
0 |
1 |
2 |
4 |
1 |
1 |
2 |
5 |
2 |
1 |
2 |
6 |
3 |
2 |
2 |
4 |
4 |
2 |
2 |
5 |
5 |
2 |
2 |
6 |
validate检验的是到底哪一边出现了重复索引,如果是“one_to_one”则两侧索引都是唯一,如果"one_to_many"则左侧唯一
left = pd.DataFrame({'A': [1, 2], 'B': [2, 2]})
right = pd.DataFrame({'A': [4, 5, 6], 'B': [2, 3, 4]})
left = pd.DataFrame({'A': [1, 2], 'B': [2, 1]})
pd.merge(left, right, on='B', how='outer',validate='one_to_one')
|
A_x |
B |
A_y |
0 |
1.0 |
2 |
4.0 |
1 |
2.0 |
1 |
NaN |
2 |
NaN |
3 |
5.0 |
3 |
NaN |
4 |
6.0 |
indicator参数指示了,合并后该行索引的来源
df1 = pd.DataFrame({'col1': [0, 1], 'col_left': ['a', 'b']})
df2 = pd.DataFrame({'col1': [1, 2, 2], 'col_right': [2, 2, 2]})
pd.merge(df1, df2, on='col1', how='outer', indicator=True)
|
col1 |
col_left |
col_right |
_merge |
0 |
0 |
a |
NaN |
left_only |
1 |
1 |
b |
2.0 |
both |
2 |
2 |
NaN |
2.0 |
right_only |
3 |
2 |
NaN |
2.0 |
right_only |
2. join函数
join函数作用是将多个pandas对象横向拼接,遇到重复的索引项时会使用笛卡尔积,默认左连接,可选inner、outer、right连接
left = pd.DataFrame({'A': ['A0', 'A1', 'A2'],
'B': ['B0', 'B1', 'B2']},
index=['K0', 'K1', 'K2'])
right = pd.DataFrame({'C': ['C0', 'C2', 'C3'],
'D': ['D0', 'D2', 'D3']},
index=['K0', 'K2', 'K3'])
left.join(right)
|
A |
B |
C |
D |
K0 |
A0 |
B0 |
C0 |
D0 |
K1 |
A1 |
B1 |
NaN |
NaN |
K2 |
A2 |
B2 |
C2 |
D2 |
对于many_to_one模式下的合并,往往join更为方便
同样可以指定key:
left = pd.DataFrame({'A': ['A0', 'A1', 'A2', 'A3'],
'B': ['B0', 'B1', 'B2', 'B3'],
'key': ['K0', 'K1', 'K0', 'K1']})
right = pd.DataFrame({'C': ['C0', 'C1'],
'D': ['D0', 'D1']},
index=['K0', 'K1'])
left.join(right, on='key')
|
A |
B |
key |
C |
D |
0 |
A0 |
B0 |
K0 |
C0 |
D0 |
1 |
A1 |
B1 |
K1 |
C1 |
D1 |
2 |
A2 |
B2 |
K0 |
C0 |
D0 |
3 |
A3 |
B3 |
K1 |
C1 |
D1 |
多层key:
left = pd.DataFrame({'A': ['A0', 'A1', 'A2', 'A3'],
'B': ['B0', 'B1', 'B2', 'B3'],
'key1': ['K0', 'K0', 'K1', 'K2'],
'key2': ['K0', 'K1', 'K0', 'K1']})
index = pd.MultiIndex.from_tuples([('K0', 'K0'), ('K1', 'K0'),
('K2', 'K0'), ('K2', 'K1')],names=['key1','key2'])
right = pd.DataFrame({'C': ['C0', 'C1', 'C2', 'C3'],
'D': ['D0', 'D1', 'D2', 'D3']},
index=index)
left.join(right, on=['key1','key2'])
|
A |
B |
key1 |
key2 |
C |
D |
0 |
A0 |
B0 |
K0 |
K0 |
C0 |
D0 |
1 |
A1 |
B1 |
K0 |
K1 |
NaN |
NaN |
2 |
A2 |
B2 |
K1 |
K0 |
C1 |
D1 |
3 |
A3 |
B3 |
K2 |
K1 |
C3 |
D3 |
五、问题与练习
1. 问题
【问题一】 请思考什么是append/assign/combine/update/concat/merge/join各自最适合使用的场景,并举出相应的例子。
append:增加行,必须要指定列名和索引名
s = pd.Series({‘Gender’:‘F’,‘Height’:188},name=‘new_row’)
df_append.append(s)
assign:增加列,列名由参数决定
s = pd.Series(list(‘abcd’),index=range(4))
df_append.assign(Letter=s)
combine:两个表进行填充时
# 例子1
df1 = pd.DataFrame({‘A’: [1,10], ‘B’: [3,4]})
df2 = pd.DataFrame({‘A’: [8, 7], ‘B’: [6, 5]})
df1.combine(df2,lambda x,y:x if x.mean()>y.mean() else y,overwrite=False)
update:用df2中的值替换df中的值,最后结果直接在df1中更改,形状不变
df1.update(df2)
concat:两个表进行连接,concat方法可以在两个维度上拼接,默认纵向凭借(axis=0),拼接方式默认外连接
所谓外连接,就是取拼接方向的并集,而’inner’时取拼接方向(若使用默认的纵向拼接,则为列的交集)的交集
pd.concat([df1,df2])
merge:merge函数的作用是将两个pandas对象横向合并,遇到重复的索引项时会使用笛卡尔积,默认inner连接,可选left、outer、right连接
所谓左连接,就是指以第一个表索引为基准,右边的表中如果不再左边的则不加入,如果在左边的就以笛卡尔积的方式加入
merge/join与concat的不同之处在于on参数,可以指定某一个对象为key来进行连接
pd.merge(left, right, on=‘key1’)
join:join函数作用是将多个pandas对象横向拼接,遇到重复的索引项时会使用笛卡尔积,默认左连接,可选inner、outer、right连接
left.join(right)
【问题二】 merge_ordered和merge_asof的作用是什么?和merge是什么关系?
merge_ordered函数允许组合时间序列和其他有序数据。 特别是它有一个可选的fill_method关键字来填充/插入缺失的数据。
merge_asof除了我们匹配最近的键而不是相等的键之外,其他的都类似于有序的left-join 。 对于左侧DataFrame中的每一行,我们选择右侧DataFrame中on键对应的值小于left的键对应的值的最后一行。 两个DataFrame必须按键排序。
【问题三】 请构造一个多级索引与多级索引合并的例子,尝试使用不同的合并函数。
left = pd.DataFrame({'A': [1, 2], 'B': [2, 2],'C':[9,8]}).set_index(['A','B'])
right = pd.DataFrame({'A': [2, 2, 6], 'B': [2, 3, 4],'C':[7,8,9]}).set_index(['A','B'])
left.append(right)
|
|
C |
A |
B |
|
1 |
2 |
9 |
2 |
2 |
8 |
2 |
7 |
3 |
8 |
6 |
4 |
9 |
left.combine(right,lambda x,y:x if x.mean()>y.mean() else y)
|
|
C |
A |
B |
|
1 |
2 |
9.0 |
2 |
2 |
8.0 |
3 |
NaN |
6 |
4 |
NaN |
pd.merge(df1,df2)
【问题四】 上文提到了连接的笛卡尔积,那么当连接方式变化时(inner/outer/left/right),这种笛卡尔积规则会相应变化吗?请构造相应例子。
left = pd.DataFrame({'A': ['A0', 'A1', 'A2'],
'B': ['B0', 'B1', 'B2']},
index=['K0', 'K1', 'K2'])
right = pd.DataFrame({'C': ['C0', 'C2', 'C3'],
'D': ['D0', 'D2', 'D3']},
index=['K0', 'K2', 'K3'])
left.join(right,how='inner')
|
A |
B |
C |
D |
K0 |
A0 |
B0 |
C0 |
D0 |
K2 |
A2 |
B2 |
C2 |
D2 |
left.join(right,how='left')
|
A |
B |
C |
D |
K0 |
A0 |
B0 |
C0 |
D0 |
K1 |
A1 |
B1 |
NaN |
NaN |
K2 |
A2 |
B2 |
C2 |
D2 |
left.join(right,how='right')
|
A |
B |
C |
D |
K0 |
A0 |
B0 |
C0 |
D0 |
K2 |
A2 |
B2 |
C2 |
D2 |
K3 |
NaN |
NaN |
C3 |
D3 |
会根据连接方式不同而不同
2. 练习
【练习一】有2张公司的员工信息表,每个公司共有16名员工,共有五个公司,请解决如下问题:
df1=pd.read_csv('data/Employee1.csv')
df1.head()
|
Company |
Name |
Age |
Height |
Weight |
Salary |
0 |
A |
a1 |
47 |
188 |
63.7 |
25819 |
1 |
A |
a3 |
39 |
172 |
55.9 |
21983 |
2 |
A |
a4 |
43 |
158 |
62.5 |
21755 |
3 |
A |
a6 |
42 |
182 |
76.9 |
17354 |
4 |
A |
a7 |
49 |
171 |
94.6 |
6177 |
df2=pd.read_csv('data/Employee2.csv')
df2.head()
|
Company |
Name |
Age |
Height |
Weight |
Salary |
0 |
A |
a1 |
30 |
156 |
91.2 |
28133 |
1 |
A |
a2 |
50 |
190 |
83.4 |
6673 |
2 |
A |
a3 |
34 |
168 |
96.6 |
16503 |
3 |
A |
a5 |
51 |
176 |
97.2 |
23294 |
4 |
A |
a6 |
37 |
183 |
93.2 |
19256 |
(a) 每个公司有多少员工满足如下条件:既出现第一张表,又出现在第二张表。
n = set(df1['Name'].values.tolist())&set(df2['Name'].values.tolist())
n
{'a1',
'a3',
'a6',
'b1',
'b15',
'b3',
'b7',
'c10',
'c12',
'c13',
'c3',
'd10',
'd5',
'e10',
'e11',
'e8'}
(b) 将所有不符合(a)中条件的行筛选出来,合并为一张新表,列名与原表一致。
df = pd.concat([df1,df2])
b = df[~df['Name'].isin( n)]
b
|
Company |
Name |
Age |
Height |
Weight |
Salary |
2 |
A |
a4 |
43 |
158 |
62.5 |
21755 |
4 |
A |
a7 |
49 |
171 |
94.6 |
6177 |
5 |
A |
a8 |
51 |
168 |
89.5 |
3246 |
6 |
A |
a9 |
36 |
186 |
62.8 |
3569 |
7 |
A |
a13 |
58 |
190 |
75.9 |
21854 |
8 |
A |
a15 |
35 |
162 |
97.2 |
4706 |
9 |
A |
a16 |
35 |
157 |
77.6 |
16130 |
12 |
B |
b5 |
36 |
171 |
68.4 |
22547 |
13 |
B |
b6 |
46 |
184 |
98.9 |
19493 |
15 |
B |
b9 |
52 |
187 |
80.5 |
21171 |
16 |
B |
b10 |
37 |
177 |
95.6 |
14376 |
17 |
B |
b14 |
52 |
181 |
51.9 |
11474 |
20 |
C |
c4 |
41 |
190 |
61.8 |
19258 |
21 |
C |
c5 |
36 |
165 |
84.3 |
6563 |
22 |
C |
c7 |
32 |
189 |
58.1 |
24791 |
23 |
C |
c9 |
32 |
176 |
92.5 |
11797 |
27 |
D |
d2 |
52 |
190 |
84.7 |
9382 |
29 |
D |
d6 |
45 |
178 |
92.5 |
19393 |
30 |
D |
d9 |
52 |
160 |
71.8 |
13531 |
32 |
D |
d11 |
55 |
183 |
93.9 |
12547 |
33 |
E |
e4 |
37 |
167 |
91.3 |
19171 |
34 |
E |
e7 |
44 |
164 |
51.9 |
13035 |
38 |
E |
e13 |
57 |
180 |
54.8 |
26837 |
39 |
E |
e14 |
39 |
163 |
83.0 |
20554 |
1 |
A |
a2 |
50 |
190 |
83.4 |
6673 |
3 |
A |
a5 |
51 |
176 |
97.2 |
23294 |
5 |
A |
a10 |
56 |
164 |
82.2 |
24799 |
6 |
A |
a12 |
36 |
177 |
96.9 |
10270 |
7 |
A |
a14 |
56 |
190 |
62.6 |
10229 |
9 |
B |
b2 |
43 |
184 |
70.1 |
13092 |
12 |
B |
b8 |
40 |
158 |
81.4 |
13511 |
13 |
B |
b11 |
34 |
161 |
74.4 |
15788 |
14 |
B |
b13 |
57 |
157 |
52.3 |
4549 |
16 |
C |
c1 |
60 |
172 |
83.8 |
14374 |
17 |
C |
c2 |
59 |
186 |
76.2 |
11086 |
19 |
C |
c6 |
50 |
183 |
56.7 |
20698 |
21 |
C |
c11 |
54 |
173 |
92.1 |
13031 |
24 |
D |
d1 |
55 |
155 |
75.1 |
21312 |
25 |
D |
d4 |
38 |
167 |
80.5 |
27224 |
27 |
D |
d7 |
31 |
168 |
54.9 |
22548 |
28 |
D |
d8 |
34 |
164 |
51.0 |
24060 |
30 |
E |
e2 |
60 |
183 |
67.3 |
15515 |
31 |
E |
e3 |
40 |
186 |
99.1 |
9976 |
32 |
E |
e6 |
44 |
165 |
91.5 |
28818 |
36 |
E |
e12 |
54 |
157 |
79.4 |
18490 |
© 现在需要编制所有80位员工的信息表,对于(b)中的员工要求不变,对于满足(a)条件员工,它们在某个指标的数值,取偏离它所属公司中满足(b)员工的均值数较小的哪一个,例如:P公司在两张表的交集为{p1},并集扣除交集为{p2,p3,p4},那么如果后者集合的工资均值为1万元,且p1在表1的工资为13000元,在表2的工资为9000元,那么应该最后取9000元作为p1的工资,最后对于没有信息的员工,利用缺失值填充。
df1 = pd.read_csv('data/Employee1.csv')
df2 = pd.read_csv('data/Employee2.csv')
df1['重复'] = ['Y_1' if df1.loc[i,'Name'] in n else 'N' for i in range(df1.shape[0])]
df2['重复'] = ['Y_2' if df2.loc[i,'Name'] in n else 'N' for i in range(df2.shape[0])]
df1 = df1.set_index(['Name','重复'])
df2 = df2.set_index(['Name','重复'])
df_c = pd.concat([df1,df2])
result = pd.DataFrame({'Company':[],'Name':[],'Age':[],'Height':[],'Weight':[],'Salary':[]})
group = df_c.groupby(['Company','重复'])
for i in n:
first = group.get_group((i[0].upper(),'Y_1')).reset_index(level=1).loc[i,:][-4:]
second = group.get_group((i[0].upper(),'Y_2')).reset_index(level=1).loc[i,:][-4:]
mean = group.get_group((i[0].upper(),'N')).reset_index(level=1).mean()
final = [i[0].upper(),i]
for j in range(4):
final.append(first[j] if abs(first[j]-mean[j])<abs(second[j]-mean[j]) else second[j])
result = pd.concat([result,pd.DataFrame({result.columns.tolist()[k]:[final[k]] for k in range(6)})])
result = pd.concat([result.set_index('Name'),b])
for i in list('abcde'):
for j in range(1,17):
item = i+str(j)
if item not in result.index:
result = pd.concat([result,pd.DataFrame({'Company':[i.upper()],'Name':[item]
,'Age':[np.nan],'Height':[np.nan],'Weight':[np.nan],'Salary':[np.nan]}).set_index('Name')])
print(result.index)
result['Number'] = [i for i in result.index]
result.reset_index().drop(columns='Name').set_index(['Company','Number']).sort_index()
/home/myth/anaconda3/lib/python3.6/site-packages/ipykernel_launcher.py:18: FutureWarning: Sorting because non-concatenation axis is not aligned. A future version
of pandas will change to not sort by default.
To accept the future behavior, pass 'sort=False'.
To retain the current behavior and silence the warning, pass 'sort=True'.
/home/myth/anaconda3/lib/python3.6/site-packages/ipykernel_launcher.py:24: FutureWarning: Sorting because non-concatenation axis is not aligned. A future version
of pandas will change to not sort by default.
To accept the future behavior, pass 'sort=False'.
To retain the current behavior and silence the warning, pass 'sort=True'.
Index(['e10', 'd10', 'c13', 'a6', 'b1', 'c12', 'c10', 'c3', 'b15', 'a1',
...
'e4', 'e5', 'e6', 'e7', 'e9', 'e12', 'e13', 'e14', 'e15', 'e16'],
dtype='object', length=125)
|
|
index |
Age |
Height |
Salary |
Weight |
Company |
Number |
|
|
|
|
|
A |
1 |
1 |
50.0 |
190.0 |
6673.0 |
83.4 |
2 |
2 |
43.0 |
158.0 |
21755.0 |
62.5 |
3 |
3 |
51.0 |
176.0 |
23294.0 |
97.2 |
4 |
4 |
49.0 |
171.0 |
6177.0 |
94.6 |
5 |
5 |
51.0 |
168.0 |
3246.0 |
89.5 |
... |
... |
... |
... |
... |
... |
... |
E |
e5 |
e5 |
NaN |
NaN |
NaN |
NaN |
e6 |
e6 |
NaN |
NaN |
NaN |
NaN |
e7 |
e7 |
NaN |
NaN |
NaN |
NaN |
e8 |
e8 |
45.0 |
171.0 |
20836.0 |
68.1 |
e9 |
e9 |
NaN |
NaN |
NaN |
NaN |
125 rows × 5 columns
【练习二】有2张课程的分数表(分数随机生成),但专业课(学科基础课、专业必修课、专业选修课)与其他课程混在一起,请解决如下问题:
df1 = pd.read_csv('data/Course1.csv')
df1.head()
|
课程名字 |
课程类别 |
学分 |
分数 |
0 |
思想道德修养与法律基础 |
思政类 |
3 |
89.0 |
1 |
云计算应用与开发 |
专业选修课 |
3 |
96.0 |
2 |
社会计算 |
专业选修课 |
3 |
78.0 |
3 |
深度学习 |
专业选修课 |
3 |
75.0 |
4 |
人工智能导论 |
专业必修课 |
3 |
84.0 |
df2=pd.read_csv('data/Course2.csv')
df2.head()
|
课程名字 |
课程类别 |
学分 |
分数 |
0 |
高等数学(一) |
学科基础课 |
4 |
99.0 |
1 |
数据科学与工程导论 |
学科基础课 |
3 |
NaN |
2 |
专业英语 |
学科基础课 |
2 |
100.0 |
3 |
概率论 |
学科基础课 |
3 |
99.0 |
4 |
计算机系统 |
专业必修课 |
4 |
80.0 |
(a) 将两张表分别拆分为专业课与非专业课(结果为四张表)。
df_a11,df_a12,df_a21,df_a22 =0,0,0,0
df_a11= df1.query('课程类别 in ["学科基础课","专业必修课","专业选修课"]')
df_a12= df1.query('课程类别 not in ["学科基础课","专业必修课","专业选修课"]')
df_a21= df2.query('课程类别 in ["学科基础课","专业必修课","专业选修课"]')
df_a22= df2.query('课程类别 not in ["学科基础课","专业必修课","专业选修课"]')
df_a11.head()
|
课程名字 |
课程类别 |
学分 |
分数 |
1 |
云计算应用与开发 |
专业选修课 |
3 |
96.0 |
2 |
社会计算 |
专业选修课 |
3 |
78.0 |
3 |
深度学习 |
专业选修课 |
3 |
75.0 |
4 |
人工智能导论 |
专业必修课 |
3 |
84.0 |
6 |
数据结构与算法 |
学科基础课 |
5 |
82.0 |
df_a12.head()
|
课程名字 |
课程类别 |
学分 |
分数 |
0 |
思想道德修养与法律基础 |
思政类 |
3 |
89.0 |
5 |
中国近代史纲要 |
思政类 |
3 |
97.0 |
8 |
网球(初) |
体育类 |
1 |
81.0 |
10 |
极端性气候与陆地生态系统 |
公共任意选修类 |
2 |
78.0 |
13 |
游泳(初) |
体育类 |
1 |
75.0 |
df_a21.head()
|
课程名字 |
课程类别 |
学分 |
分数 |
0 |
高等数学(一) |
学科基础课 |
4 |
99.0 |
1 |
数据科学与工程导论 |
学科基础课 |
3 |
NaN |
2 |
专业英语 |
学科基础课 |
2 |
100.0 |
3 |
概率论 |
学科基础课 |
3 |
99.0 |
4 |
计算机系统 |
专业必修课 |
4 |
80.0 |
df_a22.head()
|
课程名字 |
课程类别 |
学分 |
分数 |
25 |
学术英语听说(二) |
英语类 |
2 |
92.0 |
26 |
学术英语阅读 |
英语类 |
2 |
72.0 |
27 |
学术英语写作 |
英语类 |
2 |
98.0 |
28 |
美国社会与文化 |
英语类 |
2 |
77.0 |
29 |
马克思主义基本原理概论 |
思政类 |
3 |
95.0 |
(b) 将两张专业课的分数表和两张非专业课的分数表分别合并。
df_a11.append(df_a21).reset_index().head()
|
index |
课程名字 |
课程类别 |
学分 |
分数 |
0 |
1 |
云计算应用与开发 |
专业选修课 |
3 |
96.0 |
1 |
2 |
社会计算 |
专业选修课 |
3 |
78.0 |
2 |
3 |
深度学习 |
专业选修课 |
3 |
75.0 |
3 |
4 |
人工智能导论 |
专业必修课 |
3 |
84.0 |
4 |
6 |
数据结构与算法 |
学科基础课 |
5 |
82.0 |
df_a12.append(df_a22).reset_index().head()
|
index |
课程名字 |
课程类别 |
学分 |
分数 |
0 |
0 |
思想道德修养与法律基础 |
思政类 |
3 |
89.0 |
1 |
5 |
中国近代史纲要 |
思政类 |
3 |
97.0 |
2 |
8 |
网球(初) |
体育类 |
1 |
81.0 |
3 |
10 |
极端性气候与陆地生态系统 |
公共任意选修类 |
2 |
78.0 |
4 |
13 |
游泳(初) |
体育类 |
1 |
75.0 |
© 不使用(a)中的步骤,请直接读取两张表合并后拆分。
df = df1.append(df2)
df_a1= df.query('课程类别 in ["学科基础课","专业必修课","专业选修课"]')
df_a1.head()
|
课程名字 |
课程类别 |
学分 |
分数 |
1 |
云计算应用与开发 |
专业选修课 |
3 |
96.0 |
2 |
社会计算 |
专业选修课 |
3 |
78.0 |
3 |
深度学习 |
专业选修课 |
3 |
75.0 |
4 |
人工智能导论 |
专业必修课 |
3 |
84.0 |
6 |
数据结构与算法 |
学科基础课 |
5 |
82.0 |
df_a2= df.query('课程类别 not in ["学科基础课","专业必修课","专业选修课"]')
df_a2.head()
|
课程名字 |
课程类别 |
学分 |
分数 |
0 |
思想道德修养与法律基础 |
思政类 |
3 |
89.0 |
5 |
中国近代史纲要 |
思政类 |
3 |
97.0 |
8 |
网球(初) |
体育类 |
1 |
81.0 |
10 |
极端性气候与陆地生态系统 |
公共任意选修类 |
2 |
78.0 |
13 |
游泳(初) |
体育类 |
1 |
75.0 |
(d) 专业课程中有缺失值吗,如果有的话请在完成(3)的同时,用组内(3种类型的专业课)均值填充缺失值后拆分。
df['分数'] = df.groupby('课程类别').transform(lambda x: x.fillna(x.mean()))['分数']
df.isnull().all()
课程名字 False
课程类别 False
学分 False
分数 False
dtype: bool
df_a1= df.query('课程类别 in ["学科基础课","专业必修课","专业选修课"]')
df_a1.head()
|
课程名字 |
课程类别 |
学分 |
分数 |
1 |
云计算应用与开发 |
专业选修课 |
3 |
96.0 |
2 |
社会计算 |
专业选修课 |
3 |
78.0 |
3 |
深度学习 |
专业选修课 |
3 |
75.0 |
4 |
人工智能导论 |
专业必修课 |
3 |
84.0 |
6 |
数据结构与算法 |
学科基础课 |
5 |
82.0 |
df_a2= df.query('课程类别 not in ["学科基础课","专业必修课","专业选修课"]')
df_a2.head()
|
课程名字 |
课程类别 |
学分 |
分数 |
0 |
思想道德修养与法律基础 |
思政类 |
3 |
89.0 |
5 |
中国近代史纲要 |
思政类 |
3 |
97.0 |
8 |
网球(初) |
体育类 |
1 |
81.0 |
10 |
极端性气候与陆地生态系统 |
公共任意选修类 |
2 |
78.0 |
13 |
游泳(初) |
体育类 |
1 |
75.0 |