python:学习笔记—pandas

文章目录

  • python学习笔记——pandas
    • 1 读写文件
      • 1.1 `pd.read_csv()`
      • 1.2 `pd.read_excel()`
      • 1.3 `pd.to_excel()`
    • 2.数据操作
      • 一、查看数据(查看对象的方法对于Series来说同样适用)
      • 二、选择对象
      • 三、设置值(赋值)
      • 四、缺失值处理
      • 五、合并
      • 六、分组(groupby)
      • 七、Categorical按某一列重新编码分类
      • 八、相关操作
      • 九、重新索引
    • 按列统计nan值个数
    • 筛选空值个数大于某一限制的特征
    • 查看各列的属性
    • 查看特征的统计信息
    • 取出某一列值为空值的行
    • 填充空值
      • 众数填充nan
      • 中位数、平均值、0填充

python学习笔记——pandas

最近利用pandas进行数据处理,处理过程中,记录下用到的一些函数和操作

1 读写文件

最近主要处理的是表格文件,因此主要用到了两个函数:pd.read_csv()pd.read_excel()

1.1 pd.read_csv()

用来读取逗号分隔的csv文件;输出Dataframe

data = pd.read_csv('E:\\Graduate_Project\\competition1\\yyx\\01.csv')

1.2 pd.read_excel()

用来读取xlsx文件;输出Dataframe

data_input = pd.read_excel('E:/Graduate_Project/competition1/yyx/一般纳税人.xlsx')

1.3 pd.to_excel()

用来将处理过的DataFrame写入到本地创建好的Excel文件中去;

data.to_excel('E:/Graduate_Project/competition1/after/工商基本信息_特征.xlsx', index=False)

2.数据操作

怎样删除list中空字符?
最简单的方法:new_list = [ x for x in list if x != '' ]
这一部分主要学习pandas中基于前面两种数据结构的基本操作。
设有DataFrame结果的数据a如下所示:

           a  b  c
    one    4  1  1
    two    6  2  0
    three  6  1  6

一、查看数据(查看对象的方法对于Series来说同样适用)

1.查看DataFrame前xx行或后xx行

    a=DataFrame(data);
    a.head(6) #表示显示前6行数据,若head()中不带参数则会显示前5行数据。
    a.tail(6) #表示显示后6行数据,若tail()中不带参数则也会显示后5行数据。

2.查看DataFrame的index,columns以及values

a.index ;    a.columns ;    a.values

3.describe()函数对于数据的快速统计汇总

a.describe() #对每一列数据进行统计,包括计数,均值,std,各个分位数等。

4.对数据的转置

 a.T

5.对轴进行排序

 a.sort_index(axis=1,ascending=False)

其中axis=1表示对所有的columns进行排序,下面的数也跟着发生移动。后面的ascending=False表示按降序排列,参数缺失时默认升序。

6.对DataFrame中的值排序

  a.sort(columns='x')

即对a中的x这一列,从小到大进行排序。注意仅仅是x这一列,而上面的按轴进行排序时会对所有的columns进行操作。

二、选择对象

1.选择特定列和行的数据

  a['x']

那么将会返回columns为x的列,注意这种方式一次只能返回一个列。a.xa['x']意思一样。
取行数据,通过切片[]来选择
如:a[0:3] 则会返回前三行的数据。

2.loc是通过标签来选择数据

    a.loc['one']        #则会默认表示选取行为'one'的行;
    a.loc[:,['a','b']]    #表示选取所有的行以及columns为a,b的列;
    a.loc[['one','two'],['a','b']]    #表示选取'one'和'two'这两行以及columns为a,b的列;
    a.loc['one','a']与a.loc[['one'],['a']]   #作用是一样的,不过前者只显示对应的值,而后者会显示对应的行和列标签。

3.iloc则是直接通过位置来选择数据
这与通过标签选择类似

    a.iloc[1:2,1:2]  #则会显示第一行第一列的数据;(切片后面的值取不到)
    a.iloc[1:2]  #即后面表示列的值没有时,默认选取行位置为1的数据
    a.iloc[[0,2],[1,2]]  #即可以自由选取行位置,和列位置对应的数据。

4.使用条件来选择
使用单独的列来选择数据

    a[a.c>0]    #表示选择c列中大于0的数据

使用where来选择数据

     a[a>0]    #表直接选择a中所有大于0的数据

使用isin()选出特定列中包含特定值的行

    a1=a.copy()
    a1[a1['one'].isin(['2','3'])]   #表显示满足条件:列one中的值包含'2','3'的所有行。

按照指定条件选择行:
第一种做法:

    data_df[(data_df['GrLivArea'] > 4000) & (data_df['SalePrice'] < 300000)]

注意:条件要用括号括上,利用& 或者 |;不能使用and 或 or,不然会报错。
第二种做法:
使用query函数:

data_df.query('GrLivArea > 4000').query('SalePrice < 300000')

三、设置值(赋值)

赋值操作在上述选择操作的基础上直接赋值即可。例:

    a.loc[:,['a','c']]=9  #即将a和c列的所有行中的值设置为9
    a.iloc[:,[1,3]]=9 #也表示将a和c列的所有行中的值设置为9

同时也依然可以用条件来直接赋值

    a[a>0]=-a  #表示将a中所有大于0的数转化为负值

四、缺失值处理

在pandas中,使用np.nan来代替缺失值,这些值将默认不会包含在计算中。

1.reindex()方法
用来对指定轴上的索引进行改变/增加/删除操作,这将返回原始数据的一个拷贝。

    a.reindex(index=list(a.index)+['five'],columns=list(a.columns)+['d'])
    a.reindex(index=['one','five'],columns=list(a.columns)+['d'])

即用index=[]表示对index进行操作,columns表对列进行操作。

2.对缺失值进行填充

    a.fillna(value=x)

表示用值为x的数来对缺失值进行填充
3.去掉包含缺失值的行

     a.dropna(how='any')     #表示去掉所有包含缺失值的行
    df1.dropna(how='all')   #表示去掉全为缺失值的行
    df1.dropna(thresh=1)    #传入thresh=n保留至少有n个非NaN数据的行

4.去掉包含缺失值的列

    df1.dropna(axis=1,how="all")    #传入axis=1,表示去掉全为缺失值的列

五、合并

1.contact

    contact(a1,axis=0/1,keys=['xx','xx','xx',...])

其中a1表示要进行进行连接的列表数据,axis=1时表横着对数据进行连接。axis=0或不指定时,表将数据竖着进行连接。a1中要连接的数据有几个则对应几个keys,设置keys是为了在数据连接以后区分每一个原始a1中的数据。例:

    a1=[b['a'],b['c']]
    result=pd.concat(a1,axis=1,keys=['1','2'])

2.Append
将一行或多行数据连接到一个DataFrame上

a.append(a[2:],ignore_index=True)

表示将a中的第三行以后的数据全部添加到a中,若不指定ignore_index参数,则会把添加的数据的index保留下来,若ignore_index=Ture则会对所有的行重新自动建立索引

3.merge类似于SQL中的join
设a1,a2为两个dataframe,二者中存在相同的键值,两个对象连接的方式有下面几种:

    (1)内连接,pd.merge(a1, a2, on='key')
    (2)左连接,pd.merge(a1, a2, on='key', how='left')
    (3)右连接,pd.merge(a1, a2, on='key', how='right')
    (4)外连接, pd.merge(a1, a2, on='key', how='outer')

至于四者的具体差别,具体学习参考sql中相应的语法。

六、分组(groupby)

用pd.date_range函数生成连续指定天数的的日期

    pd.date_range('20000101',periods=10)

    def shuju():
        data={
            'date':pd.date_range('20000101',periods=10),
            'gender':np.random.randint(0,2,size=10),
            'height':np.random.randint(40,50,size=10),
            'weight':np.random.randint(150,180,size=10)
        }
    a=DataFrame(data)
    print(a)
            date  gender  height  weight
    0 2000-01-01       0      47     165
    1 2000-01-02       0      46     179
    2 2000-01-03       1      48     172
    3 2000-01-04       0      45     173
    4 2000-01-05       1      47     151
    5 2000-01-06       0      45     172
    6 2000-01-07       0      48     167
    7 2000-01-08       0      45     157
    8 2000-01-09       1      42     157
    9 2000-01-10       1      42     164
   
    用a.groupby('gender').sum()得到的结果为:  #注意在python中groupby(''xx)后要加sum(),不然显示
    不了数据对象。
    gender     height  weight               
    0           256     989
    1           170     643

此外用a.groupby(‘gender’).size()可以对各个gender下的数目进行计数。
所以可以看到groupby的作用相当于:
按gender对gender进行分类,对应为数字的列会自动求和,而为字符串类型的列则不显示;当然也可以同时groupby([‘x1’,‘x2’,…])多个字段,其作用与上面类似。

七、Categorical按某一列重新编码分类

如六中要对a中的gender进行重新编码分类,将对应的0,1转化为male,female,过程如下:

    a['gender1']=a['gender'].astype('category')
    a['gender1'].cat.categories=['male','female']  #即将0,1先转化为category类型再进行编码。
    
     print(a)得到的结果为:
          date    gender  height  weight gender1
    0 2000-01-01       1      40     163  female
    1 2000-01-02       0      44     177    male
    2 2000-01-03       1      40     167  female
    3 2000-01-04       0      41     161    male
    4 2000-01-05       0      48     177    male
    5 2000-01-06       1      46     179  female
    6 2000-01-07       1      42     154  female
    7 2000-01-08       1      43     170  female
    8 2000-01-09       0      46     158    male
    9 2000-01-10       1      44     168  female

所以可以看出重新编码后的编码会自动增加到dataframe最后作为一列。

八、相关操作

描述性统计:
1.a.mean() 默认对每一列的数据求平均值;若加上参数a.mean(1)则对每一行求平均值;

2.a['x'].value_counts():统计某一列x中各个值出现的次数;

3.a.apply(lambda x:x.max()-x.min())表示返回所有列中最大值-最小值的差。

4.字符串相关操作
a['gender1'].str.lower() :将gender1中所有的英文大写转化为小写,注意dataframe没有str属性,只有series有,所以要选取a中的gender1字段。

九、重新索引

数据清洗后,重新索引:

    obj4 = obj3.reset_index(drop=True)

按列统计nan值个数

df.isna().sum()

返回一个Series,index为列名,值为统计数

筛选空值个数大于某一限制的特征

list(data_df.columns[data_df.isna().sum() > limit_value])

查看各列的属性

data_df[missing_columns].dtypes

返回的是一个Series,index为列名,值为属性

查看特征的统计信息

参考链接:
https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.DataFrame.describe.html

取出某一列值为空值的行

df[column][df[column].isnull().values == True]

填充空值

官方:

DataFrame.fillna(value=None, method=None, axis=None, inplace=False, limit=None, downcast=None, **kwargs)[source]
Fill NA/NaN values using the specified method.

注意:

注意:
value必须是一个标量、字典、Series或者DataFrame,其他值比方说字符串不会被填充,这里曾进坑

众数填充nan

首先取众数:

mode = data_df[fill_Mode].mode().iloc[0,0] #iloc[0,0]表示取第一个众数

然后:

data_df.fillna(value={column_name: mode}, inplace=True)

简单实现

data_df[fill_Mode] = data_df[fill_Mode].fillna(data_df[fill_Mode].mode())  #填充众数
data_df[fill_None] = data_df[fill_None].fillna('None')  #填充None
data_df[fill_0] = data_df[fill_0].fillna(0)  #填充0
data_df[fill_median] = data_df[fill_median].fillna(data_df[fill_median].median())  # 填充中位数

中位数、平均值、0填充

取中位数:df.median()
取平均值:df.mean()

data_df.fillna(value=data_df.median(), inplace=True)
data_df.fillna(value=data_df.mean(), inplace=True)
data_df.fillna(value=0, inplace=True)

你可能感兴趣的:(python)