一、文件读取
在Pandas的使用场景中,最多的是将表格型的数据读取为DataFrame对象。实现这一功能的函数有很多,最常用的是read_csv和read_table。
下表列出了pandas主要的读写函数:
函数
说明
d_csv
读取默认以逗号作为分隔符的文件
read_table
读取默认以制表符分隔的文件
read_fwf
从特定宽度格式的文件中读取数据(无分隔符)
read_clipboard
read_table的剪贴板版本
read_excel
从EXCEL的XLS或者XLSX文件中读取数据
read_hdf
读取用pandas存储的HDF5文件
read_html
从HTML文件中读取所有表格数据
read_json
从JSON字符串中读取数据
read_msgpack
读取MessagePack格式存储的任意对象
read_pickle
读取以Python Pickle格式存储的对象
read_sas
读取SAS系统中定制存储格式的数据集
read_sql
将SQL查询的结果读取出来
read_stata
读取stata格式的数据集
read_feather
读取Feather二进制格式
Pandas不但有这么多的读取函数,每个函数还有大量的可设置参数。比如read_csv到目前就有超过50个参数。这些函数和参数是如此的复杂,很难有人能够将它们全部记住,所以当你在读取文件时遇到了困难,请前往官方文档,那里的一些示例可能对你有帮助。
让我们来看看一些具体的例子,首先有这么一个文件:
#ex1.csv
a,b,c,d,message1,2,3,4,hello5,6,7,8,world9,10,11,12,foo
可以使用read_csv方法读取它,默认第一行为列索引,自动生成了行索引:
In [14]: df = pd.read_csv('d:/ex1.csv')
In [15]: df
Out[15]:
a b c d message
01 2 3 4hello1 5 6 7 8world2 9 10 11 12 foo
也可以使用read_table函数,并指定分隔符为逗号:
In [17]: pd.read_table('d:/ex1.csv',sep=',')
Out[17]:
a b c d message
01 2 3 4hello1 5 6 7 8world2 9 10 11 12 foo
对于不包含表头行的文件,比如下面的ex2,要么使用默认列名,要么我们指定列名:
1,2,3,4,hello5,6,7,8,world9,10,11,12,foo
注意指定列名用的参数名是names,不是columns:
In [18]: pd.read_csv('d:/ex2.csv',header=None) #使用默认列名
Out[18]:
01 2 3 401 2 3 4hello1 5 6 7 8world2 9 10 11 12foo
In [19]: pd.read_csv('d:/ex2.csv', names=['a','b','c','d','message']) #自定义
Out[19]:
a b c d message
01 2 3 4hello1 5 6 7 8world2 9 10 11 12 foo
如果你想将上面的message列当作DataFrame的行索引,可以将它传递给参数index_col:
#注意其中的names依然必须包含message字符串,否则会弹出KeyError
In [20]: pd.read_csv('d:/ex2.csv', names=['a','b','c','d','message'],index_col='message')
Out[20]:
a b c d
message
hello1 2 3 4world5 6 7 8foo9 10 11 12
如果想读取成分层索引,则需要为index_col参数传入一个包含列序号或列名的列表:
#csv_mindex.csvkey1,key2,value1,value2
one,a,1,2one,b,3,4one,c,5,6one,d,7,8two,a,9,10two,b,11,12two,c,13,14two,d,15,16
分层索引类似多级索引,后面会介绍。
In [22]: df = pd.read_csv('d:/csv_mindex.csv', index_col=['key1','key2'])
In [23]: df
Out[23]:
value1 value2
key1 key2
one a1 2b3 4c5 6d7 8two a9 10b11 12c13 14d15 16
对于一些更复杂,或者说更不规整的文件,比如分隔符不固定的情况,需要有更多的处理技巧,比如下面这个文件,以不同数量的空格分隔:
#ex3.txt
A B C
aaa-0.264438 -1.026059 -0.619500bbb0.927272 0.302904 -0.032399ccc-0.264273 -0.386314 -0.217601ddd-0.871858 -0.348382 1.100491
这时候需要传入一个正则表达式作为分隔符参数:
In [25]: result = pd.read_table('d:/ex3.txt', sep='\s+')
In [26]: result
Out[26]:
A B C
aaa-0.264438 -1.026059 -0.619500bbb0.927272 0.302904 -0.032399ccc-0.264273 -0.386314 -0.217601ddd-0.871858 -0.348382 1.100491
上面的正则表达式是\s+。并且由于列名比数据的列数少一个,系统自动推断第一列应当作为行索引。
大多数读取函数都带有很多帮助我们处理各种异常情况的参数,比如可以使用skiprows来跳过数据中的指定行.
原始数据:
#hey!
a,b,c,d,message#just wanted to make things more difficult for you#who reads CSV files with computers, anyway?
1,2,3,4,hello5,6,7,8,world9,10,11,12,foo
我们需要跳过无用的第1、3、4行废话:
In [27]: pd.read_csv('d:/ex4.csv', skiprows=[0,2,3])
Out[27]:
a b c d message
01 2 3 4hello1 5 6 7 8world2 9 10 11 12 foo
缺失值的处理是读取数据时非常重要的部分。通常情况下,缺失值要么不显示,直接空着,要么用一些标识值表示,比如NA或NULL。
看下面的数据,注意第三行的6和8之间有个空的:
something,a,b,c,d,message
one,1,2,3,4,NA
two,5,6,,8,world
three,9,10,11,12,foo
read_csv会将缺失值自动读成NaN:
In [30]: result = pd.read_csv('d:/ex5.csv')
In [31]: result
Out[31]:
something a b c d message
0 one1 2 3.0 4NaN1 two 5 6 NaN 8world2 three 9 10 11.0 12foo
In [32]: pd.isnull(result)
Out[32]:
something a b c d message
0 False False False False False True1False False False True False False2 False False False False False False
我们可以额外指定na_values参数,将某些值也当作缺失值来看待,比如下面我们将3.0也当作缺失值对待:
In [40]: result = pd.read_csv('d:/ex5.csv',na_values=[3.0])
In [41]: result
Out[41]:
something a b c d message
0 one1 2 NaN 4NaN1 two 5 6 NaN 8world2 three 9 10 11.0 12 foo
甚至可以对不同的列,指定不同的缺失值标识:
In [42]: f = {'message':['foo','NA'],'something':['two']}
In [43]: result = pd.read_csv('d:/ex5.csv',na_values=f)
In [44]: result
Out[44]:
something a b c d message
0 one1 2 3.0 4NaN1 NaN 5 6 NaN 8world2 three 9 10 11.0 12 NaN
下表列出了read_csv和read_table函数的一些常用参数:
参数
说明
path
文件路径
sep
指定分隔符或正则表达式
header
用作列名的行号
index_col
用作行索引的列名或列号
names
结果的列名列表
skiprows
从起始处,需要跳过的行
na_values
需要用NaN替换的值
comment
在行结尾处分隔注释的字符
parse_dates
尝试将数据解析为datetime,默认是False
keep_date_col
如果连接列到解析日期上,保留被连接的列,默认False
converters
包含列名称映射到函数的字典
dayfirst
解析非明确日期时,按国际格式处理
date_parser
用于解析日期的函数
nrows
从文件开头处读入的行数
iterator
返回一个TextParser对象,用于零散地读入文件
chunksize
用于迭代的块大小
skip_footer
忽略文件尾部的行数
verbose
打印各种解析器输出的信息
encoding
文本编码,比如UTF-8
thousands
定义千位分隔符,例如逗号或者圆点
二、分块读取
当我们处理大型文件的时候,读入文件的一个小片段或者按小块遍历文件是比较好的做法。
在这之前,我们最好先对Pandas的显示设置进行调整,使之更为紧凑:
In [45]: pd.options.display.max_rows = 10
这样,即使是大文件,最多也只会显式10行具体内容。
In [46]: result = pd.read_csv('d:/ex6.csv')
In [47]: result
Out[47]:
one two three four key
00.467976 -0.038649 -0.295344 -1.824726L1 -0.358893 1.404453 0.704965 -0.200638B2 -0.501840 0.659254 -0.421691 -0.057688G3 0.204886 1.074134 1.388361 -0.982404R4 0.354628 -0.133116 0.283763 -0.837063Q
... ... ... ... ... ..9995 2.311896 -0.417070 -1.409599 -0.515821L9996 -0.479893 -0.650419 0.745152 -0.646038E9997 0.523331 0.787112 0.486066 1.093156K9998 -0.362559 0.598894 -1.843201 0.887292G9999 -0.096376 -1.012999 -0.657431 -0.5733150
[10000 rows x 5 columns]
或者使用nrows参数,指明从文件开头往下只读n行:
In [48]: result = pd.read_csv('d:/ex6.csv',nrows=5)
In [49]: result
Out[49]:
one two three four key
00.467976 -0.038649 -0.295344 -1.824726L1 -0.358893 1.404453 0.704965 -0.200638B2 -0.501840 0.659254 -0.421691 -0.057688G3 0.204886 1.074134 1.388361 -0.982404R4 0.354628 -0.133116 0.283763 -0.837063 Q
或者指定chunksize作为每一块的行数,分块读入文件:
In [50]: chunker = pd.read_csv('d:/ex6.csv', chunksize=1000)
In [51]: chunker
Out[51]:
上面的TextFileReader对象是一个可迭代对象。例如我们可以遍历它,并对‘key’列进行聚合获得计数值:
In [52]: total =pd.Series([])
In [53]: for piece inchunker:
...: total= total.add(piece['key'].value_counts(), fill_value=0)
...: total= total.sort_values(ascending=False)
In [54]: total
Out[54]:
E368.0X364.0L346.0O343.0Q340.0...5 157.0
2 152.00151.0
9 150.0
1 146.0Length:36, dtype: float64
In [55]: total[:10]
Out[55]:
E368.0X364.0L346.0O343.0Q340.0M338.0J337.0F335.0K334.0H330.0dtype: float64