python读写大文件 meoryerror_当用“pandas.read_hdf()”读取巨大的HDF5文件时,为什么我仍然得到MemoryError,即使我通过指定chunksize来读取块?...
问题描述:我使用pythonpandas读取一些大的CSV文件并将其存储在HDF5文件中,生成的HDF5文件大约为10GB。阅读时会出现问题。即使我试图以块的形式读回来,我仍然得到MemoryError。以下是我如何创建HDF5文件:importglob,osimportpandasaspdhdf=pd.HDFStore('raw_sample_storage2.h5')os.chdir("C:/