我想要将大小为85GB的文件f,分块读入一个数据框中。以下代码是建议的。
chunksize = 5
TextFileReader = pd.read_csv(f, chunksize=chunksize)
然而,这段代码给我返回了TextFileReader而不是dataframe。另外,为了避免内存限制,我也不想连接这些块来将TextFileReader转换为dataframe。请给予建议。
当您尝试处理 85GB 的 CSV 文件时,如果将其分成块并将其转换为数据框以读取所有数据,则肯定会超出内存限制。您可以尝试使用不同的方法来解决此问题。在这种情况下,您可以对数据进行过滤操作。例如,如果数据集中有 600 列,并且您只对其中的 50 列感兴趣,请尝试仅从文件中读取这 50 列。这样可以节省大量内存。边读行边处理。 如果需要先过滤数据,请使用生成器函数。yield
使函数成为生成器函数,这意味着它在开始循环之前不会执行任何工作。
有关生成器函数的更多信息:
要进行高效的过滤,请参考:https://codereview.stackexchange.com/questions/88885/efficiently-filter-a-large-100gb-csv-file-v3
针对较小的数据集:
方法1:将reader对象直接转换为数据框:
full_data = pd.concat(TextFileReader, ignore_index=True)
为了避免索引重复,需要在concat函数中添加参数ignore index。
方法二:使用迭代器或get_chunk将其转换为数据框(DataFrame)。
通过给read_csv指定一个chunksize参数,返回值将是一个类型为TextFileReader的可迭代对象。
df=TextFileReader.get_chunk(3)
for chunk in TextFileReader:
print(chunk)
来源: http://pandas.pydata.org/pandas-docs/stable/io.html#io-chunking
df= pd.DataFrame(TextFileReader.get_chunk(1))
这将把一个数据块转换为数据框。
检查TextFileReader中的总数据块数
for chunk_number, chunk in enumerate(TextFileReader):
# some code here, if needed
pass
print("Total number of chunks is", chunk_number+1)
如果文件大小更大,我不建议采用第二种方法。例如,如果CSV文件包含100,000条记录,则chunksize=5将创建20,000个块。
pd.DataFrame(TextFileReader.get_chunk(1))
将一个数据块转换为数据帧。 - Sayali Sonawanefile = 'results.csv'
df_empty = pd.DataFrame()
with open(file) as fl:
chunk_iter = pd.read_csv(fl, chunksize = 100000)
for chunk in chunk_iter:
chunk = chunk[chunk['column1'] > 180]
df_empty = pd.concat([df_empty,chunk])
full_dataframe = pd.DataFrame(TextFileReader.get_chunk(100000))
TextFileReader
,并对这些块进行任何您想要的操作(缩减、分组等)。 - ChE