我目前有一个脚本,它可以读取保存在s3上的csv文件的现有版本,将其与pandas数据帧中的新行组合,然后直接将其写回到s3。
try:
csv_prev_content = str(s3_resource.Object('bucket-name', ticker_csv_file_name).get()['Body'].read(), 'utf8')
except:
csv_prev_content = ''
csv_output = csv_prev_content + curr_df.to_csv(path_or_buf=None, header=False)
s3_resource.Object('bucket-name', ticker_csv_file_name).put(Body=csv_output)
有没有一种方法可以使用gzip压缩的csv文件来完成这个操作?如果有,我想读取s3上已经存在的.gz压缩的csv文件,将其与数据框的内容连接起来,然后直接在s3上将新的合并压缩的csv文件覆盖原有的.gz文件,而无需制作本地副本。