我正在尝试使用Gzip压缩来压缩JSON文件以便发送到另一个位置。每天需要处理5000-10000个文件,我不需要在本地机器上保留压缩后的文件(它们实际上被传输到AWS S3进行长期存档)。
由于我不需要它们,我正在尝试将它们压缩到内存流中,然后使用该流来写入AWS,而不是将每个文件都压缩到磁盘上。但是每当我尝试这样做时,文件都会损坏(例如,当我在7-Zip中打开它们并尝试打开其中的JSON文件时,会显示“数据错误 文件已损坏”)。
当我尝试将内存流写入本地文件时,也会发生同样的事情,所以我现在正在解决这个问题。以下是代码:
由于我不需要它们,我正在尝试将它们压缩到内存流中,然后使用该流来写入AWS,而不是将每个文件都压缩到磁盘上。但是每当我尝试这样做时,文件都会损坏(例如,当我在7-Zip中打开它们并尝试打开其中的JSON文件时,会显示“数据错误 文件已损坏”)。
当我尝试将内存流写入本地文件时,也会发生同样的事情,所以我现在正在解决这个问题。以下是代码:
string[] files = Directory.GetFiles(@"C:\JSON_Logs");
foreach(string file in files)
{
FileInfo fileToCompress = new FileInfo(file);
using (FileStream originalFileStream = fileToCompress.OpenRead())
{
using (MemoryStream compressedMemStream = new MemoryStream())
{
using (GZipStream compressionStream = new GZipStream(compressedMemStream, CompressionMode.Compress))
{
originalFileStream.CopyTo(compressionStream);
compressedMemStream.Seek(0, SeekOrigin.Begin);
FileStream compressedFileStream = File.Create(fileToCompress.FullName + ".gz");
//Eventually this will be the AWS transfer, but that's not important here
compressedMemStream.WriteTo(compressedFileStream);
}
}
}
}