我正在尝试在S3上以编程方式上传最大1GB的文件。由于发现AWS S3支持用于大文件的分段上传,因此我找到了一些Python代码来执行此操作。(链接)
问题是:上传速度太慢(近1分钟)。
有没有办法提高分段上传的性能?或者有没有好的库支持S3上传?
我正在尝试在S3上以编程方式上传最大1GB的文件。由于发现AWS S3支持用于大文件的分段上传,因此我找到了一些Python代码来执行此操作。(链接)
问题是:上传速度太慢(近1分钟)。
有没有办法提高分段上传的性能?或者有没有好的库支持S3上传?
留下我的答案供参考,使用这个代码后性能提高了两倍:
import boto3
from boto3.s3.transfer import TransferConfig
s3_client = boto3.client('s3')
S3_BUCKET = 'mybucket'
FILE_PATH = '/path/to/file/'
KEY_PATH = "/path/to/s3key/"
def uploadFileS3(filename):
config = TransferConfig(multipart_threshold=1024*25, max_concurrency=10,
multipart_chunksize=1024*25, use_threads=True)
file = FILE_PATH + filename
key = KEY_PATH + filename
s3_client.upload_file(file, S3_BUCKET, key,
ExtraArgs={ 'ACL': 'public-read', 'ContentType': 'video/mp4'},
Config = config,
Callback=ProgressPercentage(file)
)
uploadFileS3('upload.mp4')
特别感谢@BryceH的建议。虽然这个解决方案确实提高了S3上传的性能,但我仍然乐意接受任何更好的解决方案。谢谢。
NameError: name 'ProgressPercentage' is not defined
- DevOpsSauce