如果硬件不是限制因素,如何以最快的方式缩小大量高分辨率jpeg图像?例如,如果我有一个包含20,000个jpeg图像的文件夹,这些图像的长宽比各不相同,但都相当大(接近4k分辨率),我想将每个图像调整为512x512。
我已经尝试了在一台性能很强的机器上使用Python pillow-simd与libjpegturbo以及多进程处理,其中包括一块V100 GPU(虽然我认为没有被充分利用),但仍需要约90分钟才能完成此工作。
是否有人知道能够利用强大GPU或具有其他重要速度优化的图像缩小方法?或者这就是图像缩小速度的最新技术水平?
我已经尝试了在一台性能很强的机器上使用Python pillow-simd与libjpegturbo以及多进程处理,其中包括一块V100 GPU(虽然我认为没有被充分利用),但仍需要约90分钟才能完成此工作。
是否有人知道能够利用强大GPU或具有其他重要速度优化的图像缩小方法?或者这就是图像缩小速度的最新技术水平?
Image.draft()
方法的作用...https://pillow.readthedocs.io/en/3.1.x/reference/Image.html - Mark Setchellparallel -X ...
,它将尽可能多的图像名称传递给每个Python进程,而不是为每个图像启动一个全新的Python解释器,从而可以在许多图像上分摊启动Python的成本。 - Mark Setchell