我有一个项目希望在AWS Lambda上运行,但它超过了50MB的压缩限制。目前它压缩后为128MB,项目文件夹及虚拟环境共占623MB,其中包括(空间利用率最高的前几项):
- scipy(~187MB)
- pandas(~108MB)
- numpy(~74.4MB)
- lambda_packages(~71.4MB)
virtualenv
,该项目大小小于2MB。 requirements.txt
内容如下:click==6.7
cycler==0.10.0
ecdsa==0.13
Flask==0.12.2
Flask-Cors==3.0.3
future==0.16.0
itsdangerous==0.24
Jinja2==2.10
MarkupSafe==1.0
matplotlib==2.1.2
mpmath==1.0.0
numericalunits==1.19
numpy==1.14.0
pandas==0.22.0
pycryptodome==3.4.7
pyparsing==2.2.0
python-dateutil==2.6.1
python-dotenv==0.7.1
python-jose==2.0.2
pytz==2017.3
scipy==1.0.0
six==1.11.0
sympy==1.1.1
Werkzeug==0.14.1
xlrd==1.1.0
我使用Zappa进行部署,因此我对整个基础架构的理解有限。我的理解是,一些(非常少量)的库没有上传,因此例如numpy这样的库就不会被上传,而是使用亚马逊已经在该环境中提供的版本。
我建议采用以下工作流程(不使用slim_handler
的S3桶):
- 删除所有包中与“test_*.py”匹配的文件
- 手动摇树并精简scipy,因为我只使用
scipy.minimize
,通过删除大部分代码并重新运行测试来实现 - 压缩所有代码并使用
pyminifier
混淆 - 部署zappa
或者:
- 运行
compileall
以获取.pyc文件 - 删除所有*.py文件,然后让zappa上传.pyc文件
- 部署zappa
我遇到了slim_handler: true
的问题,无论是我的连接断开导致上传失败,还是发生其他错误,当上传到S3的进度为25%时,我都会收到Could not connect to the endpoint URL
的错误消息。在这个问题上,我想将依赖项降到可管理的级别。
尽管如此,主应用程序不到2 MB,但超过半GB的依赖关系必须是某种记录。
我的问题是:
- AWS的未压缩限制是多少? 是250MB还是500MB?
- 我采用上述方法减小软件包大小是否正确?
- 是否有可能进一步使用.pyz文件?
- 是否有任何标准实用程序可帮助解决上述问题?
- Python没有摇树库吗?
slim_handler: true
选项,并为了解决连接问题,将整个项目捆绑在亚马逊的虚拟机上。除了重写我的代码以不具有上述依赖项之外,我还没有想出如何精简整个项目。 - dim_voly