使用Scrapy与Amazon S3相结合非常简单,您只需设置以下内容:
但是,Scrapyd似乎会覆盖该设置并将项目保存在服务器上(网站中有一个链接)。
添加"items_dir ="设置似乎不会改变任何内容。
哪种设置能够使它正常工作呢?
编辑:可能相关的额外信息-我们正在使用Scrapy-Heroku。
- FEED_URI = 's3://MYBUCKET/feeds/%(name)s/%(time)s.jl'
- FEED_FORMAT = 'jsonlines'
- AWS_ACCESS_KEY_ID = [访问密钥]
- AWS_SECRET_ACCESS_KEY = [秘密访问密钥]
但是,Scrapyd似乎会覆盖该设置并将项目保存在服务器上(网站中有一个链接)。
添加"items_dir ="设置似乎不会改变任何内容。
哪种设置能够使它正常工作呢?
编辑:可能相关的额外信息-我们正在使用Scrapy-Heroku。
scrapy crawl
运行爬虫,它会将项目保存在 S3 上吗?你是如何告诉 Scrapyd 你的项目settings
文件在哪里的? - alecxe