我已经制作了一个爬虫来扫描大约150个链接。每个链接有大约5k个子链接来获取信息。
我使用Celery在后台运行爬虫并将数据存储在Django ORM中。我使用BeautifulSoup来抓取URL。
当我使用以下命令运行celery时:
celery worker -A ... --concurrency=50
一切都正常工作,但是1到50个工作进程处于睡眠状态。
我该如何让Celery一直工作,直到爬虫完成任务?
我使用Celery在后台运行爬虫并将数据存储在Django ORM中。我使用BeautifulSoup来抓取URL。
当我使用以下命令运行celery时:
celery worker -A ... --concurrency=50
一切都正常工作,但是1到50个工作进程处于睡眠状态。
我该如何让Celery一直工作,直到爬虫完成任务?