我想使用Python的Scrapy模块从我的网站爬取所有的URL,并将列表写入文件。我查看了示例,但没有看到任何简单的示例可以完成这个任务。
我想使用Python的Scrapy模块从我的网站爬取所有的URL,并将列表写入文件。我查看了示例,但没有看到任何简单的示例可以完成这个任务。
这是适用于我的Python程序:
from scrapy.selector import HtmlXPathSelector
from scrapy.spider import BaseSpider
from scrapy.http import Request
DOMAIN = 'example.com'
URL = 'http://%s' % DOMAIN
class MySpider(BaseSpider):
name = DOMAIN
allowed_domains = [DOMAIN]
start_urls = [
URL
]
def parse(self, response):
hxs = HtmlXPathSelector(response)
for url in hxs.select('//a/@href').extract():
if not ( url.startswith('http://') or url.startswith('https://') ):
url= URL + url
print url
yield Request(url, callback=self.parse)
将此内容保存在名为spider.py
的文件中。
然后,您可以使用shell管道来对此文本进行后处理:
bash$ scrapy runspider spider.py > urls.out
bash$ cat urls.out| grep 'example.com' |sort |uniq |grep -v '#' |grep -v 'mailto' > example.urls
这将为我提供站点中所有唯一 URL 的列表。
if not url.startswith('http://'):
无法正确处理 https 链接。 - Joshua Snider更为简洁(也许更有用)的方法是使用LinkExtractor
from scrapy.linkextractors import LinkExtractor
def parse(self, response):
le = LinkExtractor() # empty for getting everything, check different options on documentation
for link in le.extract_links(response):
yield Request(link.url, callback=self.parse)