我正在搜集一些网站的统计数据,并且出于简便考虑,我正在使用 requests 库。以下是我的代码:
data=[]
websites=['http://google.com', 'http://bbc.co.uk']
for w in websites:
r= requests.get(w, verify=False)
data.append( (r.url, len(r.content), r.elapsed.total_seconds(), str([(l.status_code, l.url) for l in r.history]), str(r.headers.items()), str(r.cookies.items())) )
现在,我想让
requests.get
在 10 秒钟后超时,以便循环不会卡住。这个问题以前也 引起过兴趣,但没有干净的答案。
我听说也许不使用 requests 是个好主意,但是那么我该如何获得 requests 提供的好东西(元组中的那些)呢?