我对Python还比较陌生,如果这是一个显而易见的问题,我很抱歉。
我的问题与urllib2库及其urlopen函数有关。目前,我正在使用它来从另一台服务器加载大量页面(它们都在同一个远程主机上),但是脚本偶尔会因超时错误而被终止(我认为这是由于请求过多)。
是否有一种方法可以在超时后使脚本继续运行?我想能够获取所有页面,所以我需要一个脚本,它会不断尝试获取页面,然后继续执行。
另外,保持与服务器的连接是否有帮助?
我的问题与urllib2库及其urlopen函数有关。目前,我正在使用它来从另一台服务器加载大量页面(它们都在同一个远程主机上),但是脚本偶尔会因超时错误而被终止(我认为这是由于请求过多)。
是否有一种方法可以在超时后使脚本继续运行?我想能够获取所有页面,所以我需要一个脚本,它会不断尝试获取页面,然后继续执行。
另外,保持与服务器的连接是否有帮助?
try
块中的代码时,如果出现urllib2.HTTPError
或urllib2.URLError
异常,Python将跳转到except
块。如果没有发生异常,则Python将跳转到else
块。 - unutbu