如何恢复使用wget进行镜像网站下载?

10
我使用wget下载整个网站。
我在Windows 7中使用了以下命令:
wget ^
 --recursive ^
 -A "*thread*, *label*" ^
 --no-clobber ^
 --page-requisites ^
 --html-extension ^
 --domains example.com ^
 --random-wait ^
 --no-parent ^
 --background ^
 --header="Accept: text/html" --user-agent="Mozilla/5.0 (Macintosh; Intel Mac OS X 10.8; rv:21.0) Gecko/20100101 Firefox/21.0" ^
     http://example.com/

两天后,我的小弟弟重新启动了电脑,所以我尝试恢复中断的进程。我在命令中添加了以下内容:

--continue ^

因此代码看起来像这样

wget ^
     --recursive ^
     -A "*thread*, *label*" ^
     --no-clobber ^
     --page-requisites ^
     --html-extension ^
     --domains example.com ^
     --random-wait ^
     --no-parent ^
     --background ^
     --continue ^
     --header="Accept: text/html" --user-agent="Mozilla/5.0 (Macintosh; Intel Mac OS X 10.8; rv:21.0) Gecko/20100101 Firefox/21.0" ^
         http://example.com/

很不幸,它开始了一个新的工作,又下载了相同的文件并写了一个新的日志文件,命名为

wget-log.1

有没有办法使用wget恢复镜像网站,还是我必须重新开始整个过程?
1个回答

10

尝试使用-nc选项。它会重新检查所有内容,但不会下载。

我正在使用以下代码下载一个网站: wget -r -t1 domain.com -o log

我停止了这个过程,想要恢复它,所以我改变了代码: wget -nc -r -t1 domain.com -o log

日志里有这样的信息: 文件已经存在; 不再检索等等

在此之前,我检查了日志,似乎经过大约5分钟的这种检查后,它开始下载新文件。

我正在使用wget手册: http://www.linux.net.pl/~wkotwica/doc/wget/wget_8.html


3
它只检查文件是否存在,没有检查文件是否完整。 - Phani Rithvij
1
也不能使用 --convert-links。 - Phani Rithvij

网页内容由stack overflow 提供, 点击上面的
可以查看英文原文,
原文链接