我想要从stdin提供URL并下载网页。基本上,一个进程会不断地将URL输出到stdout或文件中,我希望将它们通过管道传递给wget或curl。(如果你愿意,可以把它想象成简单的网络爬虫)。
这似乎可以正常工作:
这似乎可以正常工作:
tail 1.log | wget -i - -O - -q
但当我使用“tail -f”时,它不再起作用了(缓冲或wget正在等待EOF?)
tail -f 1.log | wget -i - -O - -q
请问有人能够提供使用wget、curl或任何其他标准Unix工具的解决方案吗?理想情况下,我不希望在循环中重新启动wget,只需保持其运行以下载URL即可。
xargs
,wget
将 URL 作为参数接收,因此您不再需要-i -
。tail -f 1.log | xargs -n1 wget -O - -q
- pabouk - Ukraine stay strong