Jeśli mam listę adresów URL oddzielonych \n, czy są jakieś opcje, które mogę przekazać, aby wgetpobrać wszystkie adresy URL i zapisać je w bieżącym katalogu, ale tylko wtedy, gdy pliki jeszcze nie istnieją?
Przeczytałem to po napisaniu skryptu Bash, aby sprawdzić istnienie plików osobno!
anotherdave
7
Od wget --help:
....
-i, --input-file=FILE download URLs found in local or external FILE.
....
-nc, --no-clobber skip downloads that would download to
existing files.
-c, --continue resume getting a partially-downloaded file.
....
Dołączyłem, --continueponieważ wydawało się, że może to być pomocne, jeśli próbujesz odzyskać po przerwanym pobieraniu, ale nie potrzebujesz go, aby odpowiedzieć na pierwotne pytanie.
Odpowiedzi:
Istnieje opcja
-nc
(--no-clobber
) dlawget
.źródło
Od
wget --help
:Dołączyłem,
--continue
ponieważ wydawało się, że może to być pomocne, jeśli próbujesz odzyskać po przerwanym pobieraniu, ale nie potrzebujesz go, aby odpowiedzieć na pierwotne pytanie.źródło