Korzystam z Wget i napotkałem problem. Mam witrynę, która ma kilka folderów i podfolderów w witrynie. Muszę pobrać całą zawartość każdego folderu i podfolderu. Wypróbowałem kilka metod przy użyciu Wget, a kiedy sprawdzam zakończenie, wszystko, co widzę w folderach, to plik „indeksu”. Mogę kliknąć plik indeksu, a to zabierze mnie do plików, ale potrzebuję rzeczywistych plików.
czy ktoś ma polecenie Wget, które przeoczyłem, czy jest inny program, którego mógłbym użyć, aby uzyskać wszystkie te informacje?
przykład strony:
www.mysite.com/Pictures/ na zdjęciach DIr, istnieje kilka folderów .....
www.mysite.com/Pictures/Accounting/
www.mysite.com/Pictures/Managers/North America / California / JoeUser.jpg
Potrzebuję wszystkich plików, folderów itp ...
wget
dotyczącą korzystania z niej rekurencyjnie ?Odpowiedzi:
Chcę założyć, że nie próbowałeś tego:
lub w celu pobrania zawartości bez pobierania plików „index.html”:
Odniesienie: Używanie wget do rekurencyjnego pobierania katalogu zawierającego dowolne pliki
źródło
używam
wget -rkpN -e robots=off http://www.example.com/
-r
oznacza rekurencyjnie-k
oznacza konwersję linków. Więc linki na stronie będą localhost zamiast example.com/bla-p
oznacza pozyskanie wszystkich zasobów strony internetowej, aby uzyskać obrazy i pliki javascript, aby strona działała poprawnie.-N
jest pobieranie znaczników czasu, więc jeśli pliki lokalne są nowsze niż pliki w zdalnej witrynie, pomiń je.-e
to opcja flagi, która musi tam być,robots=off
aby działać.robots=off
oznacza zignoruj plik robota.Miałem również
-c
w tym poleceniu, więc jeśli połączenie zostało przerwane, jeśli będzie kontynuowane tam, gdzie zostało przerwane, gdy ponownie uruchomię polecenie. Uznałem, że-N
będzie dobrze-c
źródło
-e
, wykona polecenie tak, jakby było częścią .wgetrc. Dodałem go tam, ponieważrobots=off
wydaje się, że nie działałoby bez niego.wget -m -A * -pk -e robots = off www.mysite.com/ spowoduje to pobranie wszystkich typów plików lokalnie i wskazanie ich z pliku html
oraz zignorowanie pliku robota
źródło