To pytanie ma już odpowiedź tutaj:
Istnieją proste i świetne narzędzia do pobierania stron internetowych, które pozwalają stworzyć lokalne lustro prostych stron bez infrastruktury JavaScript. Czasami jednak zdarza się, że strona wygląda na prostą (a nawet wystarczająco starą, aby być prawdziwą witryną „web 1.0”), ale żadne z takich narzędzi do pobierania nie jest w stanie zrobić jej kopii lustrzanej. Próbowałem stworzyć lokalne dublowanie dla tej strony dla fanów (na przykład, zawiera ona niektóre transkrypcje, których nie można znaleźć gdzie indziej, i kilka rzadszych rzeczy) za pomocą HTTrack Site Copier, Free Download Managera i wget. Wszystkie z nich tworzyły proste mirrory pozbawione dużej ilości treści. Widziałem kilka skryptów na tych stronach, i prawdopodobnie to uniemożliwia tworzenie kopii lustrzanych.
Jak mogę wykonać kopię lustrzaną witryny z włączoną prostą obsługą JS? Być może istnieje rozwiązanie obsługiwane przez przeglądarkę internetową, które może obsługiwać JS po wyjęciu z pudełka (dowolne rozszerzenie przeglądarki itp.)?
Z góry dziękuję.
źródło
Odpowiedzi:
W tym konkretnym przypadku skończyłem z następującym
bash
skryptem:Nie mogłem zasymulować zachowania JavaScript, ale ponieważ strona jest niezwykle prosta, nie trzeba jej zbytnio analizować, aby napisać
wget
skrypt powłoki. To trochę trudne, ale działa. Dziękuję wszystkim za sugestie.Nie zaznaczam tej odpowiedzi jako najlepszej, ponieważ moja odpowiedź dotyczy tylko konkretnego przypadku. Tak więc wszelkie pomysły dotyczące bardziej ogólnego przypadku są naprawdę mile widziane (wszelkie „inteligentne” narzędzia cmd-line, rozszerzenia przeglądarki itp.).
źródło