Czy jest jakaś darmowa aplikacja do pobierania całej witryny, którą można zainstalować w systemie Mac OS X 10.6?
macos
software-rec
website
download
Am1rr3zA
źródło
źródło
Możesz użyć wget z jego
--mirror
przełącznikiem.Strona człowiek dodatkowych przełączników tutaj .
W przypadku OSX można łatwo zainstalować
wget
(i inne narzędzia wiersza poleceń) za pomocąbrew
.W przypadku korzystania z linii poleceń jest zbyt trudne, a następnie CocoaWget jest OS X GUI dla
wget
. (Wersja 2.7.0 zawiera wget 1.11.4 z czerwca 2008 roku, ale działa dobrze.)źródło
wget --page-requisites --adjust-extension --convert-links
gdy chcę pobierać pojedyncze, ale pełne strony (artykuły itp.).SiteSuuker jest już polecany i robi dobrą robotę dla większości stron internetowych.
Uważam również, że DeepVacuum jest poręcznym i prostym narzędziem z kilkoma przydatnymi „ustawieniami wstępnymi”.
Zrzut ekranu znajduje się poniżej.
-
źródło
HTTrack
źródło
http://epicware.com/webgrabber.html
Używam tego na lampartie, nie jestem pewien, czy zadziała na lampartie śnieżnym, ale warto spróbować
źródło
pavuk jest zdecydowanie najlepszą opcją ... Jest to wiersz poleceń, ale ma GUI X-Windows, jeśli zainstalujesz go z Dysku Instalacyjnego lub pobierzesz. Być może ktoś mógłby napisać dla niego powłokę Aqua.
pavuk znajdzie nawet odnośniki w zewnętrznych plikach javascript, do których się odwołuje, i skieruje je do lokalnej dystrybucji, jeśli użyjesz opcji -mode sync lub -mode mirror.
Jest dostępny poprzez projekt portów os x, zainstaluj port i typ
port install pavuk
Wiele opcji (las opcji).
źródło
Pobierz witrynę A1 dla komputerów Mac
Posiada ustawienia dla różnych typowych zadań pobierania strony i wiele opcji dla tych, którzy chcą szczegółowo skonfigurować. Obejmuje obsługę interfejsu użytkownika + interfejsu CLI.
Zaczyna się jako 30-dniowy okres próbny, po którym zmienia się w „tryb bezpłatny” (nadal odpowiedni dla małych witryn poniżej 500 stron)
źródło
Użyj curl, jest domyślnie zainstalowany w OS X. wget nie jest, przynajmniej nie na moim komputerze, (Leopard).
Pisanie na maszynie:
Zostanie pobrany do pliku dump.html w bieżącym folderze
źródło
curl
nie pobiera rekurencyjnych (to znaczy, nie może podążać za hiperłączami, aby pobrać połączone zasoby, jak inne strony internetowe). Tak więc nie można tak naprawdę z nią odtworzyć całej witryny.