Użyj wget
zamiast tego. Możesz go zainstalować, brew install wget
jeśli zainstalowałeś Homebrew lub sudo port install wget
MacPorts.
Aby pobrać pliki z listy katalogów, użyj -r
(rekurencyjne), -np
(nie podążaj za linkami do katalogów nadrzędnych) i -k
aby linki w pobranym HTML lub CSS wskazywały na pliki lokalne (kredyt @xaccrocheur).
wget -r -np -k http://www.ime.usp.br/~coelho/mac0122-2013/ep2/esqueleto/
Inne przydatne opcje:
-nd
(bez katalogów): pobierz wszystkie pliki do bieżącego katalogu
-e robots.off
: ignoruj pliki robots.txt, nie pobieraj plików robots.txt
-A png,jpg
: akceptuj tylko pliki z rozszerzeniami png
lubjpg
-m
(lustro): -r --timestamping --level inf --no-remove-listing
-nc
, --no-clobber
: Pomiń pobieranie, jeśli pliki istnieją
wget -r -np -k http://your.website.com/specific/directory
. Sztuką jest użycie-k
do konwersji linków (obrazów itp.) Do lokalnego wyświetlania.brew
iport
nie działa dla mnie instalacja wget. Co powinienem zrobić?-k
nie zawsze działa. Na przykład, jeśli masz dwa linki prowadzące do tego samego pliku na stronie, którą próbujesz przechwycić rekurencyjnie,wget
wydaje się, że konwertuje tylko link pierwszej instancji, ale nie drugiej.curl
może odczytywać tylko pliki pojedynczych stron internetowych, kilka linii, które masz, jest w rzeczywistości indeksem katalogu (który widzisz również w przeglądarce, jeśli przejdziesz do tego adresu URL). W użyciucurl
i niektóre narzędzia uniksowe magiczne, aby uzyskać pliki, których możesz użyćktóry przeniesie wszystkie pliki do bieżącego katalogu.
W przypadku bardziej rozbudowanych potrzeb (w tym pobierania kilku plików z witryny z folderami / katalogami)
wget
(jak już zaproponowano w innej odpowiedzi) lepszym rozwiązaniem jest.źródło
xmllint --html --xpath '//a/@href'
jest prawdopodobnie lepszym parserem niżgrep
.Patrz: http://blog.incognitech.in/download-files-from-apache-server-listing-directory/
Możesz użyć następującego polecenia:
Objaśnienie każdej opcji
wget
: Proste polecenie, aby wysłać żądanie CURL i pobrać zdalne pliki na nasz komputer lokalny.--execute="robots = off"
: Zignoruje plik robots.txt podczas przeszukiwania stron. Jest to pomocne, jeśli nie otrzymujesz wszystkich plików.--mirror
: Ta opcja będzie zasadniczo odzwierciedlać strukturę katalogów dla podanego adresu URL. Jest to skrót,-N -r -l inf --no-remove-listing
który oznacza:-N
: nie pobieraj ponownie plików, chyba że nowsze niż lokalne-r
: określ pobieranie rekurencyjne-l inf
: maksymalna głębokość rekurencji (inf lub 0 dla nieskończoności)--no-remove-listing
: nie usuwaj plików „.listing”--convert-links
: twórz linki w pobranym HTML lub CSS wskazują na pliki lokalne--no-parent
: nie wchodź do katalogu nadrzędnego--wait=5
: poczekaj 5 sekund między pobraniem. Abyśmy nie przerzucili serwera.<website-url>
: To jest adres strony internetowej, z której można pobrać pliki.Happy Download: buźka:
źródło
Możesz użyć httrack dostępnego dla Windows / MacOS i instalowalnego przez Homebrew.
źródło
Dla tych z nas, którzy wolą korzystać z aplikacji z graficznym interfejsem użytkownika, jest niedrogi program do udostępniania DeepVacuum dla Mac OS X , który implementuje się
wget
w przyjazny dla użytkownika sposób, z listą ustawień wstępnych, które mogą obsługiwać często potrzebne zadania. Możesz także zapisać własne konfiguracje jako ustawienia wstępne.źródło