Jak używasz wget do pobierania całej witryny (domena A), gdy jej zasoby znajdują się w innej domenie (domena B)? Próbowałem: wget -r --level=inf -p -k -E --domains=domainA,domainB
Jak używasz wget do pobierania całej witryny (domena A), gdy jej zasoby znajdują się w innej domenie (domena B)? Próbowałem: wget -r --level=inf -p -k -E --domains=domainA,domainB
Chcę pobrać plik tar tej biblioteki Pythona z terminala. https://github.com/simplegeo/python-oauth2/downloads Nie mogę jednak po prostu zadzwonić wget https://github.com/simplegeo/python-oauth2/tarball/master ponieważ powoduje to pobranie strony internetowej. Jak pobrać ten zasób z...
wget --load-cookieszaładuje pliki cookie jako „plik tekstowy w formacie pierwotnie używanym przez plik cookie.txt firmy Netscape”. Jednak Firefox przechowuje swoje pliki cookie w bazie danych SQLite . Czy istnieje sposób na wyodrębnienie „pliku cookie.txt Netscape” z cookies.sqlitepliku Firefox...
Próbuję pobrać niektóre pliki z mojego serwera ftp z wiersza polecenia. Korzystam z wget, aby pobrać cały folder na raz. Polecenie to: wget -m ftp://username:[email protected]:/path/to/folder Problem w tym, że moje hasło zawiera symbol „@”. Stąd polecenie staje się wget -m...
Mam stronę internetową i chcę pobrać wszystkie strony / linki w tej witrynie. Chcę zrobić wget -rpod tym adresem URL. Żaden z linków nie wykracza poza ten konkretny katalog, więc nie martwię się o pobranie całego Internetu. Jak się okazuje, strony, które chcę, znajdują się za sekcją strony...
Używam wget --mirror --html-extension --convert-linksdo tworzenia kopii lustrzanej witryny, ale kończę na wielu nazwach plików w tym formacie post.php?id=#.html. Gdy próbuję wyświetlić je w przeglądarce, kończy się to niepowodzeniem, ponieważ przeglądarka ignoruje ciąg zapytania podczas ładowania...
Jeśli napiszę wget „brak takiego adresu” -o „test.html”, najpierw tworzy test.html, aw przypadku awarii pozostawia go pustym. Jednak gdy nie użyjesz opcji -o, zaczeka, czy pobieranie się powiedzie, a dopiero potem zapisze plik. Chciałbym, aby to drugie zachowanie dotyczyło również -o, czy to...
Zasadniczo chcę zaindeksować całą witrynę za pomocą Wget, ale potrzebuję tego, aby NIGDY nie pobierać innych zasobów (np. Zdjęć, CSS, JS itp.). Chcę tylko pliki HTML. Wyszukiwania w Google są całkowicie bezużyteczne. Oto polecenie, które próbowałem: wget --limit-rate=200k --no-clobber...
Używam Linux Mint 15 Cynamon z pendrive 8 GB. Chcę uzyskać ISO dla „Linux Mint 14„ Nadia ”KDE. Próbowałem użyć wgetw terminalu. Oto dokładnie to, co wpisałem: wget http://mirror.ufs.ac.za/linuxmint/stable/14/linuxmint-14-kde-dvd-64bit.iso po pobraniu do 30% (po około 2 godzinach) byłem...
W jaki sposób instruujesz wget, aby rekurencyjnie indeksował witrynę i pobierał tylko określone typy obrazów? Próbowałem tego użyć do indeksowania witryny i pobierania tylko obrazów JPEG: wget --no-parent --wait=10 --limit-rate=100K --recursive --accept=jpg,jpeg --no-directories...
Wiem, że można pobierać rekursywnie strony internetowe wget, ale czy można wykonać próbę wstępną? Abyś mógł wykonać test, aby zobaczyć, ile można pobrać, gdybyś to zrobił? Myśląc o stronach, które mają wiele linków do plików multimedialnych, takich jak na przykład obrazy, pliki audio lub...
Mam dość duży plik hostowany na pięciu różnych serwerach. Chciałbym móc pobrać różne części pliku z każdego serwera, a następnie połączyć części w celu utworzenia oryginalnego pliku. Czy można to zrobić za pomocą curl / wget lub innych narzędzi wiersza polecenia OS...
Próbuję użyć wget do stworzenia lokalnego lustra strony internetowej. Ale odkrywam, że nie otrzymuję wszystkich stron z linkami. Oto strona internetowa http://web.archive.org/web/20110722080716/http://cst-www.nrl.navy.mil/lattice/ Nie chcę wszystkich stron zaczynających się od web.archive.org,...
Próbuję pobrać dwie witryny w celu umieszczenia na płycie CD: http://boinc.berkeley.edu/trac/wiki http://www.boinc-wiki.info Problemem jest to, że są to wiki. Więc podczas pobierania za pomocą np .: wget -r -k -np -nv -R jpg,jpeg,gif,png,tif http://www.boinc-wiki.info/ Dostaję dużo plików,...
Okej, poddaję się. Jak mogę ograniczyć rozmiar pobieranych plików, na przykład powiedzieć, że nie chcę żadnych plików większych niż 2
Próbuję pobrać podobny adres URLhttp://www.somesite.com/restaurants.html#photo=22x00085 . Umieszczam go pomiędzy pojedynczymi cudzysłowami, ale pobiera tylko http://www.somesite.com/restaurants.html, co nie jest poprawną stroną. Czy jest jakieś
Udawaj, że chciałem pobrać prostą kopię strony na mój HD w celu trwałego przechowywania. Nie szukam głębokiego rekurencyjnego pobierania, tylko pojedynczej strony, ale także wszelkich zasobów załadowanych przez tę stronę, które również powinny zostać pobrane. Przykład:...
Jak napisać skrypt bash, który wykona następujące czynności: URL = "example.com/imageID=" while (1..100) wget URL + $i #it will wget example.com/imageID=1, then 2, then 3, etc done Mam więc kilka pętli do wykonania, adres URL zakończony liczbą z pętli. Potrzebuję do nich...
Chcę pobrać plik za pomocą Wget , ale zgodnie ze zwykłą filozofią UNIX, nie chcę, aby coś wypisało, jeśli pobieranie się powiedzie. Jednak jeśli pobieranie się nie powiedzie, chcę komunikat o błędzie. -qOpcja wyłącza wszystkie wyjścia, w tym komunikaty o błędach. Jeśli -nvzamiast tego podam opcję,...
Mam adres URL strony HTML i chcę go grepować. Jak mogę to zrobić wget someArgs | grep keyword? Moim pierwszym pomysłem było wget -q -O - url | grep keyword, ale wyjście wgeta omija grep i pojawia się na terminalu w jego oryginalnej