Pobieram za wgetpomocą wolnego łącza. Czasami pasek postępu wygląda następująco: 15% [+++++++++++++++===> ] 10,582,848 --.-K/s in 82s Jakie jest znaczenie
Pobieram za wgetpomocą wolnego łącza. Czasami pasek postępu wygląda następująco: 15% [+++++++++++++++===> ] 10,582,848 --.-K/s in 82s Jakie jest znaczenie
Obecnie mam skrypt powłoki działający na serwerze Linux, który używa wget in oder do pobierania zdalnej strony internetowej. To z kolei jest wykonywane przez zadanie cron, które ma być uruchamiane w określonych momentach. Czy ktoś może potwierdzić, że dodanie tej -qopcji nie tylko zatrzyma...
Natknąłem się na tę stronę internetową, która mówi o tym. Więc kiedy pobierasz całą stronę internetową, pobierając wersję spakowaną gzip, jakie jest właściwe polecenie? Przetestowałem to polecenie, ale nie wiem, czy wget naprawdę dostaje wersję spakowaną gzip: wget --header="accept-encoding:...
Zastanawiałem się, czy wgetmożna było pobrać RPM, a następnie przepuścić przez sudo rpm -iinstalację, w jednej linii? Zdaję sobie sprawę, że mogę po prostu biegać: wget -c <URL> sudo rpm -i <PACKAGE-NAME>.rpm aby zainstalować pakiet, ale zastanawiałem się, czy można to zrobić w...
Jak używać wget do pobierania plików z Onedrive? (oraz pliki wsadowe i całe foldery, jeśli to
Jeśli spróbuję wget na stronie internetowej, otrzymam stronę w formacie HTML. Czy można pobrać tylko tekst pliku bez powiązanego HTML? (Jest to dla mnie wymagane, ponieważ niektóre strony HTML zawierają c program jest pobierany z tagami HTML. Muszę go otworzyć w przeglądarce i ręcznie skopiować...
Interesuje mnie jedno polecenie, które pobierałoby zawartość torrenta (i być może uczestniczył jako ziarno po pobraniu, dopóki go nie zatrzymam). Zwykle istnieje demon torrent-klient, który powinien zostać wcześniej uruchomiony osobno, oraz klient do kontroli (jak transmission-remote). Ale szukam...
Próbuję pobrać pliki z tej witryny . Adres URL to: http://www.ncbi.nlm.nih.gov/geo/download/?acc=GSE48191&format=file Kiedy używam tego polecenia: wget http://www.ncbi.nlm.nih.gov/geo/download/?acc=GSE48191&format=file Dostaję tylko index.html?acc=GSE48191to, co jest rodzajem formatu...
Znalazłem tylko puf (moduł pobierania równoległego adresu URL), ale nie mogłem zmusić go do odczytania adresów URL z pliku; coś jak puf < urls.txt też nie działa. System operacyjny zainstalowany na serwerze to
Korzystam z tysięcy procesów zwijania w tle równolegle w następującym skrypcie bash START=$(date +%s) for i in {1..100000} do curl -s "http://some_url_here/"$i > $i.txt& END=$(date +%s) DIFF=$(( $END - $START )) echo "It took $DIFF seconds" done Mam serwer dedykowany 49Gb Corei7-920...
Chciałbym w zasadzie potokować wgetpolecenie do pliku na zdalnym serwerze przez SSH. W jaki sposób mogę to zrobić? Wiem, że mógłbym po prostu podłączyć sshsię do serwera i poprosić go o pobranie pliku, ale wolałbym użyć komputera lokalnego, aby go pobrać i
Mam witrynę na serwerze, która jest w zasadzie zbiorem stron HTML, obrazów i dźwięków. Zgubiłem hasło do tego serwera i muszę pobrać wszystko, co tam jest przechowywane. Mogę przeglądać strony po stronie i zapisywać wszystko, ale strona ma ponad 100 stron. Używam OSX. Próbowałem użyć, wgetale...
Chciałbym indeksować linki pod www.website.com/XYZ i pobierać tylko te linki, które znajdują się pod www.website.com/ABC. Używam następującego polecenia wget, aby uzyskać potrzebne pliki: wget -I ABC -r -e robots=off --wait 0.25 http://www.website.com/XYZ Działa to doskonale, gdy używam wget...
I sshed do mojego serwera i pobiegł wget -r -np zzz.aaa/bbb/ccci zaczęło działać. Potem moje połączenie internetowe (w moim domu) zostało przerwane i zaczęłam się martwić, zakładając, że wgetzostało to przerwane, hupponieważ sshpołączenie zostało utracone, a zatem terminal umarł. Ale potem zdałem...
Piszę skrypt, który wymaga pobrania i manipulowania plikiem, i chcę się upewnić, że plik nie jest niekompletny (z powodu np. Zerwanego połączenia) przed rozpoczęciem
Chcę używać wget(ze skryptu php) do pobierania plików obrazów, ale nie chcę pobierać plików o określonym rozmiarze. Czy mogę ograniczyć rozmiar pliku wget? Jeśli nie, jaki jest lepszy
Biegam wgettak: wget --mirror --adjust-extension --convert-links --no-cookies http://tshepang.net -o log-main Dostaję kilka takich wiadomości: Last-modified header missing -- time-stamps turned off. Podejrzewam, że oznacza to, że strony są pobierane ponownie, mimo że mam je lokalnie. UWAGA :...
Chcę po prostu móc eksplorować system plików Dropbox, bez dodatkowego obciążenia procesora, pamięci, pamięci (tj. Bez lokalnego zapisywania kopii plików zdalnych). Wygląda na to, że oficjalny klient zużywa dużo zasobów (i wykonywałby niepotrzebne operacje, takie jak synchronizacja) -...
Na przykład mam link http://www.abc.com/123/def/ghi/jkl.mno. Chcę go pobrać za pomocą wgetlub curli uzyskać nazwę pliku wyjściowego as def_ghi_jkl.mno, skąd część def_ghipochodzi z łącza. Umieszczę to wgetpolecenie w skrypcie, aby pobrać wiele plików, aby nie mogło jawnie podawać nazwy pliku...
Pobieram dane rozproszone wśród wielu plików, które nie zmieniają się po opublikowaniu. Dlatego --timestampingnie jest wystarczająco dobry, ponieważ stale sprawdza, który zasób jest zmieniany, co w moim przypadku jest całkowicie bezcelowe. --no-clobberpasuje idealnie. Niestety z --convert-links...