Chciałbym poznać różnicę między curli wget. Oba są używane do pobierania plików i dokumentów, ale jaka jest zasadnicza różnica między nimi. Dlaczego są dwa różne
Chciałbym poznać różnicę między curli wget. Oba są używane do pobierania plików i dokumentów, ale jaka jest zasadnicza różnica między nimi. Dlaczego są dwa różne
Czy można ograniczyć (ograniczyć) prędkość pobierania wgetlub curl? Czy można zmienić wartość przepustnicy podczas
Chcę pobrać folder z dysku Google za pomocą terminala? Czy istnieje jakiś sposób, aby to zrobić? Próbowałem tego: $ wget "https://drive.google.com/folderview?id=0B-Zc9K0k9q-WWUlqMXAyTG40MjA&usp=sharing" Ale to jest pobieranie tego pliku tekstowego:
Muszę pobrać duży plik (1 GB). Mam również dostęp do wielu komputerów z systemem Linux, ale zasady administratora ograniczają każdy z nich do prędkości pobierania 50 kB / s. Jak mogę dystrybuować pobieranie tego pliku na kilka komputerów i scalać je po pobraniu wszystkich segmentów, aby szybciej...
Jak wznowić częściowo pobrany plik za pomocą narzędzia wiersza polecenia systemu Linux? Pobrałem częściowo duży plik, tj. 400 MB z 900 MB z powodu przerwy w zasilaniu, ale kiedy ponownie zaczynam pobieranie, wznawia się od zera. Jak zacząć od samego 400
Załóżmy, że list_of_urlswygląda to tak: http://www.url1.com/some.txt http://www.url2.com/video.mp4 Wiem, jak tego używać z: wget -i list_of_urls Ale co, jeśli mój list_of_urlsma to i wszystkie zwracają odpowiednie pliki, takie jak pliki PDF lub
sudo apt-get install pppoe pobierze pppoepakiet i zainstaluje go. Czy można po prostu pobrać pppoepakiet i nie instalować go za pomocą apt-getpolecenia? wget http://ftp.us.debian.org/debian/pool/main/p/ppp/ppp_2.4.7-1+4_amd64.deb ppp_2.4.7-1+4_amd64.deb jest teraz w bieżącym katalogu. cd...
Czy istnieje narzędzie, które można wykorzystać do pobierania dużych plików w przypadku złego połączenia? Muszę regularnie pobierać stosunkowo mały plik: 300 MB, ale powolne (80-120 KBytes / s) połączenie TCP losowo przerywa się po 10-120 sekundach. (Jest to sieć dużej firmy. Wielokrotnie...
Jak pobrać pełną stronę internetową, ale ignorując wszystkie pliki binarne. wgetma tę funkcję za pomocą -rflagi, ale pobiera wszystko, a niektóre witryny są po prostu zbyt duże dla maszyny o niskim zużyciu zasobów i nie jest to przydatne z konkretnego powodu, dla którego pobieram witrynę. Oto...
Mam plik konfiguracyjny, który składa się z listy identyfikatorów URI, które chcę pobrać. Na przykład, http://xyz.abc.com/Dir1/Dir3/sds.exe http://xyz.abc.com/Dir2/Dir4/jhjs.exe http://xyz.abc.com/Dir1/itr.exe Chcę odczytać plik konfiguracyjny i skopiować każdy adres URL, ale jednocześnie...
Jak używać wget do pobierania plików z Onedrive? (oraz pliki wsadowe i całe foldery, jeśli to
Interesuje mnie jedno polecenie, które pobierałoby zawartość torrenta (i być może uczestniczył jako ziarno po pobraniu, dopóki go nie zatrzymam). Zwykle istnieje demon torrent-klient, który powinien zostać wcześniej uruchomiony osobno, oraz klient do kontroli (jak transmission-remote). Ale szukam...
Piszę skrypt, który wymaga pobrania i manipulowania plikiem, i chcę się upewnić, że plik nie jest niekompletny (z powodu np. Zerwanego połączenia) przed rozpoczęciem
Mam częściowo pobrany plik z aria2. Obok znajduje się plik o tej samej nazwie kończący się na .aria2. Nie znam linku do pobrania. Mam tylko te dwa pliki. Chcę wiedzieć, jak mogę wznowić pobieranie w tej sytuacji. Uwaga: *.aria2jest tworzony obok pliku do pobrania i pozostaje do momentu...
Pobieram dane rozproszone wśród wielu plików, które nie zmieniają się po opublikowaniu. Dlatego --timestampingnie jest wystarczająco dobry, ponieważ stale sprawdza, który zasób jest zmieniany, co w moim przypadku jest całkowicie bezcelowe. --no-clobberpasuje idealnie. Niestety z --convert-links...
wget jest bardzo przydatnym narzędziem do szybkiego pobierania rzeczy w Internecie, ale czy mogę go używać do pobierania z witryn hostingowych, takich jak FreakShare, IFile.it Depositfiles, przesłane, Rapidshare? Jeśli tak, jak mogę to
Jeśli mam listę adresów URL oddzielonych \n, czy są jakieś opcje, które mogę przekazać, aby wgetpobrać wszystkie adresy URL i zapisać je w bieżącym katalogu, ale tylko wtedy, gdy pliki jeszcze nie
Czy istnieje program linux, który pozwala sprawdzić aktualny ruch związany z pobieraniem? Coś, co może wymienić wszystkie adresy, z którymi jestem obecnie połączony i z których
Pytam tylko z ciekawości, czy istnieje sposób na uzyskanie „czystej”, że tak powiem, kopii Uniksa? Więc nie OS X ani Linux z Uniksem w tle, ale po prostu Unix ..