Próbuję zaimportować spakowany gzip plik SQL bezpośrednio do mysql. Czy to dobra droga? mysql -uroot -ppassword mydb >
Gzip to jedna z kilku aplikacji używanych do kompresji i dekompresji plików. Termin zwykle odnosi się do implementacji Projektu GNU, „gzip” oznacza GNU zip. Opiera się na algorytmie DEFLATE, który jest połączeniem kodowania Lempel-Ziv (LZ77) i Huffman.
Próbuję zaimportować spakowany gzip plik SQL bezpośrednio do mysql. Czy to dobra droga? mysql -uroot -ppassword mydb >
Zwykle po zrzuceniu bazy danych MySQL mysqldump polecenia natychmiast tar / gzip wynikowy plik. Szukam sposobu, aby to zrobić za pomocą jednego polecenia: Więc z tego: mysqldump dbname -u root -p > dbname.sql tar czvf dbname.sql.tgz dbname.sql rm dbname.sql Do czegoś takiego: mysqldump...
Używam odwrotnej pamięci podręcznej proxy nginx z włączonym gzip. Mam jednak problemy z żądaniami HTTP aplikacji Android do mojej usługi internetowej Rails JSON. Wygląda na to, że kiedy wyłączę bufor buforowania odwrotnego proxy, działa to dobrze, ponieważ nagłówek odpowiedzi przychodzi bez gzip....
Czy w ogóle istnieje możliwość szybszego wyodrębnienia pliku tar.gz tar -zxvf filenamehere? Mamy duże pliki i staramy się zoptymalizować
Uruchamiam to polecenie: pg_dumpall | bzip2 > cluster-$(date --iso).sql.bz2 To trwa zbyt długo. Patrzę na procesy z top. Proces bzip2 zajmuje około 95%, a postgres 5% jednego rdzenia. waWpis jest niska. Oznacza to, że dysk nie stanowi wąskiego gardła. Co mogę zrobić, aby zwiększyć...
Jak włączyć kompresję Gzip lub Deflate poprzez .htaccess i który z nich jest obecnie najlepszy? Potrzebne przykłady
Mam skrypt, który zipuje pliki z folderu. Chcę się upewnić, że skompresowany plik nie ma więcej niż 10 MB. Jeśli rozmiar jest większy niż 10 MB, powinien utworzyć kolejny plik ZIP. Czy istnieje jakakolwiek komenda (lub inna metoda), której można użyć w tym
Mam nadzieję, że uzyskam wskazówki, jak skonfigurować obcinanie i gzip'owanie w dziennikach dostępu do moich domen. Zauważam, że podstawowe dzienniki dostępu nginx są domyślnie dzielone i kompresowane, ale moje indywidualne dzienniki dostępu wciąż rosną. Czy jest to coś, co można skonfigurować i...
Mam plik tar (gz, bzip) i chcę zobaczyć jego zawartość, ale nie rekurencyjnie. To jest: „Pierwszy poziom” w pliku. Wiem już, jak zobaczyć zawartość: tar -ztf plik.tar.gz Ale to rekurencyjne
Mam kilka spakowanych plików dziennika, które chciałbym udostępnić z Nginx. Chcę, aby były one podawane w taki sposób, aby były automatycznie zawyżane przez przeglądarkę. Zakładam, że oznacza to, że potrzebuję nginx, aby wysłać pliki jako .gz z nagłówkiem tekstowym / zwykłym. Można to zrobić w...
Wiem, że możesz używać nginx HttpGzipModule do odpowiedzi gzip . Als można używać go włączyć do nginx gzip-em uchwytem wniosków , czyli te z nagłówka żądania: Content-Encoding: gzip? Uwaga: Apache za pomocą mod_deflatedyrektywy może obsługiwać żądania skompresowane przez gzip SetInputFilter...
Jak mogę skompresować podkatalogi do osobnych archiwów? Przykład: directory subdir1 subdir2 Powinien utworzyć podkatalog1 (.tar) .gz i podkatalog2 (.tar)
Czy istnieje magiczny potok powłoki, który pozwoliłby łatwo przeszukiwać wiele plików dziennika .gz bez konieczności ich wyodrębniania? Pliki .gz to dzienniki Apache, będące wynikiem rotacji dzienników. Chciałbym szybko sprawdzić, jak często w przeszłości uzyskuje się dostęp do niektórych...
Próbowałem utworzyć reguły wychodzące w IIS 7.5 w systemie Windows 2008 R2 w witrynie z włączonymi statycznymi stronami HTML i włączoną kompresją. Jeśli mam włączoną dowolną formę kompresji (statyczną lub dynamiczną), pojawia się ten błąd: HTTP Error 500.52 - URL Rewrite Module Error. Outbound...
Byłbym bardzo wdzięczny za pomoc w zrozumieniu tego zachowania Apache. Komunikuję się z PHP z aplikacji iPhone Objective-C w aplikacji / json. Kompresja Gzip jest włączona na serwerze i żądana przez klienta. Z mojego .htaccess: AddOutputFilterByType DEFLATE text/html text/plain text/xml...
Mam plik 100 GB i chcę podzielić na 100 plików 1 GB każdy (według podziału wiersza) na przykład split --bytes=1024M /path/to/input /path/to/output Dla wygenerowanych 100 plików chcę zastosować gzip / zip do każdego z tych plików. Czy można użyć jednego
Czy można użyć GZip do utworzenia pliku .zip? Byłem w Googlingu i nie mogę znaleźć niczego, co mogłoby mnie przekonać, że to
Robię kopie zapasowe serwera za pomocą rsync, ale te kopie są dość duże i chciałbym je skompresować. Czy istnieje sposób na zawinięcie rsync w celu rozpakowania pliku w kopii zapasowej, zsynchronizowania zmian z pliku na żywo, a następnie ponownego zgzipowania pliku, gdy tylko zostanie...
Obecnie próbuję skonfigurować Nginx do obsługi wszystkich moich plików statycznych. Ponieważ nie będą one często zmieniane bardzo często, chcę nam moduł gzip_static, który pozwoli mi wstępnie kopiować kopie moich plików, aby zaoszczędzić trochę czasu procesora i umożliwić lepszą...
Mam dużą statyczną treść, którą muszę dostarczyć za pośrednictwem serwera WWW opartego na systemie Linux. Jest to zestaw ponad miliona małych plików gzip. 90% plików ma mniej niż 1 KB, a pozostałe pliki mają najwyżej 50 KB. W przyszłości może to wzrosnąć do ponad 10 milionów plików gzip. Czy...