Próbuję analizować zrzuty sterty z serwera, które są dość dużymi plikami (10-15 GB). Tworzę te pliki na serwerze i chcę je analizować na moim komputerze, więc aby je pobrać, próbowałem je skompresować zarówno za pomocą bzip, jak i gzip. Oba programy konsekwentnie wytwarzają uszkodzone pliki, których nie można już rozpakować.
Używam ext3 z blokiem o wielkości 4 KiB, więc limit wielkości pliku powinien wynosić 2 TiB, a zatem nie ma znaczenia w moim przypadku. Używam gzip 1.3.12 i bzip 1.0.5 na Ubuntu Jaunty, 64-bitowej wersji serwera, w przeważającej części waniliowej (dodałem tylko niektóre pakiety, nic szczególnego).
Działa RAID-1, ale nie zgłasza problemów z synchronizacją ani opóźnień.
Zrzuty są tworzone za pomocą jmap.
Czy istnieje jakiś szczególny rodzaj danych, który powoduje, że programy te dławią się?
Czy rozmiar jest problemem?
Co mogę spróbować dowiedzieć się więcej lub obejść problem?
źródło
-t
flagą.Odpowiedzi:
Jeśli jest to więcej niż jeden plik, spróbuj najpierw umieścić je w archiwum tar
lub do kompresji bzip
Nigdy nie miałem problemów z żadną metodą na wielu systemach i systemach plików.
Oczywiście zadziała również dla 1 pliku!
źródło
gzip w wersji 1.2.4 i starszych ma problemy z dekompresją plików większych niż 4 Gb (patrz: http://www.gzip.org/#faq10 )
Według dziennika zmian bzip2 wydaje się, że miał on również problemy z większymi plikami przed wersją 1.0.0
źródło