Mamy katalog plików rzadkich ( du
zwraca 240M dla jednego z tych plików; ls
zwraca 960M).
Kiedy kopiujemy jeden z tych plików do S3, w końcu przesyłamy cały 960M, a po pobraniu z S3 du
zwraca teraz pełny 960M.
Próbowaliśmy gzip
pingować, co zmniejsza rozmiary wysyłania / pobierania; ale wyodrębniony rozmiar nadal wynosi 960M (używa du
).
Czy jest jakiś sposób na przekonwertowanie tych plików z powrotem na rzadkie pliki?
linux
backup
gzip
sparsefile
Jedi
źródło
źródło
best way to backup and restore a directory of sparse files
-> rsyncOdpowiedzi:
Możesz to zrobić za
fallocate --dig-holes
pomocą najnowszej wersji util-linux.Alternatywnie,
cp --sparse=always
utworzy rzadki plik jako miejsce docelowe kopiowania (następnie możesz przenieść go nad oryginał).Pliki rzadkie można archiwizować za pomocą opcji
tar -S
lubtar --sparse
w GNU tar; np.tar -czSf foo.tar.gz foo
jeśli chcesz także kompresji lubtar -cSf foo.tar foo
nie.źródło