Obecnie eksportuję partycję ZFS przy dedup=on
użyciu ubuntu-zfs
i netatalk
. Jednak wehikuł czasu nalega na stworzenie na nim sparsebundle, i zaczęłam się zastanawiać, czy miałoby to jakikolwiek wpływ na deduplikację, ponieważ koncepcja „plików” zanika i prawdopodobnie wyrównanie bloków też nie byłoby świetne. .
PS Całą moją ideą korzystania z deduplikacji jest to, że mam kilka macbooków tworzących kopie zapasowe w tym samym miejscu, a wiele ich plików jest równych.
Dodatek: Wygląda na to, że wyrównanie na poziomie bloku kończy się niepowodzeniem. Oto moje doświadczenie:
- Kopie czasowe dwóch różnych macbooków, z dużą ilością zduplikowanych danych (łącznie 200 Gb)
- CCC dwa Macbooki na dwa rzadkie obrazy.
Czynnik deduplikacji? 1,01x
Jakieś pomysły na to, jak skonfigurować deduplikację ZFS do poprawnej pracy z kopiami zapasowymi wehikułu czasu? Czy powinienem zacząć szukać innych alternatywnych kopii zapasowych (w / dedup)?
Odpowiedzi:
Deduplikacja w ZFS odbywa się na poziomie bloków, więc nie zależy od koncepcji plików. Jedynym sposobem na pokonanie deduplikacji jest to, że przesunięcie pliku w pakiecie sparsebundle nie zawsze jest takie samo, jak rozmiar bloku. Ponieważ ZFS może używać zmiennych rozmiarów bloków, które są większe niż rozmiar bloku systemu plików HFS + w pakiecie sparsebundle, prawidłowe wyrównanie nie jest gwarantowane, ale nie jest też zagwarantowane, że deduplikacja nie powiedzie się.
Jeśli martwisz się o miejsce, możesz również włączyć kompresję w swojej puli ZFS. Nakłada to dodatkowe obciążenie procesora, ale w rzeczywistości może zwiększyć efektywną przepustowość dysku.
źródło