Czy użycie dużego rozmiaru alokacji dysku NTFS dla udziału plików robi różnicę?

9

Formatuję dysk przy użyciu systemu plików NTFS, który będzie dedykowany jako udział plików dla użytkowników w celu centralnego przechowywania ich plików. Pliki będą prawdopodobnie duże (od 10 do 100 megabajtów).

Ktoś zasugerował, że użycie większej wielkości jednostki alokacji niż domyślna 4k (np. 64k) poprawi jej wydajność. Wydaje mi się, że rozumiem podstawową zasadę, która za tym stoi, ale nie jestem pewien, czy jest ona skuteczna w praktyce. Czy to naprawdę coś zmieni, czy może coś takiego może powodować więcej problemów niż rozwiązuje?

DSO
źródło

Odpowiedzi:

9

Większy rozmiar alokacji zwiększy wydajność przy użyciu większych plików. Jeśli wszystkie będą dużymi plikami, warto zapłacić za zwiększenie rozmiaru alokacji do 32 KB lub 64 KB.

Należy pamiętać, że im większy rozmiar jednostki alokacji, tym więcej miejsca na dysku zostanie zmarnowane. Dzieje się tak niezależnie od rozmiarów plików przechowywanych na woluminie. Jeśli rozmiar jednostki alokacji wynosi 64 KB i zapiszesz plik 50 KB, 14 KB zostanie zmarnowane. Jeśli zapiszesz plik o wielkości 800 KB, zostanie on podzielony na 13 części, ale 13. część będzie mieć tylko 32 KB danych, co spowoduje 32 KB zmarnowanego miejsca na dysku.

Zasób dostrajania wydajności dysków NTFS można znaleźć tutaj: http://www.windowsdevcenter.com/pub/a/windows/2005/02/08/NTFS_Hacks.html

Powodzenia, wszelkie dalsze pytania nie wahaj się zadać.

Lima

Lima
źródło
Pamiętaj tylko, że spowoduje to, że pliki zajmą więcej miejsca na dysku (zaokrągli rozmiary plików do najbliższego pełnego bloku), więc jeśli problemem jest miejsce na dysku lub jeśli będą też mniejsze pliki, powinieneś dokładnie rozważyć.
Catherine MacInnes
1
Absolutnie słuszne jest stwierdzenie, że „pliki [będą] zajmowały więcej miejsca na dysku”, jednak nie jest właściwe skupianie się na tym, czy będą mniejsze pliki, ale raczej tym, ile plików trafi do woluminu. Ponieważ każdy plik jest zaokrąglany w górę do najbliższego rozmiaru bloku, niezależnie od jego całkowitego rozmiaru, to sama liczba plików może spowodować powstanie dużej ilości zmarnowanego miejsca.
Mówię: Przywróć Monikę
1
Aby dodać do komentarza @ Twisty: oczekiwana zmarnowana przestrzeń = oczekiwana liczba plików * rozmiar jednostki alokacji / 2. Więc jeśli wybiorę rozmiar jednostki alokacji 64k (65 536 bajtów), a moje pliki są ogromne, więc mam tylko około 3000, Mogę oczekiwać, że zmarnuję 3000 * 65 536/2 = 98 304 000 bajtów lub około 98 MB. Odpady te nazywane są fragmentacją wewnętrzną (dzięki, wymagane klasy CS).
Jake
5

Ustawienie rozmiaru bloku alokacji może poprawić wydajność dostępu do dużych plików, ale jest mało prawdopodobne, aby poprawiła wydajność sieciowego udostępniania plików zauważalnie, ponieważ inne wąskie gardła zmniejszą wszelkie lokalne korzyści.

Jest kilka rzeczy na które należy zwrócić uwagę:

  • pliki zajmą więcej miejsca, więc jeśli masz dużo małych plików, będzie to stanowić problem
  • dostęp do małych plików może być wolniejszy, ponieważ system odczytuje jednocześnie całe bloki (więc odczytywanie 64Kb dla pliku 1Kb, jeśli używasz bloków 64Kb), chociaż w zależności od zachowania dysków z wyprzedzeniem, może to nie być zauważalne
  • może się okazać, że w rzeczywistości szkodzi to wydajności, gdy wzorzec dostępu jest bardzo losowy i / lub istnieje wiele równoległych procesów uzyskujących dostęp do zasobu przez sieć

Moja jelito sugeruje, że nie zauważysz dużej korzyści (lub szkody) w zakresie wydajności w przypadkach wymagających użycia, a moje jelita są dość duże, więc nie mam z tym kłótni, więc trzymałbym się mniejszych rozmiarów klastra dla wydajności wykorzystania przestrzeni .

David Spillett
źródło
0

Myślę, że ogólną ideą jest to, że większa = lepsza wydajność kosztem miejsca na dysku.

W Internecie panuje dudnienie, że zmiana domyślnego rozmiaru spowoduje błąd lub awarię źle zakodowanych narzędzi dyskowych, więc warto o tym pamiętać, jeśli nie planujesz tworzenia kopii zapasowych ;-)

MathewC
źródło
1
Unikaj niestandardowych narzędzi dyskowych, z wyjątkiem operacji odzyskiwania po awarii, których nie można wykonać za pomocą standardowych narzędzi. Planowanie nieplanowania tworzenia kopii zapasowych jest planem na katastrofę.
thecarpy