Jak często należy defragmentować serwer?

12

Mają kilka serwerów i nie zostały rozpakowane przez dwa lata. Czy istnieje norma dotycząca tego, jaki procent powinien zostać rozdrobniony przed defragmentacją?

Serwery to Windows 2003.

Szczęśliwego księcia
źródło

Odpowiedzi:

12

W rzeczywistości nigdy nie defragmentuję danych na moich serwerach. Nie widziałem wystarczającego wzrostu wydajności serwowania plików, aby był wart uderzenia wydajności czasu potrzebnego na defragmentację. W rzeczywistości większość serwerów nigdy tak naprawdę nie zakończy defragmentacji, chyba że przełączysz je w tryb offline na kilka dni. Jeśli używasz stosunkowo nowoczesnego systemu plików (który nie jest zmieniany w systemie Windows 2003), nie powinno to mieć większego znaczenia. Również w przypadku korzystania z jakiegokolwiek rozbierania RAID fragmentacja plików nie stanowi problemu, ponieważ są one już podzielone na wiele dysków.

Jeśli mam serwer, na którym naprawdę chcę oczyścić i zdefragmentować dane z jakiegoś powodu, znacznie bardziej prawdopodobne jest, że utworzę kopię zapasową na taśmie, wyczyszczę napęd i przywrócę go. To wszystko zapisze w doskonałych blokach.

Laura Thomas
źródło
4
Interesuje mnie twój komentarz na temat fragmentacji, który nie wpływa na zestawy pasków - o ile wiem, jest to nadal problem niezależnie od wybranego przez ciebie podejścia RAID. Istnieje wiele statystyk, które pokazują wpływ fragmentacji na zestawy RAID.
Chris W
3
Jestem pewien, że to robi różnicę. Po prostu nie sądzę, że w przypadku większości aplikacji ma to znaczący wpływ na komfort użytkowania. Testy wydajności i kopie zapasowe ulegną poprawie. Większość użytkowników czyta lub zapisuje pojedynczy plik, a na zestawie rajdowym z jakimkolwiek porządnym buforowaniem i wieloma dyskami nie zobaczą żadnego opóźnienia odczytu / zapisu na pofragmentowanym dysku, szczególnie gdy dodasz opóźnienie sieciowe do równania.
Laura Thomas,
8

Jedynym znanym mi przypadkiem użycia do defragmentacji serwera Windows jest poprawa wydajności tworzenia kopii zapasowych. Kopie zapasowe to tylko jedyne na dużą skalę sekwencyjne operacje we / wy, jakie wykonuje serwer plików, i taki rodzaj operacji we / wy zauważa fragmentację. Takie serwery plików we / wy, gdy uderzają w nie użytkownicy, są bardzo losowe, a fragmentacja może czasem poprawić wydajność.

W mojej starej pracy mieliśmy serwer plików, który właśnie migrowaliśmy na nowy sprzęt. Natychmiast po migracji kopie zapasowe były uruchamiane z prędkością 450 MB / minutę (to było wiele lat temu). Dwa lata później kopia zapasowa tego serwera wynosiła około 300 MB / minutę. Następnie zdefragmentowaliśmy go po raz pierwszy, a prędkość ponownie wzrosła do 450 MB / minutę.

Jeśli masz problemy z terminowym wykonaniem wszystkich kopii zapasowych i wygląda na to, że kopia zapasowa serwera to szyjka butelki, defrag może w tym pomóc.

Innym przypadkiem użycia defrag jest system kopii zapasowej na dysk z archiwum przechowywanym w systemie plików NTFS. Tworzenie kopii zapasowych i przywracanie tego rodzaju woluminu jest całkowicie sekwencyjne, co powoduje fragmentację. Jeśli jednak pamięć podkładu jest wystarczająco abstrakcyjna (np. Macierz dyskowa HP EVA), nawet tego rodzaju operacje we / wy nie zauważą fragmentacji.

Wszystko sprowadza się do tego, że masowo sekwencyjne operacje we / wy są typem operacji we / wy, które najbardziej zauważają fragmentację. Jeśli nie chodzi o te wejścia / wyjścia, o które się martwisz, defragmentacja nie stanowi problemu.

sysadmin1138
źródło
4

Zgadzam się, że często nie musisz i nie powinieneś, jeśli wydajność jest twoim celem (ciągłe defragmentowanie wyrządzające więcej szkody niż pożytku).

Jak każda reguła, są jednak wyjątki:

Jeśli jesteś lub w którymś momencie, w którym jest bardzo mało miejsca na dysku (<15% wolnego miejsca), prawdopodobnie powinieneś wykonać defragmentację w odpowiednim czasie. Nawet współczesne systemy plików mają problemy z unikaniem fragmentacji, gdy jest tak mało sektorów do wyboru.

Jeśli korzystasz z określonych rodzajów aplikacji, które powodują nieuniknioną fragmentację, możesz zainwestować w program do defragmentacji specyficzny dla serwera (są one zaprojektowane do ciągłego działania w tle i defragmentacji, gdy / w razie potrzeby). Typem aplikacji, która spowodowałaby nieuniknioną fragmentację w środowisku Windows, byłyby te, które robią dużo leniwego pisania na wielu plikach (najbardziej niezawodne oprogramowanie zaprojektowane na serwerze pozwala tego uniknąć, ale coś w rodzaju menedżera pobierania pulpitu, szczególnie niektórych konkretnych klientów BitTorrent, wykazuje tego rodzaju agresywne zachowanie fragmentacyjne)

David
źródło
1
Doskonały punkt na temat serwerów z bardzo małą ilością miejsca na dysku.
Laura Thomas,
3

Uruchomiłem Diskeepera na serwerach we wcześniejszym zadaniu, a więc wymierną poprawę wydajności zarówno serwerów plików, jak i serwerów aplikacji. Nie sądzę, abyśmy zbliżyli się do opublikowanych statystyk, ale na pewno widzieliśmy pewne korzyści.

Został ustawiony na defragmentację na biegu jałowym i zgodnie z ustalonymi harmonogramami, aby ograniczyć wpływ z kilkoma dodatkowymi bitami, które uruchomiły się podczas rozruchu.

Chris W.
źródło
To samo tutaj, używając Diskeeper na naszych serwerach plików i zauważając znacznie szybszą odpowiedź.
pauska
Miałem również doświadczenie z Diskeeper na polu bazy danych. Działało to dobrze przez dłuższy czas, ale potem zaczęliśmy dostawać dziwne problemy z dostępem do dysku. Skończyło się na tym, że przeszliśmy przez kilka kontrolerów RAID i HD bez powodzenia, i zakończyliśmy wyłączanie Diskeepera podczas jednej dużej zmiany sprzętowej. Ponieważ wydawało się, że potem działa poprawnie, nigdy nie podkręciliśmy go, ale nigdy nie mogliśmy udowodnić, czy to Diskeeper działał dziwnie, czy tylko ciąg złych kontrolerów.
David
0

Jednym z narzędzi jest Smart Defrag firmy IOBit. Defragmentuje w tle, gdy komputer jest bezczynny, ma funkcję Deep Optimize i inne możliwości. Wydaje się przydatny, więc możesz go tam umieścić i nie musisz się martwić defragmentacją.

Jon Onstott
źródło
0

AFAIK, RAID nie jest odporny na efekty fragmentacji; pomimo liczby dysków fizycznych FS nadal musi wydać osobne żądanie We / Wy dla każdego fragmentu, prawda?

Tak, ładnie zdefragmentowany system szybciej wykonuje kopie zapasowe. Zgadzam się również, że mała przestrzeń i fragmentacja nie są dobrym połączeniem ... najlepiej, aby uniknąć takiej sytuacji.

Jeśli problemem jest czas / harmonogram defragmentacji, dobrym wyborem jest rozwiązanie do defragmentacji w tle, takie jak jedna z wersji Diskeeper Server (nie za darmo!). Defragmentuje przy użyciu tylko bezczynnych zasobów, więc nie powinno to mieć wpływu nawet na serwer produkcyjny. Niektóre z naszych serwerów używają DK, a administratorzy wydają się z tego bardzo zadowoleni.

BTW, niektórzy klienci BT (przychodzi na myśl utorrent) mają opcję wstępnego przydzielenia torrentowi, więc nie ma fragmentacji podczas pobierania, o ile jest wystarczająca ilość ciągłego wolnego miejsca, aby pomieścić plik.

NIE
źródło
0

Konsensus (z którym się zgadzam) wydaje się, że nie defragmentuj serwerów, ponieważ korzyści nie są warte obniżenia wydajności podczas faktycznej defragmentacji.

Jednak artykuł TechNet na temat konwersji fizycznych na wirtualne zaleca defragmentację jako metodę zmniejszenia czasu potrzebnego na wykonanie P2V. Jest to szczególnie ważne, jeśli masz ograniczone okno konserwacji, w którym możesz uzupełnić P2V.

Aby zminimalizować czas potrzebny na fazę tworzenia obrazu, wykonaj defragmentację dysku na dyskach twardych komputera źródłowego. Upewnij się również, że masz szybkie połączenie sieciowe między komputerem źródłowym a hostem.


źródło