Czy istnieje powód, aby zachować podstawową partycję / dysk C systemu Windows: mały?

70

W mojej pracy prawie dwie dekady temu eksperci IT utrzymywali rozmiar głównej partycji Windows (dysku C) bardzo mały w porównaniu z innymi partycjami. Twierdzili, że działa na PC z optymalną prędkością bez spowalniania.

Ale wadą jest to, że dysk C: łatwo się zapełnia, jeśli jest mały, i wkrótce nie będzie można zainstalować nowego oprogramowania, ponieważ zabraknie mu miejsca. Nawet jeśli zainstaluję oprogramowanie na dysku D: część z nich jest zawsze kopiowana do C: który je wypełnia.

Moje pytanie, czy ta praktyka jest nadal dobra? Dlaczego to jest zrobione. Jakie są jego główne zalety, jeśli w ogóle? Jednym z oczywistych jest to, że jeśli partycja podstawowa ulegnie awarii, Twoje dane są bezpieczne na dodatkowym.

Zadaję to pytanie, ponieważ próbuję zaktualizować program Visual Studio, a nie mogę, ponieważ mam tylko 24 MB na partycji podstawowej.

hk_
źródło
2
Co rozumiesz przez „mały rozmiar głównej partycji (np. 100 GB)”? 100 GB nie jest „małe” w większości przypadków? Masz na myśli „mniejszy niż cały dysk”? A przez „partycję główną” rozumiesz partycję, w której znajduje się system plików dla dysku Windows C :? A jaki zrzut ekranu powinien wyjaśnić? Pokazuje tylko pełny dysk ... Edytuj, aby wyjaśnić.
sleske
10
100 GB może nie wydawać się małe, ale obecnie duże oprogramowanie wypełnia to dość szybko, jak w moim przypadku. Partycja główna = partycja podstawowa = partycja rozruchowa. Zrzut ekranu pokazuje mojego głównego partytiana (dysk c :) i widać, że zostało tylko 24 MB. Mój D: jest 90 GB za darmo, a E: 183 GB za darmo.
hk_
1
Pozwoliłem sobie zredagować twoje pytanie, aby wyjaśnić. W przyszłości najlepiej będzie, jeśli bezpośrednio edytujesz pytanie, aby dodać informacje - komentarze mogą zostać usunięte i nie wszyscy je przeczytają.
sleske
28
Twierdziłbym, że ci „eksperci” mylili się wtedy i mylą się teraz. Jestem pewien, że zdarzają się przypadki, w których mały dysk C: może być / był przydatny, ale dla większości zwykłych użytkowników (w tym programistów) najlepszą opcją jest posiadanie jednej partycji C: tak dużej, jak to możliwe. robić dokładnie z powodu twojego problemu.
Neil
1
Pamiętaj, że nie zawsze możesz zmienić dysk, na którym zainstalowany jest program (np. MS Office) i możesz potrzebować więcej miejsca, niż początkowo planowano.
Nijin22

Odpowiedzi:

89

W mojej pracy prawie dwie dekady temu eksperci IT utrzymywali rozmiar głównej partycji Windows (dysku C) bardzo mały w porównaniu z innymi partycjami. Twierdzili, że działa na PC z optymalną prędkością bez spowalniania. [...] Moje pytanie, czy ta praktyka jest nadal dobra?

Ogólnie: nie .

W starszych wersjach systemu Windows występowały problemy z wydajnością dużych dysków (a dokładniej: dużych systemów plików), głównie dlatego, że system plików FAT używany przez system Windows nie obsługiwał dobrze dużych systemów plików. Jednak wszystkie nowoczesne instalacje systemu Windows używają zamiast tego systemu plików NTFS, co rozwiązało te problemy. Zobacz na przykład Czy wydajność NTFS znacznie spada w przypadku woluminów większych niż pięć lub sześć TB? , co wyjaśnia, że ​​nawet partycje o rozmiarze terabajta zwykle nie stanowią problemu.

W dzisiejszych czasach generalnie nie ma powodu, aby nie używać pojedynczej, dużej partycji C:. Własny instalator Microsoft domyślnie tworzy pojedynczy, duży dysk C:. Gdyby istniały dobre powody, aby utworzyć oddzielną partycję danych, instalator to zaoferowałby - dlaczego Microsoft miałby pozwolić na instalację systemu Windows w sposób, który stwarza problemy?

Głównym powodem wielu dysków jest to, że zwiększa złożoność - co zawsze jest złe w IT. Stwarza nowe problemy, takie jak:

  • musisz zdecydować, które pliki umieścić na którym dysku (i odpowiednio zmienić ustawienia, kliknąć elementy w instalatorach itp.)
  • niektóre (źle napisane) oprogramowanie może nie chcieć być instalowane na innym dysku niż C:
  • możesz skończyć ze zbyt małą ilością wolnego miejsca na jednej partycji, podczas gdy na drugiej wciąż jest wolne miejsce, co może być trudne do naprawienia

Istnieją specjalne przypadki, w których wiele partycji ma sens:

  • Jeśli chcesz przeprowadzić podwójny rozruch, (zwykle) potrzebujesz oddzielnych partycji dla każdej instalacji systemu operacyjnego (ale nadal tylko jedna partycja na instalację).
  • Jeśli masz więcej niż jeden dysk (szczególnie dyski o różnych właściwościach, takie jak SSD i HD), możesz wybrać i wybrać, co idzie gdzie - w takim przypadku warto np. Umieścić dysk C: na dysku SSD i D : na HD.

Aby odnieść się do niektórych argumentów często podnoszonych na korzyść małych / oddzielnych partycji:

  • małe partycje są łatwiejsze do utworzenia kopii zapasowej

Naprawdę powinieneś i tak wykonać kopię zapasową wszystkich danych, ponieważ podział ich na partycje naprawdę nie pomaga. Ponadto, jeśli naprawdę musisz to zrobić, całe oprogramowanie do tworzenia kopii zapasowych, które znam, umożliwia selektywne tworzenie kopii zapasowej części partycji.

  • jeśli jedna partycja jest uszkodzona, druga może nadal działać poprawnie

Chociaż jest to teoretycznie prawda, nie ma gwarancji, że uszkodzenia będą się dobrze ograniczać do jednej partycji (a jeszcze trudniej jest to sprawdzić w przypadku problemów), więc daje to tylko ograniczoną gwarancję. Ponadto, jeśli masz dobre, zbędne kopie zapasowe, dodatkowe bezpieczeństwo jest zwykle zbyt małe, aby było warte zawracania głowy. A jeśli nie masz kopii zapasowych, masz znacznie większe problemy ...

  • jeśli umieścisz wszystkie dane użytkownika na partycji danych, możesz wyczyścić i ponownie zainstalować / nie wykonać kopii zapasowej partycji systemu operacyjnego, ponieważ nie ma tam danych użytkownika

Chociaż może to być prawdą w teorii, w praktyce wiele programów zapisuje ustawienia i inne ważne dane na dysku C: (ponieważ niestety są to na stałe zapisane, lub ponieważ przypadkowo zapomniałeś zmienić ich ustawienia). Dlatego IMHO jest bardzo ryzykowne, aby na tym polegać. Ponadto potrzebujesz dobrych kopii zapasowych (patrz wyżej), więc po ponownej instalacji możesz przywrócić kopie zapasowe, co da ci ten sam rezultat (po prostu bezpieczniej). Nowoczesne wersje systemu Windows przechowują już dane użytkownika w osobnym katalogu (katalogu profilu użytkownika), więc możliwe jest selektywne przywracanie.


Zobacz także Czy zainstalujesz oprogramowanie na tej samej partycji co system Windows? po więcej informacji.

Śleske
źródło
3
wiele partycji ma również sens, jeśli chcesz przenieść dane użytkownika z C: \ odłączyć je od (m) jakichkolwiek problemów z systemem operacyjnym. Można wtedy powiedzieć, zainstaluj inny system operacyjny na swoim miejscu, a dane użytkownika pozostaną bezpieczne (dopóki partycja użytkownika nie zostanie usunięta)
Baldrickk
1
Możesz wykonać kopię zapasową obrazu dla partycji systemowej, podczas gdy wystarczy prosta kopia zapasowa danych dla wszystkich innych partycji.
Thomas
26
Reszta odpowiedzi jest dobra, ale „instalator pozwala ci to zrobić” nie jest poprawnym sposobem sprawdzenia, czy coś jest dobre, czy nie. Dlaczego mieliby to zrobić? Zapomnienie, głupota, lenistwo, ignorancja, ograniczenia techniczne, kierownictwo średniego szczebla ... Istnieje milion powodów, dla których instalator może domyślnie zrobić coś złego, nie mówiąc już o pozwoleniu na zrobienie czegoś złego. Dotyczy to podwójnie systemu tak złożonego jak Windows.
Nic Hartley
2
Pamiętam WinXP i Win 7 pozwalające użytkownikowi na tworzenie wielu partycji i ustawienie rozmiaru partycji podczas instalacji. Jednak nie pamiętam, czy tak już jest. Stwardnienie rozsiane jest znane z podejmowania złych decyzji, najwyraźniej pod wpływem kaprysu, i wspierania ich przez lata przed podjęciem kolejnej złej decyzji, aby „naprawić” (nie) problem. Ponadto użytkownicy techniczni / artystyczni, którzy muszą lokalnie manipulować dużymi plikami, często potrzebują więcej dysków do obsługi pracy. I: „zwiększa złożoność - co zawsze jest złe w IT”, ogólnie ma tylko połowę racji. Moje rozumowanie jest nie na temat, więc zostawię to.
computercarguy
2
„dlaczego Microsoft powinien pozwalać instalować system Windows w sposób, który stwarza problemy?” Ponieważ zakładasz, że Microsoft zawsze domyślnie pozwala ci korzystać z najlepszej i zoptymalizowanej opcji?
Jonathan Drapeau,
25

Historyczny powód tej praktyki jest najprawdopodobniej zakorzeniony we właściwościach obrotowych magnetycznych dysków twardych. Obszar na wirujących dyskach o najwyższej prędkości dostępu sekwencyjnego to najbardziej oddalone sektory (w pobliżu początku napędu).

Jeśli używasz całego dysku dla swojego systemu operacyjnego, prędzej czy później (poprzez aktualizacje itp.) Twoje pliki systemu operacyjnego zostaną rozłożone na całej powierzchni dysku. Tak więc, aby upewnić się, że pliki systemu operacyjnego fizycznie pozostają w najszybszym obszarze dysku, należy utworzyć małą partycję systemową na początku dysku i rozłożyć resztę dysku na dowolną liczbę partycji danych.

Opóźnienie szukania zależy również częściowo od tego, jak daleko muszą się przesunąć głowice, więc trzymanie wszystkich małych plików nieco blisko siebie ma również przewagę na dyskach obrotowych.

Ta praktyka straciła cały swój powód wraz z pojawieniem się pamięci SSD.

WooShell
źródło
1
Oprócz utraty przyczepności z powodu dysków SSD nowsze dyski SATA i SASS obracają się znacznie szybciej (7200 i + 10k rpm w porównaniu z 5400 rpm) i mają krótsze czasy wyszukiwania niż stare dyski. Chociaż „problem z prędkością” jest wciąż minimalny, niewiele osób korzystających z dzisiejszego sprzętu faktycznie zauważyłoby wzrost prędkości przy użyciu małej partycji bez oprogramowania do testów porównawczych.
computercarguy
6
„najwyższą prędkością dostępu są najbardziej wewnętrzne sektory”. , „Aby upewnić się, że pliki systemu operacyjnego fizycznie znajdują się w najszybszym obszarze dysku, należy utworzyć małą partycję systemową na początku dysku” - Nie, masz ją wstecz, podobnie jak to pytanie: superuser.com / pytania / 643013 /… . Również twoje twierdzenie o „racji historycznej” jest wątpliwe. Dopóki dyski ATAPI nie zaczęły używać zapisu bitów strefowych, wszystkie wcześniejsze dyski HDD używały stałego zapisu kątowego, więc nie było różnicy prędkości między cylindrami.
trociny
3
@sawdust, przyczyną historyczną nie było opóźnienie odczytu, ale opóźnienie szukania. FAT był przechowywany pod najniższym adresem ścieżki, więc głowica dysku musiała tam wracać przynajmniej za każdym razem, gdy plik był tworzony lub rozszerzany. W przypadku dysków z lat 80. różnica wydajności była mierzalna. Jedną z cech projektowych HPFS (przodka NTFS) było umieszczenie MFT na środku partycji, aby skrócić średni czas wyszukiwania. Oczywiście po umieszczeniu wielu partycji na dysku masz wiele stref FAT / MFT, więc wyszukiwanie nie jest już zoptymalizowane.
grahamj42
@ grahamj42 - Nie, nadal się mylisz. Czas wyszukiwania jest czysto (nieliniową) funkcją odległości wyszukiwania, mierzoną liczbą cylindrów. Jak twierdzisz, czas szukania jest całkowicie niezwiązany z wewnętrznymi i zewnętrznymi cylindrami. Nie jestem pewien, co rozumiesz przez „opóźnienie odczytu” . Do Twojej wiadomości Mam doświadczenie z pierwszej ręki z wewnętrznymi napędami dysków, kontrolerami dysków i oprogramowaniem układowym, tzn. Wiedzy tej nie wyciągnięto z samego czytania. Byłem zawodowo aktywny przed i po utworzeniu „historii”, o której mówiłeś.
trociny
1
@sawdust - Przepraszam, że mnie źle zrozumiałeś, a rozmiar komentarza ograniczył to, co mogłem napisać. Na partycji FAT głowica musi zmienić położenie na FAT za każdym razem, gdy jest aktualizowana, lub jeśli sektor FAT do odczytu nie jest już buforowany, dlatego prawdopodobieństwo znalezienia głowy w cylindrze zewnętrznym jest znacznie wyższe niż znalezienie jej w wewnętrznej cylinder, co oznacza, że ​​średni czas wyszukiwania jest krótszy. Mówię o napędach krokowych z wczesnych lat 80. (ST-412 miał 85 ms średni czas wyszukiwania, ale 3 ms dla jednego cylindra). Nowoczesny dysk jest około 10 razy szybszy.
grahamj42,
5

Czy istnieje powód, aby zachować podstawową partycję / dysk C systemu Windows: mały?

Oto kilka powodów, aby to zrobić:

  1. Wszystkie pliki systemowe i sam system operacyjny znajdują się na partycji podstawowej. Lepiej jest odseparować te pliki od innych programów, danych osobowych i plików, po prostu dlatego, że ciągłe wtrącanie się do partycji rozruchowej i mieszanie plików może czasami prowadzić do błędów, takich jak przypadkowe usunięcie plików systemowych lub folderów. Organizacja jest ważna. Dlatego rozmiar partycji podstawowej jest niski - aby zniechęcić użytkowników do zrzucania tam wszystkich swoich danych.
  2. Kopie zapasowe - w zależności od przeznaczenia systemu tworzenie kopii zapasowych i odzyskiwanie mniejszej partycji jest dużo łatwiejsze, szybsze i efektywniejsze. Jak zauważył @computercarguy w komentarzach, lepiej jest wykonać kopię zapasową określonych folderów i plików, niż wykonać kopię zapasową całej partycji, o ile nie jest to konieczne.
  3. Może to jednak poprawić wydajność w mało zauważalny sposób. W systemach plików NTFS na każdej partycji znajdują się tak zwane główne tabele plików , które zawierają metadane dotyczące wszystkich plików na partycji:

    Opisuje wszystkie pliki w woluminie, w tym nazwy plików, znaczniki czasu, nazwy strumieni i listy numerów klastrów, w których znajdują się strumienie danych, indeksy, identyfikatory zabezpieczeń i atrybuty plików, takie jak „tylko do odczytu”, „skompresowany”, „zaszyfrowany” itp.

Może to stanowić zaletę, choć niezauważalną, dlatego można ją zignorować, ponieważ tak naprawdę nie ma znaczenia. @ Odpowiedź WooShell jest bardziej związana z problemem związanym z wydajnością, nawet jeśli nadal można ją pominąć.

Kolejną rzeczą do odnotowania jest to, że w przypadku dysku SSD + HDD lepiej jest przechowywać system operacyjny na dysku SSD i wszystkie osobiste pliki / dane na dysku twardym. Najprawdopodobniej nie potrzebujesz zwiększenia wydajności dzięki posiadaniu dysku SSD dla większości twoich plików osobistych, a dyski półprzewodnikowe klasy konsumenckiej zwykle nie mają na nich dużo miejsca, więc wolisz nie próbować zapełniać go plikami osobistymi .

Czy ktoś może wyjaśnić, dlaczego ta praktyka jest wykonywana i czy jest nadal aktualna?

Opisał niektóre z powodów, dla których tak się dzieje. I tak, jest to nadal aktualne, choć nie wydaje się już dobrą praktyką. Najbardziej znaczące wady to to, że użytkownicy końcowi będą musieli śledzić, gdzie aplikacje sugerują instalację swoich plików i zmianę tej lokalizacji (możliwe podczas prawie każdej instalacji oprogramowania, szczególnie jeśli opcja instalacji zaawansowanej / zaawansowanej jest opcją), więc partycja startowa nie „ t wypełnić, ponieważ system operacyjny musi czasami aktualizować, a kolejną wadą jest to, że podczas kopiowania plików z jednej partycji na drugą, faktycznie musi je skopiować, a jeśli były one na tej samej partycji, po prostu aktualizuje MFT i metadane nie muszą ponownie zapisywać całych plików.

Niektóre z nich mogą niestety powodować więcej problemów:

  1. Zwiększa to złożoność struktury, co sprawia, że ​​zarządzanie nią jest trudniejsze i bardziej czasochłonne.
  2. Niektóre aplikacje nadal zapisują pliki / metadane na partycji systemowej (skojarzenia plików, menu kontekstowe itp.), Nawet jeśli są zainstalowane na innej partycji, co utrudnia tworzenie kopii zapasowych i może powodować błędy synchronizacji między partycjami. (dzięki komentarzowi @ Boba)

Aby uniknąć występującego problemu, musisz:

  1. Zawsze próbuj instalować aplikacje na innych partycjach (zmień domyślną lokalizację instalacji).
  2. Pamiętaj, aby zainstalować tylko ważne oprogramowanie na partycji rozruchowej. Inne nie tak potrzebne i nieistotne oprogramowanie powinno znajdować się poza nim.

Nie twierdzę również, że najlepszym rozwiązaniem jest posiadanie wielu partycji z małą główną. Wszystko zależy od celu systemu i chociaż wprowadza lepszy sposób organizowania plików, ma swoje wady, które w systemach Windows w obecnych czasach są czymś więcej niż profesjonalistami.

Uwaga: Jak już wspomniałeś, dane w oddzielnych partycjach są bezpieczne na wypadek awarii partycji rozruchowej.

Fanatyczna
źródło
1
„Dlatego mniejsza partycja z mniejszą główną tabelą plików będzie wykonywać szybsze wyszukiwania i poprawi wydajność dysku twardego”. Wymagane cytowanie - na przykład serverfault.com/questions/222110/ ... wskazuje, że nawet ogromne wolumeny nie stanowią obecnie problemu.
śleske,
1
„Oczywiście wielu programistów stosuje złą praktykę, aby sugerować użytkownikom końcowym zainstalowanie aplikacji na partycji podstawowej. Ale ogólnie nie jest to dobry pomysł”. - potrzebne cytowanie
gronostaj
5
„Ponieważ główne tabele plików przechowują informacje o wszystkich plikach na partycji, podczas wykonywania jakichkolwiek działań na dowolnym pliku na tej partycji przegląda całą tabelę”. Och, absolutnie nie. Takie stwierdzenie można wypowiedzieć jedynie przy prawie całkowitej niewiedzy na temat działania systemów plików i ogólnej organizacji organizacji pamięci dyskowej. Gdyby tak było, wykonanie dowolnej operacji z udziałem MFT ulegałoby degradacji liniowej (lub gorzej!) Wraz z rozmiarem MFT, i to całkowicie nie występuje.
Jamie Hanrahan,
1
„ponieważ system operacyjny nie wykonuje tyle operacji odczytu / zapisu, co inne oprogramowanie” . Jeśli twój system operacyjny to Windows, wykonuje wiele operacji R / W na dysku instalacyjnym. Wiele z nich. Jeśli używasz IE lub Edge, jest on instalowany jako część systemu Windows (nie sądzę, że możesz określić, gdzie jest zainstalowany, chociaż mogę się mylić), a to buforuje mnóstwo rzeczy, gdy piszę ten komentarz.
FreeMan
2
„Lepiej jest oddzielić te pliki [OS] od innych programów” - Nie. Problem z tym podejściem polega na tym, że wiele programów utrzymuje status instalacji (i deinstalatorów) w systemie operacyjnym. Wiele programów rejestruje się również w różnych częściach systemu operacyjnego - skojarzenia plików, pozycje menu kontekstowego, renderery podglądu itp. Zainstalowanie samego oprogramowania na osobnej partycji nie zapobiega; powoduje to, że są one rozłożone na dwie partycje. Co jest gorsze niż trzymanie ich razem - zwiększasz ryzyko, że dwie partycje nie będą zsynchronizowane podczas tworzenia kopii zapasowych.
Bob
4

Jestem programistą, ale spędziłem też czas na wykonywaniu „zwykłych” / informatycznych zadań back-office. Zwykle przechowuję system operacyjny i aplikacje na dysku C :, a moje pliki osobiste na dysku D :. Nie muszą to być osobne dyski fizyczne, ale obecnie używam stosunkowo małego dysku SSD jako mojego dysku „systemowego” (C :) i „tradycyjnego” dysku (tj. Z obracającymi się talerzami magnetycznymi) jako „domu” dysk (D :).

Wszystkie systemy plików podlegają fragmentacji. W przypadku dysków SSD nie jest to w zasadzie problem, ale nadal występuje w przypadku tradycyjnych napędów dyskowych.

Przekonałem się, że fragmentacja może znacznie obniżyć wydajność systemu. Na przykład odkryłem, że pełna kompilacja dużego projektu oprogramowania uległa poprawie o ponad 50% po defragmentacji dysku - a ta kompilacja zajęła większą część godziny, więc nie była to trywialna różnica.

Przechowując moje pliki osobiste na osobnym woluminie, znalazłem:

  • wolumin systemowy nie ulega fragmentacji prawie tak szybko (lub poważnie);
  • znacznie szybciej jest defragmentować dwa oddzielne woluminy niż pojedynczy wolumin ze wszystkim na nim - każdy wolumin zajmuje 20% -25% tak długo, jak wolumin łączony.

Zauważyłem to na kilku generacjach komputerów PC z kilkoma wersjami systemu Windows.

(Jak zauważył komentator, ułatwia to również tworzenie kopii zapasowych.)

Powinienem zauważyć, że narzędzia programistyczne, których używam, mają tendencję do generowania dużej liczby plików tymczasowych, które wydają się w znacznym stopniu przyczyniać do problemu fragmentacji. W związku z tym dotkliwość tego problemu będzie się różnić w zależności od używanego oprogramowania; możesz nie zauważyć różnicy lub tak dużej. (Ale są też inne działania - na przykład kompozycja i edycja wideo / audio - które są intensywne we / wy i zależnie od używanego oprogramowania mogą generować dużą liczbę plików tymczasowych / pośrednich. Chodzi mi o to, że nie pisz wyłączono to jako coś, co wpływa tylko na jedną klasę użytkowników).

Uwaga: w przypadku nowszych wersji systemu Windows (od wersji 8) stało się to znacznie trudniejsze, ponieważ foldery użytkowników na woluminie innym niż C: nie są już oficjalnie obsługiwane. Mogę powiedzieć, że nie byłem w stanie przeprowadzić uaktualnienia w miejscu z Windows 7 do Windows 10, ale YMMV (istnieje wiele różnych sposobów na [ponowne] zlokalizowanie folderu użytkownika, nie wiem, których to dotyczy) .

Jedna dodatkowa uwaga: jeśli utrzymujesz dwa osobne woluminy na tradycyjnym dysku, możesz skonfigurować plik stronicowania na woluminie D:. Z powodów opisanych w odpowiedzi WooShell, skróci to czas wyszukiwania podczas pisania do pliku strony.

David
źródło
Dla mnie to po prostu, że C: można zainstalować ponownie, gdzie wszystko na D: musi być poparte
Mawg
W przypadku dysków SSD fragmentacja metadanych nadal stanowi problem, ponieważ oznacza więcej poleceń odczytu / zapisu dla tego samego zadania. Chociaż wpływ jest wciąż nieporównywalnie mniejszy niż w przypadku napędów obrotowych.
ivan_pozdeev
4

Krótka odpowiedź: już nie.

Z mojego doświadczenia (ponad 20 lat pracy w administracji IT), głównym powodem tej praktyki (inne są wymienione poniżej) jest to, że użytkownicy zasadniczo nie ufali Windowsowi ze swoimi danymi i miejscem na dysku twardym.

System Windows od dawna notorycznie źle radził sobie z utrzymywaniem stabilności w czasie, czyszczeniem po sobie, utrzymywaniem zdrowej partycji systemowej i zapewnianiem wygodnego dostępu do danych użytkownika na niej. Dlatego użytkownicy woleli odrzucić hierarchię systemu plików, którą Windows zapewnił, i rozwinąć ją poza nią. Partycja systemowa działała także jako getto, które odmawiało Windowsowi możliwości siać spustoszenie poza jego granicami.

  • Istnieje wiele produktów, w tym produkty Microsoft, które nie odinstalowują się czysto i / lub powodują problemy ze zgodnością i stabilnością (najbardziej widocznym przejawem są resztki plików i wpisy rejestru dookoła oraz DLL Hellwe wszystkich wcieleniach). Wiele plików utworzonych przez system operacyjny nie jest później czyszczonych (dzienniki, aktualizacje systemu Windows itp.), Co powoduje, że system operacyjny zajmuje coraz więcej miejsca w miarę upływu czasu. W erze Windows 95, a nawet XP, porady sięgały tak daleko, że od czasu do czasu sugerowano czystą ponowną instalację systemu operacyjnego. Ponowna instalacja systemu operacyjnego wymagała możliwości wyczyszczenia systemu operacyjnego i jego partycji (w celu wyczyszczenia również fałszywych danych w systemie plików) - niemożliwe bez wielu partycji. A dzielenie dysku bez utraty danych jest możliwe tylko w przypadku specjalistycznych programów (które mogą mieć własne paskudne niespodzianki, takie jak ratowanie i pozostawianie danych w stanie niezdatnym do użytku po napotkaniu złego sektora). Różne programy „oczyszczania” rozwiązały problem, ale ich logika opiera się na inżynierii odwrotnej i obserwowanym zachowaniu,RegCleannarzędzie MS zostało odwołane po wydaniu pakietu Office 2007, który złamał założenia dotyczące rejestru, na którym był oparty). Fakt, że wiele programów zapisywało swoje dane w dowolnych miejscach, jeszcze bardziej utrudniał oddzielanie danych użytkownika od systemu operacyjnego, co spowodowało, że użytkownicy instalowali programy również poza hierarchią systemu operacyjnego.
    • Firma Microsoft wypróbowała wiele sposobów na zwiększenie stabilności z różnym powodzeniem ( wspólne biblioteki DLL , ochrona plików Windows i jego następca TrustedInstaller, podsystem side-by-side , osobne repozytorium modułów .NET ze strukturą pamięci, która zapobiega konfliktom wersji i dostawcy) ). Najnowsze wersje Instalatora Windows mają nawet podstawowe sprawdzanie zależności (prawdopodobnie jest to ostatni główny menedżer pakietów, który zwykle używa tej funkcji).
    • Jeśli chodzi o zgodność oprogramowania innych firm z najlepszymi praktykami, manewrowali między utrzymywaniem zgodności z niechlujnie napisanym, ale wystarczająco używanym oprogramowaniem (w przeciwnym razie jego użytkownicy nie przeprowadziliby aktualizacji do nowej wersji systemu Windows) - co prowadzi do zadziwiającej ilości kludges i obejścia w systemie operacyjnym, w tym nieudokumentowane zachowanie API, łatanie na żywo programów innych firm w celu ich naprawienia oraz kilka poziomów wirtualizacji rejestru i systemu plików - a także między zmuszaniem zewnętrznych dostawców do przestrzegania środków takich jak logo certyfikacji program i program do podpisywania sterowników (obowiązkowe od wersji Vista).
  • Dane użytkownika chowane pod długą ścieżką pod profilem użytkownika utrudniają wyszukiwanie i określanie ścieżek do niego. Ścieżki używały również długich nazw , miały spacje (wszędzie skorupa poleceń) i znaki narodowe (poważny problem dla języków programowania z wyjątkiem bardzo najnowszych, które mają kompleksową obsługę Unicode) i były specyficzne dla ustawień regionalnych (!) I nieosiągalne bez dostępu do Winapi (!!) (zabijając wszelkie próby internacjonalizacji w skryptach), które również nie pomogły.
    Tak więc posiadanie danych w katalogu głównym oddzielnego dysku było postrzegane jako wygodniejsza struktura danych niż w systemie Windows.
    • Zostało to naprawione tylko w najnowszych wydaniach systemu Windows. Same ścieżki zostały naprawione w systemie Vista, zagęszczając długie nazwy, eliminując spacje i zlokalizowane nazwy. Problem z przeglądaniem został naprawiony w Win7, który zapewniał pozycje Menu Start zarówno dla katalogu głównego profilu użytkownika, jak i dla większości innych katalogów w nim zawartych, a także takie elementy, jak trwałe foldery „Ulubione” w oknach dialogowych wyboru plików, z rozsądnymi ustawieniami domyślnymi Downloads, aby zaoszczędzić potrzeby przeglądania dla nich za każdym razem.
  • Podsumowując, wysiłki państw członkowskich przyniosły ostatecznie owoce. Uważnie, ponieważ Win7, system operacyjny, oprogramowanie zapasowe i oprogramowanie innych firm, w tym narzędzia do czyszczenia, są wystarczająco stabilne i dobrze się zachowują, a dyski twarde są wystarczająco duże, aby system operacyjny nie wymagał ponownej instalacji przez cały okres życia typowej stacji roboczej. A hierarchia zapasów jest użyteczna i dostępna na tyle, aby faktycznie ją zaakceptować i wykorzystać w codziennej praktyce.

Drugi powód to:

  • Wczesne oprogramowanie (obsługa systemu plików i partycjonowania w systemach BIOS i systemach operacyjnych) pozostawało w tyle za dyskami twardymi w zakresie obsługi dużych ilości danych, co wymagało podzielenia dysku twardego na części, aby móc wykorzystać jego pełną pojemność.
    • Był to przede wszystkim problem w systemach DOS i Windows 95 razy. Wraz z pojawieniem się FAT32 (Windows 98) i NTFS (Windows NT 3.1) problem został na razie w dużej mierze rozwiązany.
    • Bariera 2 TB, która pojawiła się niedawno, została naprawiona przez najnowszą generację systemów plików ( ext4 i ostatnie wersje NTFS ), GPT i dyski 4k .
  • Różne próby optymalizacji wydajności. Obrotowe dyski twarde są nieco (około 1,5 razy) szybsze w odczytywaniu danych z zewnętrznych ścieżek (które są mapowane do początkowych sektorów) niż z wewnętrznych, co sugeruje lokalizację często używanych plików, takich jak biblioteki systemu operacyjnego i plik stronicowania w pobliżu początku dysku.
    • Ponieważ dostęp do danych użytkownika jest również bardzo częsty, a repozycjonowanie głowy ma jeszcze większy wpływ na wydajność, poza bardzo specyficznymi obciążeniami, poprawa rzeczywistego wykorzystania jest w najlepszym razie marginalna.
  • Wiele dysków fizycznych. Jest to nietypowa konfiguracja dla stacji roboczej, ponieważ nowoczesny dysk twardy jest często wystarczająco duży, a laptopy nie mają nawet miejsca na drugi dysk twardy. Większość, jeśli nie wszystkie stacje, które widziałem w tej konfiguracji, to komputery stacjonarne, które (ponownie) używają starszych dysków twardych, które nadal działają i sumują się do niezbędnego rozmiaru - w przeciwnym razie należy użyć macierzy RAID lub jednego z dysków kopie zapasowe nie będą regularnie używane.
    • Jest to prawdopodobnie jedyny przypadek, w którym można naprawdę zyskać na podziale systemu i danych na osobne woluminy: ponieważ są one fizycznie na innym sprzęcie, można uzyskać do nich dostęp równolegle (chyba że są to dwa napędy PATA na tym samym kablu) i nie ma wydajności uderzył w zmianę położenia głowy podczas przełączania między nimi.
      • Aby ponownie wykorzystać strukturę katalogów Windows, zwykle przechodzę C:\Usersna dysk danych. Przenoszenie tylko jeden profil lub nawet po prostu Documents, Downloadsi Desktopokazał się gorszy „bo innych częściach profilu i Publicmogą rosnąć w sposób niekontrolowany (patrz«oddzielna konfiguracji i danych konfiguracji»poniżej).
    • Chociaż dyski można skonsolidować w wolumin łączony , nie używam ani nie zalecam tego, ponieważ woluminy dynamiczne są zastrzeżoną technologią, z którą narzędzia innych firm mają problemy z pracą, a ponieważ w przypadku awarii jednego z dysków cały wolumin zostanie utracony.
  • Dysk M.2 SSD + HDD.
    • W takim przypadku raczej zalecam używanie dysku SSD wyłącznie jako pamięci podręcznej: w ten sposób zyskujesz korzyść z dysku SSD dla całej tablicy danych, a nie tylko dowolnej jego części, a to, co jest przyspieszane, zależy automatycznie od tego, co faktycznie dostęp w praktyce.
    • W każdym razie ta konfiguracja w laptopie jest gorsza niż tylko pojedynczy dysk SSD, ponieważ dyski HDD są również nietolerancyjne na wstrząsy zewnętrzne i wibracje, które są bardzo realne w przypadku laptopów.
  • Scenariusze podwójnego rozruchu. Zasadniczo dwa systemy operacyjne nie mogą współistnieć na jednej partycji. To jedyny znany mi scenariusz, który uzasadnia wiele partycji na stacji roboczej. A przypadki użycia tego są i tak bardzo rzadkie w dzisiejszych czasach, ponieważ każda stacja robocza ma teraz wystarczającą moc, aby obsługiwać maszyny wirtualne.
  • Na serwerach istnieje wiele innych ważnych scenariuszy - ale żaden z nich nie dotyczy domeny SuperUżytkownika.
    • Np. Można oddzielić trwałe dane (programy i konfigurację) od zmiany danych (dane aplikacji i logi), aby zapobiec niekontrolowanemu działaniu aplikacji przez cały system. Istnieją również różne specjalne potrzeby (np. W systemie osadzonym, trwałe dane często znajdują się na EEPROM, podczas gdy dane na dysku RAM). Linux Hierarchy Standard systemu plików nadaje się dobrze do tego rodzaju poprawek.
ivan_pozdeev
źródło
3

Prawie dwie dekady temu byłby zdominowany przez system Windows 98 do XP, w tym NT4 i 2000 po stronie stacji roboczej / serwera.

Wszystkie dyski twarde byłyby również kablami magnetycznymi PATA lub SCSI, ponieważ dyski SSD kosztują więcej niż komputer, a SATA nie istnieje.

Jak mówi odpowiedź WooShell, niższe sektory logiczne na dysku (poza talerzem) są zwykle najszybsze. Moje dyski Velociraptor 1 TB WDC zaczynają się od 215 MB / s, ale w sektorach zewnętrznych spadają do 125 MB / s, co stanowi spadek o 40%. Jest to 2,5-calowy napęd talerza, więc większość dysków 3,5-calowych generalnie odnotowuje coraz większy spadek wydajności, większy niż 50% . Jest to główny powód utrzymywania małej partycji głównej, ale ma ona zastosowanie tylko wtedy, gdy partycja jest mała w stosunku do wielkości dysku.

Innym głównym powodem, dla którego partycja była mała, było użycie FAT32 jako systemu plików, który nie obsługiwał partycji większych niż 32 GB. Jeśli korzystałeś z systemu plików NTFS, partycje do 2 TB były obsługiwane przed Windows 2000, a następnie do 256 TB.

Jeśli partycja jest zbyt mała w stosunku do ilości danych, które zostaną zapisane, łatwiej jest zostać pofragmentowanym i trudniej defragmentować. Możesz po prostu zabraknąć miejsca, jak to się stało. Jeśli masz zbyt wiele plików w stosunku do rozmiarów partycji i klastra, zarządzanie tabelą plików może być problematyczne i wpływać na wydajność. Jeśli używasz woluminów dynamicznych do nadmiarowości, utrzymanie nadmiarowych woluminów tak małych, jak to konieczne, pozwoli zaoszczędzić miejsce na innych dyskach.

Dzisiaj jest inaczej, w pamięci masowej klienta dominują dyski flash SSD lub dyski magnetyczne z przyspieszeniem flash. Pamięć masowa jest na ogół obfita i łatwo jest dodać więcej do stacji roboczej, podczas gdy w dniach PATA mogło być tylko jedno nieużywane połączenie dysku dla dodatkowych urządzeń pamięci masowej.

Czy to wciąż dobry pomysł, czy ma jakieś zalety? To zależy od przechowywanych danych i sposobu zarządzania nimi. Moja stacja robocza C: ma tylko 80 GB, ale sam komputer ma ponad 12 TB przestrzeni dyskowej na wielu dyskach. Każda partycja zawiera tylko określony typ danych, a rozmiar klastra jest dopasowywany zarówno do typu danych, jak i rozmiaru partycji, co utrzymuje fragmentację na poziomie zbliżonym do 0 i zapobiega nadmiernemu zwiększeniu MFT.

Zmniejszeniem jest to, że jest nieużywane miejsce, ale wzrost wydajności bardziej niż kompensuje, a jeśli chcę więcej miejsca, dodaję więcej dysków. C: zawiera system operacyjny i często używane aplikacje. P: zawiera rzadziej używane aplikacje i jest dyskiem SSD 128 GB o niższej klasie trwałości zapisu niż C :. T: znajduje się na mniejszym dysku SLC SSD i zawiera pliki tymczasowe użytkownika i systemu operacyjnego, w tym pamięć podręczną przeglądarki. Pliki wideo i audio są zapisywane w pamięci magnetycznej, podobnie jak obrazy maszyn wirtualnych, kopie zapasowe i zarchiwizowane dane, zwykle mają one rozmiar klastra 16 KB lub większy, a odczyt / zapis jest zdominowany przez dostęp sekwencyjny. Uruchamiam defragmentację tylko raz w roku na partycjach o dużej objętości zapisu, a wykonanie całego systemu zajmuje około 10 minut.

Mój laptop ma tylko jeden dysk SSD 128 GB i inny przypadek użycia, więc nie mogę zrobić tego samego, ale nadal dzielę się na 3 partycje, C: (80 GB OS i programy), T: (8 GB temp) i F: ( 24 GB plików użytkownika), który dobrze kontroluje fragmentację bez marnowania miejsca, a laptop zostanie wymieniony na długo, zanim zabraknie mi miejsca. Ułatwia także tworzenie kopii zapasowych, ponieważ F: zawiera jedyne ważne dane, które regularnie się zmieniają.

Ramka Richiego
źródło
Jednak moje pytanie mówi, że nasz ekspert ds. IT „wciąż” robi to, ponieważ mam teraz ten sam problem.
hk_
Należy pamiętać, że od wersji Vista system Windows automatycznie przechowuje często używane pliki systemowe w zewnętrznych sektorach (jeśli to możliwe). Jest to jeden z głównych powodów, dla których prędkości uruchamiania tak bardzo wzrosły - cała sekwencja rozruchowa, w tym aplikacje startowe, zwykle odczytuje sekwencyjnie z dysku w miejscu, w którym jest najszybsza. Oczywiście, chyba że spartaczyłeś partycje: dyski SSD P ogromnie pomagają - nawet ze względu na ich większą przepustowość.
Luaan,
2
@ hk tylko dlatego, że twój ekspert IT wciąż robi rzeczy z przyzwyczajenia, nie oznacza, że ​​podstawowe prawdy dla tego nawyku sprzed 20 lub 15 (a nawet 5) lat temu są nadal aktualne. Gdybyś był Brytyjczykiem i kontynuował jazdę po lewej stronie drogi z przyzwyczajenia, po przejściu do Europy kontynentalnej, byłbyś w świecie bólu. tzn. „ponieważ zawsze tak robiłem” nie jest dobrym powodem do kontynuowania czegoś.
FreeMan
@FreeMan Nie popieram tego. Miałem wątpliwości, stąd moje pytanie.
hk_
3

Pracowałem kiedyś w branży IT i oto, co wiem i pamiętam.

W przeszłości, jak powiedzieli inni, istniała realna korzyść z posiadania małej partycji C na początku dysku. Nawet dzisiaj w niektórych niższych laptopach może to być prawda. Zasadniczo, mając mniejszą partycję, masz mniej fragmentacji i utrzymując ją na początku dysku, lepiej jest wyszukiwać, a tym samym czytać czasy. Jest to nadal aktualne w przypadku laptopów (zwykle) i wolniejszych „zielonych” dysków twardych.

Inną wielką korzyścią, z której wciąż korzystam, jest posiadanie „danych” i „systemu operacyjnego” na osobnych dyskach lub jeśli nie mogę zarządzać tymi oddzielnymi partycjami. Nie ma rzeczywistego wzrostu prędkości, jeśli używasz SSD lub nawet szybszych napędów magnetycznych, ale istnieje ogromna opcja łatwej naprawy, gdy system operacyjny w końcu się zapełni. Po prostu zamień dysk lub ponownie ducha tej partycji. Dane użytkownika są nienaruszone. Po prawidłowym skonfigurowaniu między dyskiem D: a profilami mobilnymi ponowna instalacja systemu Windows nie stanowi problemu przez 5 minut. To dobry krok dla technologii poziomu 1.

Coteyr
źródło
Nie jestem pewien, czy „dobrym krokiem dla technologii poziomu 1” byłaby ponowna instalacja systemu Windows, bez względu na to, jak szybko to nastąpi. Myślę, że ponowna instalacja systemu operacyjnego powinna prawie zawsze być rozwiązaniem ostatecznym. Tyle dziwnych rzeczy może się popsuć, jeśli usuniesz instalację systemu operacyjnego we wszystkich zainstalowanych aplikacjach i zastąpisz ją inną (choć bardzo podobną). Na przykład, co dzieje się z wpisami rejestru specyficznymi dla aplikacji, które nie znajdują się w HKCU?
Aaron M. Eshbach,
1
Są również usuwane, co oznacza, że ​​możesz również wykluczyć problemy z konfiguracją.
coteyr
2

Oto jeden powód, ale nie sądzę, że jest to prawidłowy powód dla dzisiejszych (nowoczesnych) komputerów.

Wraca to do Windows 95/98 i XT. Prawdopodobnie nie dotyczy to Visty i nowszych, ale było to ograniczenie sprzętowe, więc uruchomienie nowszego systemu operacyjnego na starym sprzęcie nadal musiałoby sobie z tym poradzić.

Uważam, że ograniczenie wynosiło 2 GB, ale wcześniej mogło istnieć ograniczenie 1 GB (lub może inne).

Problem polegał na tym (coś w tym rodzaju): partycja BOOT musiała znajdować się w pierwszych 2 GB (być może 1 GB wcześniej) fizycznej przestrzeni na dysku. Mogło być tak, że 1) START partycji BOOT musiał znajdować się w granicach limitu lub 2) CAŁA partycja rozruchowa musiała mieścić się w granicach limitu. Możliwe, że w różnych momentach każdy z tych przypadków był zastosowany, ale jeśli zastosuje się to do drugiego, to prawdopodobnie nie trwało to długo, więc zakładam, że to pierwszy.

Tak więc, z numerem 1, START partycji BOOT musiał znajdować się w pierwszych 2 GB przestrzeni fizycznej. Nie wyklucza to utworzenia 1 dużej partycji dla Boot / OS. Problem polegał jednak na rozruchu podwójnym / wielokrotnym. Jeśli kiedykolwiek wydawało się, że istnieje możliwość podwójnego / wielokrotnego rozruchu dysku, musiała być dostępna przestrzeń poniżej znaku 2 GB, aby utworzyć inne partycje rozruchowe na dysku. Ponieważ w czasie instalacji może nie być znane, czy dysk będzie kiedykolwiek potrzebował innej partycji rozruchowej, powiedzmy Linix, lub bootowalnej partycji debugowania / rozwiązywania problemów / odzyskiwania, często zaleca się (i często nie wiadomo, dlaczego) instalację na „małej” „Partycja rozruchowa systemu operacyjnego.

Kevin Fegan
źródło
2

Zastanawiam się, czy twój stary dział IT od dziesięcioleci martwił się o tworzenie kopii zapasowych. Ponieważ C: jest partycją rozruchową / OS, typowym rozwiązaniem jest użycie pewnego rodzaju kopii zapasowej obrazu, ale w przypadku partycji danych / programu można użyć przyrostowej kopii zapasowej pliku i folderu. Zmniejszenie miejsca używanego na partycji C: skróciłoby czas i miejsce potrzebne do utworzenia kopii zapasowej systemu.


Komentarz na temat mojego osobistego użytkowania partycji C:. Mam system wielokrotnego rozruchu, w tym Win 7 i Win 10 i nie mam żadnego systemu operacyjnego na partycji C: tylko pliki rozruchowe. Korzystam z kopii zapasowej obrazu systemu Windows zarówno dla Win 7, jak i Win 10, a kopia zapasowa obrazu systemu Windows zawsze zawiera partycję C: (rozruchową), oprócz partycji Win 7 lub Win 10, więc jest to kolejny scenariusz, w którym zmniejszenie ilości dane i programy na partycji C: skracają czas i miejsce potrzebne do utworzenia kopii zapasowej obrazu systemu (lub przywrócenia w razie potrzeby).


Opuszczam tę sekcję w mojej odpowiedzi z powodu poniższych komentarzy.

Ponieważ mój system działa w trybie wielokrotnego rozruchu, ponowne uruchomienie w innym systemie operacyjnym sprawia, że ​​tworzenie kopii zapasowych partycji danych / programów jest prostsze, ponieważ podczas tworzenia kopii zapasowej nie ma żadnej aktywności na partycjach. Napisałem prosty program do tworzenia kopii zapasowych, który wykonuje kopię folderu + pliku wraz z informacjami dotyczącymi bezpieczeństwa i ponownej analizy, ale nie działa całkiem dobrze dla partycji systemu Windows 7 lub Windows 10, więc używam kopii zapasowej obrazu systemu dla C ;, Win 7 i wygraj 10 partycji systemu operacyjnego.

rcgldr
źródło
3
...co? Nie brakuje narzędzi i metod tworzenia kopii zapasowej partycji systemowej. Ponadto Twój domowy system tworzenia kopii zapasowych prawdopodobnie zawiedzie w przypadku jakichkolwiek skomplikowanych problemów, ponieważ nie obsługuje typowych przypadków plików połączonych na twardo (SxS opiera się w dużej mierze na tym), punktów połączenia (ponownie, podstawowy system operacyjny polega na tym), częściowo- zapisane pliki (VSS to obsługuje), zablokowane pliki (ponownie, VSS) itp.
Bob
Prawdopodobnie potrafię wymienić kilka różnych pakietów oprogramowania - veem, macrium, acronis, symentec ghost ... które to robią. Większość z nich korzysta również z wbudowanych mechanizmów w tle.
Journeyman Geek
Uruchamiam veeam, z kopii zapasowej na zewnętrzny dysk, ale biegam codziennie. Jest jeszcze kilka ruchomych części do tworzenia kopii zapasowych, ale z pewnością nie trzeba ręcznie defragmentować ani tworzyć kopii zapasowych w trybie offline.
Journeyman Geek
Jeśli chodzi o forum kopii zapasowych w pełnym wymiarze działowe, prawie wszystko używa VSS dostać migawkę point-in-time (w przeciwnym razie pojawią się problemy podczas powrotem do, powiedzmy, plik bazy danych, która jest częściowo napisany, a następnie kopii zapasowej dziennika bazy danych po plik jest gotowy do odczytu). Disk2vhd jest najbardziej trywialnym przykładem; bardziej kompleksowe pakiety, takie jak Acronis, będą dodatkowo obsługiwać obrazy różnicowe / przyrostowe.
Bob
@Bob - Mój program uruchamiam dopiero po ponownym uruchomieniu systemu operacyjnego w innym systemie operacyjnym, więc żadna partycja, której kopia zapasowa jest wykonywana, nie jest aktywna, co pozwala uniknąć problemu z migawką w momencie próby wykonania kopii zapasowej aktywnej partycji. Podobnie jest z uruchamianiem z dysku CD-ROM w celu uruchomienia narzędzia do tworzenia obrazu dysku w celu „sklonowania” dysku twardego (co zrobiłem jakiś czas temu, kiedy wymieniłem wszystkie dyski twarde).
rcgldr
2

Nie, nie w przypadku systemu Windows i jego głównych pakietów oprogramowania nalegających na powiązania z systemem: pomimo zainstalowania ich w programach :. (Jest to zinstytucjonalizowana konieczność zbudowana w większości systemów operacyjnych.) Wolumen danych: ma sens, ale oddzielny dysk wymienny dla danych (lub NAS lub selektywne lub przyrostowe kopie zapasowe na takim dysku wymiennym) ma jeszcze większy sens.

Partycjonowanie w systemach z wieloma systemami operacyjnymi również ma sens, ale każda partycja zmusza do wybrania twardego górnego limitu pamięci. Generalnie jest lepiej z oddzielnymi dyskami nawet w tym przypadku.

Dzisiaj maszyny wirtualne i dyski w chmurze uzupełniają wiele z tych opcji.

Henrik Erlandsson
źródło
2

Jest jeden szczególny powód - używanie migawek woluminów.

Migawka woluminu jest kopią zapasową całej partycji. Podczas przywracania z tego rodzaju kopii zapasowej przepisujesz całą partycję, skutecznie przywracając system do poprzedniego stanu.

Administrator systemu może regularnie tworzyć takie migawki w ramach przygotowań do wszelkiego rodzaju awarii oprogramowania. Mogą nawet przechowywać je na innej partycji tego samego dysku. Dlatego chcesz, aby partycja systemowa była względnie mała.

Podczas korzystania z tego schematu zachęca się użytkowników do przechowywania danych na dysku sieciowym. W przypadku problemów z oprogramowaniem administrator systemu może po prostu przywrócić system do stanu roboczego. Byłoby to niezwykle czasochłonne w porównaniu do ręcznego zbadania przyczyn problemu i jego rozwiązania.

enkryptor
źródło
0

Programuję od prawie pół wieku. Inna odpowiedź mówi historyczną, a inna długa odpowiedź Wiele dysków fizycznych .

Chcę podkreślić, że wiele dysków fizycznych jest najprawdopodobniej tym, co zapoczątkowało zalecenie. Ponad pół wieku temu, kiedy nie było takich rzeczy jak partycje, niezwykle często stosowano osobny dysk fizyczny dla systemu. Głównym tego powodem jest fizyczny ruch głowic i wirowanie napędów. Te zalety nie istnieją w przypadku partycji, gdy dysk fizyczny jest często używany do innych celów.

Zauważ też, że Unix dzieli system i dane na osobne partycje. Istnieje wiele dobrych powodów, aby to zrobić, jak wyjaśniono w wielu innych odpowiedziach, ale dla wydajności oddzielne dyski fizyczne są podstawowym uzasadnieniem.

użytkownik34660
źródło
-1

Powodem, dla którego robiliśmy 2 partycje, były wirusy. Niektóre wirusy zastępują sektor rozruchowy i początek dysku.

Kopie zapasowe na komputerach użytkowników sprowadzały się do kopii całego programu na dyskietce. (W rzeczywistości nie ma kopii zapasowej)

Kiedy więc wirus „zjadł” początek dysku, zwykle tylko system musiał zostać ponownie zainstalowany.

A jeśli nie było kopii zapasowych, odzyskiwanie danych było łatwiejsze, jeśli druga partycja była nienaruszona.

Więc jeśli masz kopie zapasowe, ten powód jest nieprawidłowy.

Robert Andrzejuk
źródło